- •Что такое операционная система Структура вычислительной системы
- •Что такое ос
- •Операционная система как виртуальная машина
- •Операционная система как менеджер ресурсов
- •Операционная система как защитник пользователей и программ
- •Операционная система как постоянно функционирующее ядро
- •Краткая история эволюции вычислительных систем
- •Первый период (1945–1955 гг.). Ламповые машины. Операционных систем нет
- •Второй период (1955 г.–начало 60-х). Компьютеры на основе транзисторов. Пакетные операционные системы
- •Третий период (начало 60-х – 1980 г.). Компьютеры на основе интегральных микросхем. Первые многозадачные ос
- •Четвертый период (с 1980 г. По настоящее время). Персональные компьютеры. Классические, сетевые и распределенные системы
- •Основные понятия, концепции ос
- •Системные вызовы
- •Прерывания
- •Исключительные ситуации
- •Процессы, нити
- •Архитектурные особенности ос
- •Монолитное ядро
- •Многоуровневые системы (Layered systems)
- •Виртуальные машины
- •Микроядерная архитектура
- •Смешанные системы
- •Классификация ос
- •Реализация многозадачности
- •Поддержка многопользовательского режима
- •Многопроцессорная обработка
- •Системы реального времени
- •Заключение
- •Приложение 1. Некоторые сведения об архитектуре компьютера
- •Взаимодействие с периферийными устройствами
- •2. Лекция: Процессы
- •Понятие процесса
- •Состояния процесса
- •Операции над процессами и связанные с ними понятия Набор операций
- •Process Control Block и контекст процесса
- •Одноразовые операции
- •Многоразовые операции
- •Переключение контекста
- •Заключение
- •3. Лекция: Планирование процессов
- •Уровни планирования
- •Критерии планирования и требования к алгоритмам
- •Параметры планирования
- •Вытесняющее и невытесняющее планирование
- •Алгоритмы планирования
- •First-Come, First-Served (fcfs)
- •Round Robin (rr)
- •Shortest-Job-First (sjf)
- •Гарантированное планирование
- •Приоритетное планирование
- •Многоуровневые очереди (Multilevel Queue)
- •Многоуровневые очереди с обратной связью (Multilevel Feedback Queue)
- •Заключение
- •4. Лекция: Кооперация процессов и основные аспекты ее логической организации
- •Взаимодействующие процессы
- •Категории средств обмена информацией
- •Логическая организация механизма передачи информации
- •Как устанавливается связь?
- •Информационная валентность процессов и средств связи
- •Особенности передачи информации с помощью линий связи
- •Буферизация
- •Поток ввода/вывода и сообщения
- •Надежность средств связи
- •Как завершается связь?
- •Нити исполнения
- •Заключение
- •5. Лекция: Алгоритмы синхронизации
- •Interleaving, race condition и взаимоисключения
- •Критическая секция
- •Программные алгоритмы организации взаимодействия процессов Требования, предъявляемые к алгоритмам
- •Запрет прерываний
- •Переменная-замок
- •Строгое чередование
- •Флаги готовности
- •Алгоритм Петерсона
- •Алгоритм булочной (Bakery algorithm)
- •Аппаратная поддержка взаимоисключений
- •Команда Test-and-Set (проверить и присвоить 1)
- •Команда Swap (обменять значения)
- •Заключение
- •6. Лекция: Механизмы синхронизации
- •Семафоры
- •Концепция семафоров
- •Решение проблемы producer-consumer с помощью семафоров
- •Мониторы
- •Сообщения
- •Эквивалентность семафоров, мониторов и сообщений
- •Реализация мониторов и передачи сообщений с помощью семафоров
- •Реализация семафоров и передачи сообщений с помощью мониторов
- •Реализация семафоров и мониторов с помощью очередей сообщений
- •Заключение
- •7. Лекция: Тупики Введение
- •Условия возникновения тупиков
- •Основные направления борьбы с тупиками
- •Игнорирование проблемы тупиков
- •Способы предотвращения тупиков
- •Способы предотвращения тупиков путем тщательного распределения ресурсов. Алгоритм банкира
- •Предотвращение тупиков за счет нарушения условий возникновения тупиков
- •Нарушение условия взаимоисключения
- •Нарушение условия ожидания дополнительных ресурсов
- •Нарушение принципа отсутствия перераспределения
- •Hарушение условия кругового ожидания
- •Обнаружение тупиков
- •Восстановление после тупиков
- •Заключение
- •8. Лекция: Организация памяти компьютера. Простейшие схемы управления памятью Введение
- •Физическая организация памяти компьютера
- •Локальность
- •Логическая память
- •Связывание адресов
- •Функции системы управления памятью
- •Простейшие схемы управления памятью
- •Один процесс в памяти
- •Оверлейная структура
- •Динамическое распределение. Свопинг
- •Страничная память
- •Сегментная и сегментно-страничная организация памяти
- •Заключение
- •9. Лекция: Виртуальная память. Архитектурные средства поддержки виртуальной памяти
- •Понятие виртуальной памяти
- •Архитектурные средства поддержки виртуальной памяти
- •Страничная виртуальная память
- •Сегментно-страничная организации виртуальной памяти
- •Структура таблицы страниц
- •Ассоциативная память
- •Инвертированная таблица страниц
- •Размер страницы
- •Заключение
- •10. Лекция: Аппаратно-независимый уровень управления виртуальной памятью
- •Исключительные ситуации при работе с памятью
- •Стратегии управления страничной памятью
- •Алгоритмы замещения страниц
- •Алгоритм fifo. Выталкивание первой пришедшей страницы
- •Аномалия Билэди (Belady)
- •Оптимальный алгоритм (opt)
- •Выталкивание дольше всего не использовавшейся страницы. Алгоритм lru
- •Выталкивание редко используемой страницы. Алгоритм nfu
- •Другие алгоритмы
- •Управление количеством страниц, выделенным процессу. Модель рабочего множества
- •Трешинг (Thrashing)
- •Модель рабочего множества
- •Страничные демоны
- •Программная поддержка сегментной модели памяти процесса
- •Отдельные аспекты функционирования менеджера памяти
- •Заключение
- •11. Лекция: Файлы с точки зрения пользователя Введение
- •Общие сведения о файлах Имена файлов
- •Типы файлов
- •Атрибуты файлов
- •Организация файлов и доступ к ним
- •Последовательный файл
- •Файл прямого доступа
- •Другие формы организации файлов
- •Операции над файлами
- •Директории. Логическая структура файлового архива
- •Разделы диска. Организация доступа к архиву файлов.
- •Операции над директориями
- •Защита файлов
- •Контроль доступа к файлам
- •Списки прав доступа
- •Заключение
- •12. Лекция: Реализация файловой системы
- •Общая структура файловой системы
- •Управление внешней памятью
- •Методы выделения дискового пространства
- •Выделение непрерывной последовательностью блоков
- •Связный список
- •Индексные узлы
- •Управление свободным и занятым дисковым пространством
- •Учет при помощи организации битового вектора
- •Учет при помощи организации связного списка
- •Размер блока
- •Структура файловой системы на диске
- •Монтирование файловых систем
- •Связывание файлов
- •Кооперация процессов при работе с файлами
- •Примеры разрешения коллизий и тупиковых ситуаций
- •Hадежность файловой системы
- •Целостность файловой системы
- •Порядок выполнения операций
- •Журнализация
- •Проверка целостности файловой системы при помощи утилит
- •Управление "плохими" блоками
- •Производительность файловой системы
- •Кэширование
- •Оптимальное размещение информации на диске
- •Реализация некоторых операций над файлами
- •Системные вызовы, работающие с символическим именем файла Системные вызовы, связывающие pathname с дескриптором файла
- •Связывание файла
- •Удаление файла
- •Системные вызовы, работающие с файловым дескриптором
- •Функции ввода-вывода из файла
- •Современные архитектуры файловых систем
- •Заключение
- •13. Лекция: Система управления вводом-выводом
- •Физические принципы организации ввода-вывода
- •Общие сведения об архитектуре компьютера
- •Структура контроллера устройства
- •Опрос устройств и прерывания. Исключительные ситуации и системные вызовы
- •Прямой доступ к памяти (Direct Memory Access – dma)
- •Логические принципы организации ввода-вывода
- •Структура системы ввода-вывода
- •Систематизация внешних устройств и интерфейс между базовой подсистемой ввода-вывода и драйверами
- •Функции базовой подсистемы ввода-вывода
- •Блокирующиеся, неблокирующиеся и асинхронные системные вызовы
- •Буферизация и кэширование
- •Spooling и захват устройств
- •Обработка прерываний и ошибок
- •Планирование запросов
- •Алгоритмы планирования запросов к жесткому диску
- •Строение жесткого диска и параметры планирования
- •Алгоритм First Come First Served (fcfs)
- •Алгоритм Short Seek Time First (sstf)
- •Алгоритмы сканирования (scan, c-scan, look, c-look)
- •Заключение
- •14. Лекция: Сети и сетевые операционные системы
- •Для чего компьютеры объединяют в сети
- •Сетевые и распределенные операционные системы
- •Взаимодействие удаленных процессов как основа работы вычислительных сетей
- •Основные вопросы логической организации передачи информации между удаленными процессами
- •Понятие протокола
- •Многоуровневая модель построения сетевых вычислительных систем
- •Проблемы адресации в сети
- •Одноуровневые адреса
- •Двухуровневые адреса
- •Удаленная адресация и разрешение адресов
- •Локальная адресация. Понятие порта
- •Полные адреса. Понятие сокета (socket)
- •Проблемы маршрутизации в сетях
- •Связь с установлением логического соединения и передача данных с помощью сообщений
- •Синхронизация удаленных процессов
- •Заключение
- •15. Лекция: Основные понятия информационной безопасности Введение
- •Угрозы безопасности
- •Формализация подхода к обеспечению информационной безопасности
- •Криптография как одна из базовых технологий безопасности ос
- •Шифрование с использованием алгоритма rsa
- •Теорема Эйлера
- •Заключение
- •16. Лекция: Защитные механизмы операционных систем
- •Идентификация и аутентификация
- •Пароли, уязвимость паролей
- •Шифрование пароля
- •Авторизация. Разграничение доступа к объектам ос
- •Домены безопасности
- •Матрица доступа
- •Список прав доступа. Access control list
- •Мандаты возможностей. Capability list
- •Другие способы контроля доступа
- •Смена домена
- •Недопустимость повторного использования объектов
- •Выявление вторжений. Аудит системы защиты
- •Анализ некоторых популярных ос с точки зрения их защищенности
- •NetWare, IntranetWare
- •Windows nt/2000/xp
- •Заключение
- •Список литературы
Как завершается связь?
Наконец, важным вопросом при изучении средств обмена данными является вопрос прекращения обмена. Здесь нужно выделить два аспекта: требуются ли от процесса какие-либо специальные действия по прекращению использования средства коммуникации и влияет ли такое прекращение на поведение других процессов. Для способов связи, которые не подразумевали никаких инициализирующих действий, обычно ничего специального для окончания взаимодействия предпринимать не надо. Если же установление связи требовало некоторой инициализации, то, как правило, при ее завершении бывает необходимо выполнить ряд операций, например сообщить операционной системе об освобождении выделенного связного ресурса.
Если кооперативные процессы прекращают взаимодействие согласованно, то такое прекращение не влияет на их дальнейшее поведение. Иная картина наблюдается при несогласованном окончании связи одним из процессов. Если какой-либо из взаимодействующих процессов, не завершивших общение, находится в этот момент в состоянии ожидания получения данных либо попадает в такое состояние позже, то операционная система обязана предпринять некоторые действия для того, чтобы исключить вечное блокирование этого процесса. Обычно это либо прекращение работы ожидающего процесса, либо его извещение о том, что связи больше нет (например, с помощью передачи заранее определенного сигнала).
Нити исполнения
Рассмотренные выше аспекты логической реализации относятся к средствам связи, ориентированным на организацию взаимодействия различных процессов. Однако усилия, направленные на ускорение решения задач в рамках классических операционных систем, привели к появлению совершенно иных механизмов, к изменению самого понятия "процесс".
В свое время внедрение идеи мультипрограммирования позволило повысить пропускную способность компьютерных систем, т. е. уменьшить среднее время ожидания результатов работы процессов. Но любой отдельно взятый процесс в мультипрограммной системе никогда не может быть выполнен быстрее, чем при работе в однопрограммном режиме на том же вычислительном комплексе. Тем не менее, если алгоритм решения задачи обладает определенным внутренним параллелизмом, мы могли бы ускорить его работу, организовав взаимодействие нескольких процессов. Рассмотрим следующий пример. Пусть у нас есть следующая программа на псевдоязыке программирования:
Ввести массив a
Ввести массив b
Ввести массив c
a = a + b
c = a + c
Вывести массив c
При выполнении такой программы в рамках одного процесса этот процесс четырежды будет блокироваться, ожидая окончания операций ввода-вывода. Но наш алгоритм обладает внутренним параллелизмом. Вычисление суммы массивов a + bможно было бы выполнять параллельно с ожиданием окончания операции ввода массиваc.
Ввести массив a
Ожидание окончания операции ввода
Ввести массив b
Ожидание окончания операции ввода
Ввести массив с
Ожидание окончания операции ввода a = a + b
c = a + c
Вывести массив с
Ожидание окончания операции вывода
Такое совмещение операций по времени можно было бы реализовать, используя два взаимодействующих процесса. Для простоты будем полагать, что средством коммуникации между ними служитразделяемая память. Тогда наши процессы могут выглядеть следующим образом.
Процесс 1 Процесс 2
Ввести массив a Ожидание ввода
Ожидание окончания массивов a и b
операции ввода
Ввести массив b
Ожидание окончания
операции ввода
Ввести массив с
Ожидание окончания a = a + b
операции ввода
c = a + c
Вывести массив с
Ожидание окончания
операции вывода
Казалось бы, мы предложили конкретный способ ускорения решения задачи. Однако в действительности дело обстоит не так просто. Второй процесс должен быть создан, оба процесса должны сообщить операционной системе, что им необходима память, которую они могли бы разделить с другим процессом, и, наконец, нельзя забывать о переключении контекста. Поэтому реальное поведение процессов будет выглядеть примерно так.
Процесс 1 Процесс 2
Создать процесс 2
Переключение контекста
Выделение общей
памяти
Ожидание ввода
a и b
Переключение контекста
Выделение общей памяти
Ввести массив a
Ожидание окончания
операции ввода
Ввести массив b
Ожидание окончания
операции ввода
Ввести массив с
Ожидание окончания
операции ввода
Переключение контекста
a = a + b
Переключение контекста
c = a + c
Вывести массив с
Ожидание окончания
операции вывода
Очевидно, что мы можем не только не выиграть во времени при решении задачи, но даже и проиграть, так как временные потери на создание процесса, выделение общей памяти и переключение контекста могут превысить выигрыш, полученный за счет совмещения операций.
Для того чтобы реализовать нашу идею, введем новую абстракцию внутри понятия "процесс" – нить исполненияили простонить(в англоязычной литературе используется терминthread).Нити процессаразделяют его программный код, глобальные переменные и системные ресурсы, но каждаянитьимеет собственный программный счетчик, свое содержимое регистров и свой стек. Теперь процесс представляется как совокупность взаимодействующихнитейи выделенных ему ресурсов. Процесс, содержащий всего однунить исполнения, идентичен процессу в том смысле, который мы употребляли ранее. Для таких процессов мы в дальнейшем будем использовать термин "традиционный процесс". Иногданитиназывают облегченными процессами или мини-процессами, так как во многих отношениях они подобны традиционным процессам.Нити, как и процессы, могут порождать нити-потомки, правда, только внутри своего процесса, и переходить из одного состояния в другое. Состояниянитейаналогичны состояниям традиционных процессов. Из состояниярождениепроцесс приходит содержащим всего однунить исполнения. Другиенити процессабудут являться потомками этой нити-прародительницы. Мы можем считать, что процесс находится в состоянииготовность, если хотя бы одна из егонитейнаходится в состоянииготовностьи ни одна изнитейне находится в состоянииисполнение. Мы можем считать, что процесс находится в состоянииисполнение, если одна из егонитейнаходится в состоянииисполнение. Процесс будет находиться в состоянииожидание, если все егонитинаходятся в состоянииожидание. Наконец, процесс находится в состояниизакончил исполнение, если все егонитинаходятся в состояниизакончила исполнение. Пока однанить процессазаблокирована, другаянитьтого же процесса может выполняться.Нитиразделяют процессор так же, как это делали традиционные процессы, в соответствии с рассмотренными алгоритмами планирования.
Поскольку нитиодного процесса разделяют существенно больше ресурсов, чем различные процессы, то операции создания новойнитии переключения контекста междунитямиодного процесса занимают значительно меньше времени, чем аналогичные операции для процессов в целом. Предложенная нами схема совмещения работы в терминахнитейодного процесса получает право на существование.
Нить 1 Нить 2
Создать нить 2
Переключение контекста нитей
Ожидание ввода a и b
Переключение контекста нитей
Ввести массив a
Ожидание окончания
операции ввода
Ввести массив b
Ожидание окончания
операции ввода
Ввести массив с
Ожидание окончания
операции ввода
Переключение контекста нитей
a = a + b
Переключение контекста нитей
c = a + c
Вывести массив с
Ожидание окончания
операции вывода
Различают операционные системы, поддерживающие нитина уровне ядра и на уровне библиотек. Все сказанное выше справедливо для операционных систем, поддерживающихнитина уровне ядра. В них планирование использования процессора происходит в терминахнитей, а управление памятью и другими системными ресурсами остается в терминах процессов. В операционных системах, поддерживающихнитина уровне библиотек пользователей, и планирование процессора, и управление системными ресурсами осуществляются в терминах процессов. Распределение использования процессора понитямв рамках выделенного процессу временного интервала осуществляется средствами библиотеки. В подобных системах блокирование однойнитиприводит к блокированию всего процесса, ибо ядро операционной системы не имеет представления о существованиинитей. По сути дела, в таких вычислительных системах просто имитируется наличиенитей исполнения.
Далее в этой части книги для простоты изложения мы будем использовать термин "процесс", хотя все сказанное будет относиться и к нитям исполнения.