- •Введение
- •Управление ресурсами: общие сведения
- •Управление процессами
- •2.1 Состояния процессов и переходы между ними
- •Стратегии и дисциплины планирования загрузки процессоров
- •Стратегия одинакового среднего времени ожидания
- •Дисциплина планирования fifo
- •Справедливая стратегия
- •Дисциплина планирования rr
- •Влияние величины кванта времени на величину средней задержки ответа
- •Стратегия максимальной пропускной способности
- •Дисциплина планирования sjf
- •Дисциплина планирования srt
- •Дисциплина планирования hrrn
- •Стратегия приоритетного планирования
- •Дисциплина лотерейного планирования
- •Дисциплины планирования с множеством очередей
- •Планирование с последовательным прохождением очередей
- •Дисциплина планирования vrr
- •Планирование на основе множества очередей с обратными связями
- •2.3 Планирование в многопользовательской системе – справедливое планирование
- •2.4 Планирование загрузки процессоров в операционных системах реального времени – частотно-монотонное планирование
- •2.5 Планирование загрузки процессоров в многопроцессорных системах
- •Многопроцессорная система с главным процессором
- •Организация с собственным планировщиком для каждого процессора
- •Симметричная многопроцессорная организация (smp)
- •Разбиение системных таблиц
- •Смещение моментов прерывания таймера
- •Стратегия планирования загрузки процессоров в многопроцессорной системе
- •Стратегия распределения загрузки
- •Стратегия максимальной производительности при параллельных вычислениях – бригадное планирование
- •Метод расщепление цикла
- •Метод редукции высоты дерева
- •Параллельное вычисление по альтернативным ветвям
- •Бригадное планирование процессов в многопроцессорной системе
- •2.6 Синхронизация выполнения процессов
- •Алгоритмы взаимоисключения с активным ожиданием
- •Алгоритм 1
- •Алгоритм 2
- •Алгоритм 3
- •Алгоритм 4
- •Алгоритм 5
- •Алгоритм Деккера
- •Алгоритм Петерсона
- •Алгоритм на основе команды процессора "проверить и установить"
- •Алгоритм на основе команды процессора "обменять данные"
- •Недостатки алгоритмов с активным ожиданием
- •Алгоритмы взаимоисключения с блокировкой процессов
- •Открытие объекта синхронизации
- •Закрытие объекта синхронизации
- •Вхождение в критическую секцию
- •Выход из критической секции
- •Замечания по реализации примитивов синхронизации
- •Мониторы
- •2.7 Взаимная блокировка процессов (тупики)
- •Необходимые условия возникновения тупика
- •Методы борьбы с тупиками
- •Предотвращение тупиков
- •Нарушение ожидания дополнительных ресурсов
- •Нарушение неперераспределимости ресурсов
- •Нарушение условия кругового ожидания
- •Устранение тупиков
- •Обнаружение тупиков
- •Управление памятью
- •3.1 Иерархическая модель памяти
- •Оценка среднего времени доступа к данным при использовании многоуровневой модели памяти
- •Локализация ссылок при обращении к памяти
- •3.2 Виртуальная память
- •Предпосылки создания виртуальной памяти
- •Архитектура виртуальной памяти
- •Подсистема трансляции адресов
- •Метод прямого отображения
- •Метод ассоциативного отображения
- •Метод комбинированного отображения
- •Архитектура виртуального адресного пространства
- •Сегментная организация виртуальной памяти
- •Страничная организация виртуальной памяти
- •Сегментно-страничная организация виртуальной памяти
- •Отображение файла на виртуальное адресное пространство
- •Совместное использование данных в оперативной памяти
- •3.3 Основные стратегии управления памятью
- •Стратегии выборки данных
- •Стратегии размещения данных
- •Выделение памяти по стратегии первого подходящего
- •Выделение памяти по стратегии наиболее подходящего
- •Выделение памяти по стратегии наименее подходящего
- •Стратегии замещения данных
- •Замещение с немедленной перезаписью и замещение с буферизацией
- •Замещение с локальной и глобальной областью видимости
- •3.4 Управление виртуальной памятью
- •Выборка в системе виртуальной памяти
- •Реализация выборки по требованию
- •Размещение в системе виртуальной памяти
- •Замещение в системе виртуальной памяти
- •Стратегия выталкивания случайной страницы
- •Оптимальная стратегия
- •Дисциплина fifo – выталкивание наиболее старой страницы
- •Дисциплина lru – выталкивание дольше всего неиспользуемой страницы
- •Дисциплина lfu – выталкивание страницы с наименьшей частотой обращений
- •Дисциплина nru – выталкивание страницы, не используемой в последнее время
- •Часовой алгоритм
- •Управление резидентным множеством страниц процесса
- •Понятие рабочего множества страниц процесса
- •Управление резидентными множествами на основе рабочих множеств
- •Глобальное замещение, динамическое резидентное множество
- •Локальное замещение, фиксированное резидентное множество
- •Локальное замещение, динамическое резидентное множество
- •Алгоритм на основе оценки частоты прерываний – дисциплина pff (Page Fault Frequency)
- •Алгоритм с переменным пробным интервалом – дисциплина vsws
- •Влияние размера страницы
- •Оптимизация работы дискового накопителя
- •Оптимизация механических перемещений головок диска
- •Основы устройства и функционирования дисковых накопителей
- •Стратегии оптимизации механических перемещений головок диска
- •Стратегия fcfs – Fist Come First Served
- •Стратегия sstf – Shortest Seek Time First
- •Стратегия scan – Scanning
- •Стратегия n-step scan – n-step Scanning
- •Системный дисковый кэш
- •Структура системного дискового кэша
- •Хэширование, хэш-функции и хэш-очереди
- •Структура блока и очередей дискового кэша
- •Работа системного дискового кэша
- •Упреждающее чтение
- •Реализация дискового кэша на основе виртуальной памяти
- •3.6 Надежность операционной системы при использовании системного дискового кэша
- •Буферизация ввода-вывода на пользовательском уровне
- •3.7 Процессорный кэш
- •Отображение участков озу на процессорный кэш
- •Случайное отображение участков озу в процессорный кэш
- •Детерминированное отображение участков озу в процессорный кэш
- •Комбинированное отображение участков озу в процессорный кэш
- •Работа процессорного кэша в режиме записи данных
- •3.8 Динамическое распределение памяти
- •Куча (heap)
- •Алгоритмы динамического распределения памяти
- •Отложенное объединение свободных блоков
- •Оптимизация списка свободных блоков
- •Метод парных меток для поддержания списка блоков кучи
- •Специальные алгоритмы динамического распределения памяти из кучи
- •Метод близнецов (или метод двойников)
- •Алгоритм выделения блоков памяти одинакового размера
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
Дисциплина планирования vrr
Дисциплина планирования загрузки процессоров VRR (Virtual Round Robin – Виртуальное круговое планирование) назначает приоритеты процессов, вышедших из состояния блокировки, в зависимости от причины самоблокирования процесса (определяет очередь готовых процессов, в которую будет помещен процесс).
На рис. 8 приведена схема работы дисциплины VRR.
Рис.8. Планирование VRR
Процессы, полностью отработавшие свой временной квант, снимаются с выполнения и переносятся в конец очереди наименьшего приоритета. Очереди высоких приоритетов обслуживают процессы, вышедшие из состояния блокировки, причем приоритет процесса (номер очереди) определяется причиной блокирования. Например, процесс, заблокированный в ожидании пользовательского ввода, при выходе из состояния блокировки обычно получает более высокий приоритет, чем процесс, заблокированный в ожидании дисковой операции, который, в свою очередь, получит более высокий приоритет, чем процесс, заблокированный на входе в критическую секцию кода.
Такой подход позволяет оказать предпочтение процессам, лимитируемым вводом-выводом, на любом этапе жизненного цикла процесса.
Планирование на основе множества очередей с обратными связями
Обобщением рассмотренных подходов к планированию загрузки процессора с использованием множества очередей готовности является планирование на основе множества очередей с обратными связями.
При этом процесс может переходить между очередями различных приоритетов в любом направлении в зависимости от характера процесса, времени, проведенного в состоянии ожидания, блокировки и выполнения, причины блокировки и т.п.
Концепция планирования на основе множества очередей с обратными связями поясняется на рис. 9.
Рис.9. Планирование на основе множества очередей с обратными связями
Концепция планирования на основе множества очередей с обратными связями является наиболее гибкой и используется всеми современными операционными системами. Отличия между планировщиками загрузки процессоров реальных операционных систем состоят в числе поддерживаемых очередей и стратегии динамического изменения приоритетов.
При этом для обслуживания каждой отдельной очереди может использоваться любая из рассмотренных дисциплин планирования с одной очередью, но чаще всего используется FIFO или RR.
2.3 Планирование в многопользовательской системе – справедливое планирование
Рассмотренные до настоящего времени дисциплины планирования загрузки процессоров выполняли планирование исключительно на основе приоритетов процессов, при этом ни как не учитывалась принадлежность этих процессов к той или иной задаче или пользователю.
В однопользовательской операционной системе такой подход вполне применим, но в многопользовательской системе он может приводить к несправедливому распределению ресурсов процессора между пользователями.
Например, пусть некоторый пользователь таким образом подготовил свою программу, что решение его задачи может параллельно выполняться несколькими независимыми процессами (например, все процессы работают с некоторой глобальной областью данных). Тогда этот пользователь, войдя в систему, может запустить множество процессов, которые будут конкурировать за процессор наравне с процессами других пользователей. Если приоритеты всех процессов одинаковы, то данный пользователь получит долю процессорного времени, пропорциональную числу запущенных им процессов. Если он запустит очень много процессов, то при некоторых условиях может получить почти все процессорное время за счет других пользователей.
В многопользовательской системе желательно предотвратить такие ситуации. На первый взгляд кажется, что проблему можно решить путем разделения процессорного времени на кванты по числу работающих пользователей. Но такой подход применим, только если у каждого пользователя в любой момент времени будет хотя бы один готовый к выполнению процесс. В противном случае неизбежны простои процессора.
Более эффективным является справедливое планирование на основе приоритетов, с использованием комбинации приоритетов процессов и пользователей. Наиболее известной дисциплиной планирования такого рода является дисциплина FSS (Fire-Share Scheduler), применяемая в некоторых UNIX системах.
Согласно дисциплине FSS, приоритет для -го процесса, принадлежащего -му пользователю, вычисляется по следующей формуле:
( 0 )
где - базовый (начальный) приоритет -го процесса;
- коэффициент использования процессора -м процессом;
- коэффициент использования процессора -м пользователям;
- относительный приоритет -го пользователя, причем .
Дисциплина FSS является вытесняющей. Если появляется готовый к выполнению процесс с приоритетом более высоким, чем у текущего процесса, то текущий процесс снимается с выполнение в пользу наиболее приоритетного.
Приоритеты процессов должны пересчитываться периодически, например, по прерываниям системного таймера. Заметим, что в дисциплине FSS полагается, что более высокому уровню приоритета соответствует меньшее абсолютное значение , причем .
При каждом прерывании таймера обновляются коэффициенты использования процессора процессом и пользователем. Коэффициенты использования процессора обновляются по следующей формуле:
( 0 )
где интервал времени между прерываниями таймера.
Таким образом, пока процесс исполняется, растет приоритет использования процессора процессом и пользователем, владеющим данным процессом.
Дисциплина FSS обеспечивает для каждого пользователя использование доли процессорного времени, пропорциональной относительному приоритету пользователя. При равных приоритетах все пользователи получают равные доли процессорного времени, независимо от числа запущенных процессов.
При этом исключаются простои процессора при наличии готового к выполнению процесса хотя бы у одного пользователя.