- •Введение
- •Управление ресурсами: общие сведения
- •Управление процессами
- •2.1 Состояния процессов и переходы между ними
- •Стратегии и дисциплины планирования загрузки процессоров
- •Стратегия одинакового среднего времени ожидания
- •Дисциплина планирования fifo
- •Справедливая стратегия
- •Дисциплина планирования rr
- •Влияние величины кванта времени на величину средней задержки ответа
- •Стратегия максимальной пропускной способности
- •Дисциплина планирования sjf
- •Дисциплина планирования srt
- •Дисциплина планирования hrrn
- •Стратегия приоритетного планирования
- •Дисциплина лотерейного планирования
- •Дисциплины планирования с множеством очередей
- •Планирование с последовательным прохождением очередей
- •Дисциплина планирования vrr
- •Планирование на основе множества очередей с обратными связями
- •2.3 Планирование в многопользовательской системе – справедливое планирование
- •2.4 Планирование загрузки процессоров в операционных системах реального времени – частотно-монотонное планирование
- •2.5 Планирование загрузки процессоров в многопроцессорных системах
- •Многопроцессорная система с главным процессором
- •Организация с собственным планировщиком для каждого процессора
- •Симметричная многопроцессорная организация (smp)
- •Разбиение системных таблиц
- •Смещение моментов прерывания таймера
- •Стратегия планирования загрузки процессоров в многопроцессорной системе
- •Стратегия распределения загрузки
- •Стратегия максимальной производительности при параллельных вычислениях – бригадное планирование
- •Метод расщепление цикла
- •Метод редукции высоты дерева
- •Параллельное вычисление по альтернативным ветвям
- •Бригадное планирование процессов в многопроцессорной системе
- •2.6 Синхронизация выполнения процессов
- •Алгоритмы взаимоисключения с активным ожиданием
- •Алгоритм 1
- •Алгоритм 2
- •Алгоритм 3
- •Алгоритм 4
- •Алгоритм 5
- •Алгоритм Деккера
- •Алгоритм Петерсона
- •Алгоритм на основе команды процессора "проверить и установить"
- •Алгоритм на основе команды процессора "обменять данные"
- •Недостатки алгоритмов с активным ожиданием
- •Алгоритмы взаимоисключения с блокировкой процессов
- •Открытие объекта синхронизации
- •Закрытие объекта синхронизации
- •Вхождение в критическую секцию
- •Выход из критической секции
- •Замечания по реализации примитивов синхронизации
- •Мониторы
- •2.7 Взаимная блокировка процессов (тупики)
- •Необходимые условия возникновения тупика
- •Методы борьбы с тупиками
- •Предотвращение тупиков
- •Нарушение ожидания дополнительных ресурсов
- •Нарушение неперераспределимости ресурсов
- •Нарушение условия кругового ожидания
- •Устранение тупиков
- •Обнаружение тупиков
- •Управление памятью
- •3.1 Иерархическая модель памяти
- •Оценка среднего времени доступа к данным при использовании многоуровневой модели памяти
- •Локализация ссылок при обращении к памяти
- •3.2 Виртуальная память
- •Предпосылки создания виртуальной памяти
- •Архитектура виртуальной памяти
- •Подсистема трансляции адресов
- •Метод прямого отображения
- •Метод ассоциативного отображения
- •Метод комбинированного отображения
- •Архитектура виртуального адресного пространства
- •Сегментная организация виртуальной памяти
- •Страничная организация виртуальной памяти
- •Сегментно-страничная организация виртуальной памяти
- •Отображение файла на виртуальное адресное пространство
- •Совместное использование данных в оперативной памяти
- •3.3 Основные стратегии управления памятью
- •Стратегии выборки данных
- •Стратегии размещения данных
- •Выделение памяти по стратегии первого подходящего
- •Выделение памяти по стратегии наиболее подходящего
- •Выделение памяти по стратегии наименее подходящего
- •Стратегии замещения данных
- •Замещение с немедленной перезаписью и замещение с буферизацией
- •Замещение с локальной и глобальной областью видимости
- •3.4 Управление виртуальной памятью
- •Выборка в системе виртуальной памяти
- •Реализация выборки по требованию
- •Размещение в системе виртуальной памяти
- •Замещение в системе виртуальной памяти
- •Стратегия выталкивания случайной страницы
- •Оптимальная стратегия
- •Дисциплина fifo – выталкивание наиболее старой страницы
- •Дисциплина lru – выталкивание дольше всего неиспользуемой страницы
- •Дисциплина lfu – выталкивание страницы с наименьшей частотой обращений
- •Дисциплина nru – выталкивание страницы, не используемой в последнее время
- •Часовой алгоритм
- •Управление резидентным множеством страниц процесса
- •Понятие рабочего множества страниц процесса
- •Управление резидентными множествами на основе рабочих множеств
- •Глобальное замещение, динамическое резидентное множество
- •Локальное замещение, фиксированное резидентное множество
- •Локальное замещение, динамическое резидентное множество
- •Алгоритм на основе оценки частоты прерываний – дисциплина pff (Page Fault Frequency)
- •Алгоритм с переменным пробным интервалом – дисциплина vsws
- •Влияние размера страницы
- •Оптимизация работы дискового накопителя
- •Оптимизация механических перемещений головок диска
- •Основы устройства и функционирования дисковых накопителей
- •Стратегии оптимизации механических перемещений головок диска
- •Стратегия fcfs – Fist Come First Served
- •Стратегия sstf – Shortest Seek Time First
- •Стратегия scan – Scanning
- •Стратегия n-step scan – n-step Scanning
- •Системный дисковый кэш
- •Структура системного дискового кэша
- •Хэширование, хэш-функции и хэш-очереди
- •Структура блока и очередей дискового кэша
- •Работа системного дискового кэша
- •Упреждающее чтение
- •Реализация дискового кэша на основе виртуальной памяти
- •3.6 Надежность операционной системы при использовании системного дискового кэша
- •Буферизация ввода-вывода на пользовательском уровне
- •3.7 Процессорный кэш
- •Отображение участков озу на процессорный кэш
- •Случайное отображение участков озу в процессорный кэш
- •Детерминированное отображение участков озу в процессорный кэш
- •Комбинированное отображение участков озу в процессорный кэш
- •Работа процессорного кэша в режиме записи данных
- •3.8 Динамическое распределение памяти
- •Куча (heap)
- •Алгоритмы динамического распределения памяти
- •Отложенное объединение свободных блоков
- •Оптимизация списка свободных блоков
- •Метод парных меток для поддержания списка блоков кучи
- •Специальные алгоритмы динамического распределения памяти из кучи
- •Метод близнецов (или метод двойников)
- •Алгоритм выделения блоков памяти одинакового размера
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
Стратегии размещения данных
Для решения задачи размещения данных необходимо найти в адресном пространстве уровня-получателя свободный участок для размещения этих данных, при этом полагается, что на уровне-получателе есть достаточно свободной памяти. Если же это не так, и свободной памяти недостаточно, то необходимо сначала обратиться к задаче замещения, для выгрузки части данных на нижележащие уровни.
Различают связное и несвязное распределение памяти. Связное распределение памяти предполагает, что весь необходимый объем памяти будет выделен единым фрагментом. Несвязное же распределение позволяет набирать требуемый объем памяти из нескольких не примыкающих друг к другу фрагментов. Очевидно, что связное распределение памяти реализовать сложнее. Кроме того, в силу особенностей архитектуры процессоров и сложившихся методов программирования, в реальных системах почти всегда требуется выполнять связное распределение.
Существует несколько методов для решения задачи связного распределения памяти, но в любом случае, алгоритм размещения должен поддерживать некоторую структуру данных – карту памяти, позволяющую учитывать распределение свободных и занятых областей памяти в адресном пространстве. При этом решение задачи размещения данных сводится к просмотру списка свободных областей и выбору одной свободной области, пригодной для размещения данных. Если размер этой выбранной области окажется больше, чем требуется для размещения данных, то ее остаток отделяется и образует новую свободную область, которая заносится в карту памяти.
В зависимости от правила, определяющего пригодность свободной области для размещения новых данных, различают три стратегии распределения памяти:
стратегия первого подходящего – для размещения новых данных выбирается первый же встреченный свободный участок достаточного размера;
стратегия наиболее подходящего – для размещения новых данных выбирается самый маленький свободный участок, способный вместить эти данные;
стратегия наименее подходящего – для размещения новых данных выбирается самый большой свободный участок.
Каждая из указанных стратегий имеет свои преимущества и недостатки, ограничивающие их практическую применимость. Рассмотрим их более внимательно.
Выделение памяти по стратегии первого подходящего
Основным преимуществом стратегии первого подходящего является высокая скорость выделения памяти – это единственная из трех рассматриваемых стратегий, не требующая просмотра всего списка свободных блоков: просмотр списка свободных блоков прекращается, как только будет найден блок достаточного размера.
Основным недостатком этой стратегии является накопление свободных блоков малого размера в начале списка свободных блоков. Это увеличивает время поиска подходящего блока при последующих запросах на размещение данных, т.к. пока алгоритм доберется до блока подходящего размера, приходится просматривать множество коротких блоков в начале списка.
Для борьбы с этим явлением было предложено несколько усовершенствований, например, двунаправленный просмотр списка: при первом запросе на выделение памяти просмотр списка свободных блоков выполняется от начала списка к концу, при втором – от конца списка к началу и т.д. Но наилучшие результаты дает простая модификация стратегии первого подходящего, известная как стратегия следующего подходящего.
Основная идея стратегии следующего подходящего заключается в том, чтобы начать просмотр списка свободных блоков с той позиции, где в прошлый раз был выделен блок памяти. При достижении конца списка, просмотр снова начинается сначала и т.д.
Стратегия следующего подходящего исключает скопление коротких свободных блоков в какой-либо части списка, но имеет другой недостаток.
При использовании традиционной реализации стратегии первого подходящего, с однонаправленным просмотром списка свободных блоков, в конце списка обычно сохраняются свободные блоки большого размера, т.к. при просмотре списка редко достигается его конец: требуемый блок обычно удается найти раньше. Эти крупные свободные блоки служат резервом подсистемы выделения памяти: при запросе большого объема памяти, его почти всегда удается найти в конце списка свободных блоков.
Стратегия же следующего подходящего достаточно быстро разбивает большие свободные блоки. Безусловно, распределение свободных блоков различного размера по списку становится более равномерным, исключается скопление малых блоков в голове списка, но зато исчезает и резерв блоков большого размера. В результате растет вероятность отказа при запросе выделения памяти.
Тем не менее, стратегия следующего подходящего в большинстве практических случаев работает вполне приемлемо, и часто применяется на практике.