![](/user_photo/1334_ivfwg.png)
- •Министерство образования Российской Федерации
- •Содержание
- •1.2 Скорость роста функций
- •1.3 Анализ алгоритмов; время работы в лучшем, худшем случаях и в среднем
- •1.4 Типы данных, структуры данных и абстрактные типы данных
- •1.5 Динамические множества
- •2 Алгоритмы сортировок
- •2.1 Понятие внутренней и внешней сортировки
- •2.2 Сортировка вставками
- •2.3 Сортировка слиянием
- •2.3.1 Описание алгоритма
- •2.3.2 Анализ времени работы алгоритмов «разделяй и властвуй»
- •2.3.2 Анализ времени работы сортировки слиянием через рекуррентное соотношение
- •2.3.3 Анализ времени работы сортировки слиянием через геометрическую интерпретацию
- •2.4 Пирамидальная сортировка
- •2.4.1 Введение в алгоритм
- •2.4.2 Сохранение основного свойства кучи
- •2.4.3 Построение кучи
- •2.5 Быстрая сортировка
- •2.5.1 Введение в алгоритм
- •2.5.2 Описание
- •2.5.3 Разбиение массива
- •2.5.4 Особенности работы быстрой сортировки
- •2.6 Особенности реализации алгоритмов сортировки; сортировка за линейное время
- •2.6.1 Введение
- •2.6.2 Разрешающее дерево сортировки сравнениями
- •2.7 Цифровая сортировка
- •2.8 Сортировка вычерпыванием
- •2.8.1 Описание алгоритма
- •2.8.2 Вероятностный анализ времени работы сортировки вычерпыванием
- •2.8.3 Анализ времени работы сортировки вычерпыванием через геометрическую интерпретацию
- •2.9 Сортировка подсчетом
- •2.9.1 Описание алгоритма
- •2.9.2 Анализ времени работы
- •3 Элементарные и нелинейные структуры данных
- •3.1 Элементарные структуры: список, стек, очередь, дек
- •3.1.1 Список Линейный однонаправленный список
- •Линейный двунаправленный список
- •Двунаправленный список с фиктивными элементами
- •Циклические списки
- •Циклический однонаправленный список
- •Циклический двунаправленный список
- •3.1.2 Стек
- •3.1.3 Очередь
- •3.1.3 Дек
- •3.2 Нелинейные структуры данных
- •3.2.1 Представление корневых деревьев в эвм
- •Обходы деревьев
- •3.2.2 Двоичные деревья Спецификация двоичных деревьев
- •Реализация
- •Обходы двоичных деревьев
- •3.2.3 Двоичные деревья поиска Основные операции
- •Минимум и максимум
- •Следующий и предыдущий элементы
- •Добавление и удаление
- •Случайные деревья поиска
- •Оптимальные деревья поиска
- •4 Хеширование
- •4.1 Введение
- •4.2 Прямая адресация; таблицы с прямой адресацией
- •4.3 Хеш – таблицы; возникновение коллизий и их разрешение
- •Разрешение коллизий с помощью цепочек
- •Анализ хеширования с цепочками
- •4.4 Способы построения хеш – функций Выбор хорошей хеш-функции
- •Ключи как натуральные числа
- •Деление с остатком
- •Умножение
- •Универсальное хеширование
- •4.5 Открытая адресация; способы вычисления последовательности испробованных мест: линейная последовательность проб, квадратичная последовательность проб, двойное хеширование
- •Линейная последовательность проб
- •1 / (1 – )
- •5 Основные принципы разработки алгоритмов
- •5.1 Введение в теорию графов
- •5.1.1 Графы
- •5.1.2 Представление графов
- •5.2 Алгоритмы на графах: поиск в ширину, поиск в глубину
- •5.2.1 Поиск в ширину (волновой алгоритм)
- •5.2.2 Анализ поиска в ширину
- •5.2.3 Деревья поиска в ширину
- •5.2.4 Поиск в глубину
- •5.2.5 Анализ поиска в глубину
- •5.2.6 Свойства поиска в глубину
- •5.2.7 Классификация рёбер
- •5.3 Топологическая сортировка, задача о разбиении графа на сильно связанные компоненты
- •5.3.1 Топологическая сортировка
- •5.3.2 Сильно связные компоненты
- •5.4 Алгоритм построения минимального остовного дерева
- •5.4.1 Остовные деревья минимальной стоимости
- •5.4.2 Построение минимального покрывающего дерева
- •5.4.3 Алгоритмы Крускала и Пpимa
- •5.4.4 Алгоритм Крускала
- •5.4.5 Алгоритм Прима
- •5.5 Задача нахождения кратчайших путей на графах; алгоритм Флойда; алгоритм Дейкстры
- •5.5.1 Нахождение кратчайшего пути
- •5.5.2 Алгоритм Дейкстры
- •5.5.3 Алгоритм Флойда
- •5.6 Поиск с возвратом
- •5.6.1 Введение
- •5.6.2 Переборные алгоритмы
- •5.6.3 Метод ветвей и границ
- •5.6.4 Метод альфа-бета отсечения
- •5.6.5 Локальные и глобальные оптимальные решения
- •5.7 Метод декомпозиции ( «Разделяй и властвуй»)
- •5.7.1 «Ханойские башни»
- •5.8 Жадные алгоритмы и динамическое программирование
- •5.8.1 Задача о выборе заявок
- •5.8.2 Дискретная задача о рюкзаке
- •5.8.3 Непрерывная задача о рюкзаке
- •5.8.4 Числа Фибоначчи
- •5.8.5 Задача триангуляции многоугольника
- •5.8.6 Дп, жадный алгоритм или что-то другое?
5.8 Жадные алгоритмы и динамическое программирование
Итак, что же представляют собой жадные алгоритмы? Перед тем, как ответить на этот вопрос, отве- тим на другой: а что же есть алго- ритм? Кажется, интуитивно мы это понимаем, однако интуиция имеет свойство подводить в самый не- подходящий момент, причем очень незаметно.
Просто алгоритмом будем назы- вать механизм, который должен га- рантировать не только то, что ре- шение будет найдено, но и то, что будет найдено именно оптималь- ное решение. Кроме того, алго- ритм должен обладать следующи- ми качествами:
Ограниченность по времени (работа алгоритма должна прекратиться за разумное время);
Правильность (алгоритм должен находить правильное решение);
Детерминистичность (сколько бы раз не исполнялся алгоритм с одинаковыми входными дан- ными, результат должен быть один и тот же);
Конечность (описание работы алгоритма должно содержать конечное число шагов);
Однозначность (каждый шаг алгоритма должен интерпретироваться однозначно).
Эвристика – это прямая противоположность алгоритму, так как она не дает ни- каких гарантий ни того, что реше- ние будет найдено, ни того, что оно будет оптимальным. Между алгоритмом и эвристикой лежат два понятия, которые называют приблизительный алгоритм (ре- шение гарантировано, но его оп- тимальность – нет) и вероятност- ный алгоритм (решение не гаран- тировано, но если оно будет най- дено, то будет обязательно опти- мальным).
А теперь можно перейти к рас- смотрению жадных алгоритмов. Этот класс алгоритмов намного проще и быстрее, чем динамиче- ское программирование. Жад- ный алгоритм делает на каждом шаге локально оптимальный вы- бор, надеясь, что итоговое решение окажется оптимальным. Од- нако это не всегда так, и потому иногда бывает, что жадный алго- ритм в терминах вышеупомяну- того определения – не полноцен- ный алгоритм, а приблизитель- ный. Но для большого числа ал- горитмических задач жадные ал- горитмы действительно дают оп- тимум. Общую схему работы жадных алгоритмов дадим в кон- це, после рассмотрения конкрет- ных примеров.
5.8.1 Задача о выборе заявок
Пусть подано N заявок на прове- дение занятий в одной и той же ау- дитории. Для каждого занятия из- вестно время его проведения [bi,ei], где bi – время начала заня- тия, еi – время окончания. Два раз- ных занятия не могут перекры- ваться по времени, но условимся, что начало одного может совпа- дать с окончанием другого. Зада- ча состоит в том, чтобы выбрать максимальное число совместимых по времени занятий.
Жадный
алгоритм
поступает
так:
упорядочим
заявки
в
порядке
воз-
растания
времени
окончания:
.На
сортировку
понадобится
време-
ни
O(N log(N))
в
худшем
случае.
Так
как
в
этой
статье
проблема
сортировки
не
рассматривается,
положим,
что
массив уже
отсорти-
рован
по
возрастанию. Далее
все
предельно
просто:
var
b,е: array[1..100] of integer; {входные данные} А: set of byte; {искомое множество}
i,j,n: integer;
begin
read(n);
for i:=1 to n do read(b[i],e[i]);
А := [1]; {начальное значение} j := 1; {самый правый отрезок множества А – первый}
for i:=2 to n do
if b[i]>=е[j] then begin
(если i-й отрезок лежит npaвee j-го) А:=А+[i];
(то включаем j-й )
j := i; (и запоминаем его как самый правый в множестве А)
end;
for i:=1 to n do (выводим результат)
if (i in А) then writeln(i);
end.
Листинг 5.21 – Задача о выборе заявок, рещаемая «жадным» алгоритмом
Вначале А содержит заяв- ку j=1. Далее в цикле по i ищется заявка, начинающаяся не рань- ше, чем оканчивается заявка j. Если таковая найдена, она вклю- чается в множество А, и перемен- ной j присваивается ее номер. Ал- горитм требует всего лишь O(n) шагов (без учета предваритель- ной сортировки). Жадность этого алгоритма состоит в том, что на каждом шаге он делает выбор так, чтобы остающееся свобод- ным время было максимальным (это и есть локально-оптималь- ный выбор).
Теперь докажем, что этот алго- ритм дает оптимальное решение. Прежде всего, докажем, что суще- ствует оптимальное решение за- дачи о выборке заявок, содержа- щее заявку 1 (с самым ранним временем окончания). В самом деле, если в каком-то оптималь- ном множестве заявок заявка 1 не содержится, то можно заменить в нем заявку с самым ранним вре- менем окончания на заявку 1, что не повредит совместности заявок, (ибо заявка 1 кончается еще раньше, чем прежняя, и ни с чем пере- сечься не может) и не изменит их общего количества. Стало быть, можно искать оптимальное мно- жество заявок А среди содержащих заявку 1. После того, как мы договорились рассматривать только наборы, содержащие заяв- ку 1, все несовместные с ней за- явки можно выкинуть, и задача сводится к выбору оптимального набора заявок из множества ос- тавшихся заявок (совместных с заявкой 1). Другими словами, мы свели задачу к аналогичной зада- че с меньшим числом заявок. Pac суждая по индукции, получаем, что, делая на каждом шаге жад- ный выбор, мы придем к опти- мальному решению.
Вспомним динамическое про- граммирование и попробуем ре- шить ту же задачу с помощью не- го. Заведем динамическую табли- цу m[1..n], где m[i] означает мак- симальное число совместных за- явок среди набора с номерами 1..i. Допустим, что подзадачи m[1], m[2],...,m[k1] уже реше- ны. Установим рекуррентную за- висимость для решения задачи m[k]: k-й отрезок можно брать, а можно и не брать в искомое мно- жество. Если мы его не берем, то m[k] = m[k1], а если мы его бе- рем, то
m[k] = 1 + m[ max( i такое, что e[i] ≤ s[k]) ]
Последнее выражение означает, что мы отбросили все заявки, не- совместные с k‑й (левее нее), взя- ли оптимум для оставшегося мно- жества из динамической таблицы плюс заявку k. Таким образом, рекуррентная зависимость такова
m[k] = max{ m[k1], 1 + m[max(i та- кое, что e[i] ≤ b[k]) ])
Для того, чтобы найти оптимальное множество (а не только количество m[n] элементов в нем), надо завес- ти дополнительный массив рrеv[1..n], где prev[k] будет озна- чать предыдущий элемент, (если мы k-й брали), или 1 (если не бра- ли k-й). Покажем, как выглядит ре- ализация ДП-алгоритма, а потом сделаем его оценку.
var
b,е,m,prev: array[0..100] of integer;
i,j,k,n: integer;
b egin
read(n); for i:=1 to n do read(b[i],e[i]);
fillchar(prev, sizeof(prev), $FF);(заполняем -1)
m [0] := 0;
for k:=2 to n do begin
i:= k-1; (ищем i такое, что e[i]=b[k])
while (i>0) and (е[i] >b[k] ) do dec(i);
if m[k-1] >= 1 + m[i] then
(если элемент лучше не брать)
m[k] := m[k-1] (то не берем его)
else begin
m[k]:= 1 + m[i];
(иначе берем и)
prev[k] := i; (запоминаем, что перед ним идет элемент i)
end;
end;
i:=n; (пробежимся с конца до начала и выведем все элементы)
repeat
if рrеv[i] =-1 then dec(i)
(если i-Й не брали, движемся дальше)
еlsе begin (в противном случае)
writeln(i); (выводим этот и)
i:= prev[i);
(перепрыгиваем через несовместимые слева от него)
end;
until i=0;
end.
Листинг 5.22 – Задача о выборе заявок, рещаемая ДП-алгоритмом
Даже не делая оценок сложности, легко видеть, что ДП-алгоритм сложнее жадного. Ну, а если быть более точным, то его сложность равняется O(n2), так как существу- ет два вложенных цикла (for по k и внутренний while, который делает в с реднем порядка O(n) сравнений и уменьшений i). К тому же он требу- ется порядка O(n) дополнительной памяти. Таким образом, в этом слу- чае жадный алгоритм намного эф- фективнее динамического прог- раммирования.