- •1. Основные понятия и этапы са. Основные понятия са
- •Этапы системного анализа
- •2. Операция и ее составляющие. Этапы ио.
- •3. Применение научных методов Этапы операционного проекта
- •6. Внедрение результатов исследования.
- •3. Виды математических моделей ио, примеры.
- •4. Состязательные задачи. Решение игры 2-х лиц.
- •5. Классификация и характеристики смо. Понятие системы массового обслуживания
- •Поток событий и его свойства
- •Транспортная задача
- •8. Формы представления задач лп и способы приведения к ним. Каноническая форма задач лп
- •Стандартная форма задачи лп
- •9. Основные понятия лп, свойства задач лп. Постановка задачи
- •Основные понятия лп. Свойства задач лп
- •10. Геометрия задач лп, базисные решения, вырожденность. Геометрия задач лп
- •Выделение вершин допустимого множества
- •11. Понятие базиса, переход от одного базисного решения к другому.
- •Построение начального базисного решения
- •13. Алгоритм симплекс-метода.
- •14. Двойственность в лп, построение моделей двойственных задач. Двойственность задач лп
- •Запись двойственной задачи в симметричном случае
- •Запись двойственной задачи в общем случае
- •15. Экономическая интерпретация двойственной задачи. Двойственный симплекс-метод. Интерпретация двойственной задачи
- •Двойственный симплекс-метод
- •16. Теоремы двойственности.
- •17. Учет двусторонних ограничений, модифицир. Симплекс-метод. Учет двусторонних ограничений
- •М одифицированный алгоритм
- •18. Параметрический анализ вектора ограничений.
- •19. Параметрический анализ коэффициентов линейной формы.
- •20. Модели транспортных задач и их хар-ка, условия разрешимости. Простейшая транспортная задача (т-задача)
- •Транспортная задача с ограниченными пропускными способностями (Td - задача)
- •Многоиндексные задачи
- •Транспортные задачи по критерию времени
- •21. Построение начального плана перевозок т-задачи
- •Правило северо-западного угла
- •Правило минимального элемента.
- •Метод Фогеля
- •22. Обоснование метода потенциалов. Переход от одного плана перевозок к другому
- •Признак оптимальности
- •23. Алгоритм метода потенциалов
- •24. Двойственность т-задач, эконом. Интерпретация потенциалов. Двойственная пара транспортных задач
- •Экономическая интерпретация потенциалов
- •25. Метод потенциалов для Td-задачи.
- •26. Приведение открытой модели транспортной задачи к закрытой.
- •27. Трансп. Задачи в сетевой постановке, задача о кратчайшем пути. Транспортные задачи в сетевой постановке (транспортные сети)
- •Алгоритм Дейкстры-Форда:
- •28. Задача о максимальном потоке.
- •29. Метод декомпозиции Данцига-Вулфа в общем случае.
- •30. Метод декомпозиции транспортных задач
- •31. Постановка задач стохастического программирования
- •32. Целочисленное программирование: Особенности, концепции точных и приближенных методов решений.
- •Проблема целочисленности
- •33. Методы отсечений.
- •34. Метод ветвей и границ.
- •35. Аддитивный метод.
- •36. Нелинейное программирование (нлп): постановка, классы задач нлп, условия оптимальности. Характеристика задач
- •Условия оптимальности
- •37. Квадратичное программирование.
- •38. Сепарабельное и дробно-линейное программирование. Сепарабельное программирование (сп)
- •Задачи дробно-линейного программирования
- •39. Методы покоординатного спуска и Хука-Дживса. Метод Гаусса-Зейделя (покоординатного спуска)
- •Метод Хука-Дживса (метод конфигураций)
- •40. Симплексный метод поиска.
- •41. Градиентные методы.
- •Методы сопряженных направлений
- •Методы Пауэла, Флетчера-Ривса, Девидона-Флетчера-Пауэла
- •43. Методы случайного поиска.
- •Алгоритм с возвратом при неудачном шаге
- •Алгоритм с обратным шагом
- •Алгоритм наилучшей пробы
- •Алгоритм статистического градиента
- •44. Метод проектирования градиентов.
- •45. Генетические алгоритмы
- •46. Методы штрафных и барьерных функций. Метод штрафных функций
- •Метод барьерных функций
- •47. Динамическое программирование (дп): принцип оптимальности, функциональное уравнение, процедура дп.
- •Как работает метод дп
- •Функциональное уравнение дп
- •48. Дп: задача распределения ресурсов, достоинства дп.
- •49. Дп: задача о кратчайшем пути и с мультипликативным критерием. Задача о кратчайшем пути
- •Задача с мультипликативным критерием
- •50. Дп: организация выпуска m видов продукции.
- •51. Дп: задача об инвестициях.
- •52. Дп: многомерные задачи и проблемы решения.
- •53. Дп: снижение размерности с помощью множителей Лагранжа
- •54. Задачи спу: построение сети и временной анализ.
- •Временной анализ (для детерминированной сети)
- •55. Задачи спу: оптимизация.
- •56. Многокритериальные задачи: постановка, проблемы, основные понятия, методы.
- •Методы многокритериальной оптимизации
- •57. Многокрит. Задачи: функция полезности, лексикографический метод. Функция полезности
- •Решение на основе лексикографического упорядочения критериев
- •58. Методы главного критерия, свертки, идеальной точки, целевого програм-я. Метод главного критерия
- •Линейная свертка
- •Метод идеальной точки
- •Целевое программирование (цп)
- •59. Диалоговые методы решения задач по многим критериям.
- •Метод уступок
- •Интерактивное компромиссное программирование
41. Градиентные методы.
Е
сли
функция дифференцируема, вычисление
производных дает информацию о поведении
функции в исследуемой точке и,
следовательно, позволяет находить
лучшее направление поиска. Скорость
изменения функции f(X)
в произвольном направлении l
определяется производной
.
Здесь частные производные
представляют собой направляющие
косинусы. Геометрическая иллюстрация
для случая функции двух переменных
приведена на рис.
Поверхность уровня целевой функции, описываемая уравнением f(X) = const, имеет размерность n – 1.
З
ададим
координаты следующим образом. Проведем
через рассматриваемую точку n – 1
взаимно ортогональные касательные к
поверхности уровня, приняв их за оси
координат. В качестве последней оси
возьмем нормаль к поверхности уровня.
В такой системе координат производные
функции по всем xj
равны нулю. Поэтому:
.
Отсюда следует, что максимальная скорость
увеличения функции будет в направлении
l, совпадающем с
нормалью. Вектор, имеющий направление
нормали к поверхности функции в данной
точке и длину
,
- градиент. Обозначается градиент
как grad f(X)
или f(X).
Он полностью определяется своими
проекциями – производными функции
по переменным:
В задачах на минимум используется противоположное направление – антиградиент.
Значения производных могут быть найдены по приближенным формулам:
,
.
Более точный результат дает вторая
формула, но она требует больше вычислений.
Чем точнее необходимо вычислить
производную, тем меньше должно быть х.
Однако недопустимо, чтобы разность
значений функции была соизмерима с
погрешностью вычисления. Если переменные
имеют разные единицы измерения, можно
перейти к относительным переменным yi,
используя минимально и максимально
возможные значения переменных xi:
.
Значения yi
лежат в диапазоне [0, 1].
Знание градиента (антиградиента)
позволяет осуществлять перемещение из
текущей точки в направлении наибольшего
улучшения функции. Для линейных функций
оно постоянно и поэтому его требуется
определять всего один раз. В нелинейных
функциях значение градиента зависит
от вектора X, то есть его
необходимо пересчитывать при любом
изменении X. В градиентном
методе поиск минимума производится
согласно рекуррентным формулам:
,
где hk
- шаг. В первой формуле величина
изменения переменных X
зависит как от шага, так и от величины
градиента. Удобнее, когда расстояние
между последовательными точками зависит
только от величины шага. Поэтому
предпочтительнее вторая формула. В ней
используется нормированный градиент,
длина которого всегда равна. Поэтому
он задает лишь направление, но не влияет
на величину X.
.
Алгоритм градиентного метода.
Задать начальную точку, начальное значение шага и точность по величине градиента , вычислить f(X0) и положить k = 0.
В текущей точке Xk вычислить градиент (производные
и его длину.Проверить: если
закончить поиск.Определить новую точку Xk+1 и вычислить в ней значение функции.
П
роверить:
если f(Xk+1)
f(Xk),
увеличить k на единицу
и перейти на шаг 2; если иначе, уменьшить
hk
в два раза и перейти на шаг 4.
П
ри
гладкой производной траектория поиска
в идеале (при непрерывном вычислении
градиента) тоже будет гладкой и
ортогональной линиям уровня. При конечной
величине шага траектория становится
кусочно-линейной. Самой трудоемкой
частью алгоритма является вычисление
градиента, а он вычисляется после каждого
успешного шага. В методе наискорейшего
спуска, который представляет собой
модификацию градиентного метода,
градиент определяется реже, особенно
в начальный период поиска. Модификация
заключается в том, что после вычисления
градиента вместо одного дискретного
шага ищется минимум на направлении
антиградиента, то есть проводится
одномерный поиск по h:
В результате решения задачи определяется
оптимальный шаг h*,
по которому находится следующая точка:
При таком определении новой точки,
значение функции в ней будет лучше, чем
в Xk.
Алгоритм наискорейшего спуска.
Задать начальную точку и точность по величине градиента , положить k = 0.
В текущей точке Xk вычислить градиент (производные и его длину.
Проверить: если закончить поиск.
П
ровести
одномерный поиск.Определить новую точку Xk+1 , увеличить k на 1 и перейти на шаг 2.
На рис. показаны две траектории движения к минимуму функции f(X)=(x1-x2)2+(x2-2)4, полученные алгоритмом. Минимум на направлении антиградиента достигается в точке касания с линией уровня, а градиент в этой точке ортогонален ей. Поэтому каждое последующее направление ортогонально непосредственно предшествующему. Из рис. видно, что с приближением к экстремуму частота вычисления градиента увеличивается, и вблизи минимума метод наискорейшего спуска вырождается в градиентный.
Градиентные методы плохо работают в условиях оврага: при попадании на дно оврага резко падает скорость движения и возможна остановка поиска до достижения окрестности минимума.
42. Методы Ньютона и сопряженных направлений.
Метод Ньютона
Это классический метод второго порядка. Если направление градиента находится из линейного представления функции в окрестности текущей точке, то в методе Ньютона используется квадратичная аппроксимация функции цели. Квадратичная аппроксимация дифференцируемой функции f в точке Xk записывается в виде
, где
Н – матрица вторых производных функции
f (матрица Гессе).
В стационарной точке градиент функции
равен нулю, что применительно дает
Полагая матрицу H неособенной
(существует обратная к ней матрица),
получаем рекуррентный способ генерирования
последовательности точек
Исходя из вывода формулы ясно, что для
квадратичной функции цели Xk+1
является точкой минимума. Следовательно,
минимум такой функции из любой начальной
точки достигается за один шаг. Для
нелинейной унимодальной функции,
отличной от квадратичной, точки
последовательности асимптотически
приближаются к минимуму. Условие
окончания поиска:
.
(В случае линейной аппроксимации матрица
Н становится единичной и поиск вырождается
в градиентный).
Н
еобходимым
условием сходимости метода является
существование обратной матрицы во всех
генерируемых точках. Доказательство
сходимости метода получено при условии,
что начальная точка достаточно близка
к точке минимума. При этом метод имеет
высокую скорость сходимости. Если поиск
начинается с удаленной точки и функция
существенно отличается от квадратичной,
метод может не сходиться или давать
слабую сходимость. Причина такого
поведения в том, что значение функции
в точке Xk+1
не обязательно меньше, чем в точке Xk.
Для устранения отмеченных недостатков
предложены модификации метода. Чтобы
обеспечить регуляризацию матрицы Н
(невырожденность), она деформируется
добавлением к ней единичной матрицы с
неотрицательным скалярным множителем
:
H=
Н+Е.
Значение
зависит от X и подбирается
так, чтобы все собственные значения
матрицы H
были положительными. Тогда эта матрица
положительно определена и существует
обратная матрица H-1,
которая также положительно определена.
Возможное ухудшение функции в очередной
точке исключается введением в формулу
изменяемого параметра h.
Модифицированная формула принимает
вид
При этом возможен вариант с дискретным
шагом h, как в градиентном
методе, либо с определением оптимального
h* с помощью
одномерной минимизации (наискорейший
спуск):
Пример поиска минимума функции f=(1-x1)2+5(x12-x2)2 методом Ньютона с регулируемым шагом приведен на рис.
