- •1. Основные понятия и этапы са. Основные понятия са
- •Этапы системного анализа
- •2. Операция и ее составляющие. Этапы ио.
- •3. Применение научных методов Этапы операционного проекта
- •6. Внедрение результатов исследования.
- •3. Виды математических моделей ио, примеры.
- •4. Состязательные задачи. Решение игры 2-х лиц.
- •5. Классификация и характеристики смо. Понятие системы массового обслуживания
- •Поток событий и его свойства
- •Транспортная задача
- •8. Формы представления задач лп и способы приведения к ним. Каноническая форма задач лп
- •Стандартная форма задачи лп
- •9. Основные понятия лп, свойства задач лп. Постановка задачи
- •Основные понятия лп. Свойства задач лп
- •10. Геометрия задач лп, базисные решения, вырожденность. Геометрия задач лп
- •Выделение вершин допустимого множества
- •11. Понятие базиса, переход от одного базисного решения к другому.
- •Построение начального базисного решения
- •13. Алгоритм симплекс-метода.
- •14. Двойственность в лп, построение моделей двойственных задач. Двойственность задач лп
- •Запись двойственной задачи в симметричном случае
- •Запись двойственной задачи в общем случае
- •15. Экономическая интерпретация двойственной задачи. Двойственный симплекс-метод. Интерпретация двойственной задачи
- •Двойственный симплекс-метод
- •16. Теоремы двойственности.
- •17. Учет двусторонних ограничений, модифицир. Симплекс-метод. Учет двусторонних ограничений
- •М одифицированный алгоритм
- •18. Параметрический анализ вектора ограничений.
- •19. Параметрический анализ коэффициентов линейной формы.
- •20. Модели транспортных задач и их хар-ка, условия разрешимости. Простейшая транспортная задача (т-задача)
- •Транспортная задача с ограниченными пропускными способностями (Td - задача)
- •Многоиндексные задачи
- •Транспортные задачи по критерию времени
- •21. Построение начального плана перевозок т-задачи
- •Правило северо-западного угла
- •Правило минимального элемента.
- •Метод Фогеля
- •22. Обоснование метода потенциалов. Переход от одного плана перевозок к другому
- •Признак оптимальности
- •23. Алгоритм метода потенциалов
- •24. Двойственность т-задач, эконом. Интерпретация потенциалов. Двойственная пара транспортных задач
- •Экономическая интерпретация потенциалов
- •25. Метод потенциалов для Td-задачи.
- •26. Приведение открытой модели транспортной задачи к закрытой.
- •27. Трансп. Задачи в сетевой постановке, задача о кратчайшем пути. Транспортные задачи в сетевой постановке (транспортные сети)
- •Алгоритм Дейкстры-Форда:
- •28. Задача о максимальном потоке.
- •29. Метод декомпозиции Данцига-Вулфа в общем случае.
- •30. Метод декомпозиции транспортных задач
- •31. Постановка задач стохастического программирования
- •32. Целочисленное программирование: Особенности, концепции точных и приближенных методов решений.
- •Проблема целочисленности
- •33. Методы отсечений.
- •34. Метод ветвей и границ.
- •35. Аддитивный метод.
- •36. Нелинейное программирование (нлп): постановка, классы задач нлп, условия оптимальности. Характеристика задач
- •Условия оптимальности
- •37. Квадратичное программирование.
- •38. Сепарабельное и дробно-линейное программирование. Сепарабельное программирование (сп)
- •Задачи дробно-линейного программирования
- •39. Методы покоординатного спуска и Хука-Дживса. Метод Гаусса-Зейделя (покоординатного спуска)
- •Метод Хука-Дживса (метод конфигураций)
- •40. Симплексный метод поиска.
- •41. Градиентные методы.
- •Методы сопряженных направлений
- •Методы Пауэла, Флетчера-Ривса, Девидона-Флетчера-Пауэла
- •43. Методы случайного поиска.
- •Алгоритм с возвратом при неудачном шаге
- •Алгоритм с обратным шагом
- •Алгоритм наилучшей пробы
- •Алгоритм статистического градиента
- •44. Метод проектирования градиентов.
- •45. Генетические алгоритмы
- •46. Методы штрафных и барьерных функций. Метод штрафных функций
- •Метод барьерных функций
- •47. Динамическое программирование (дп): принцип оптимальности, функциональное уравнение, процедура дп.
- •Как работает метод дп
- •Функциональное уравнение дп
- •48. Дп: задача распределения ресурсов, достоинства дп.
- •49. Дп: задача о кратчайшем пути и с мультипликативным критерием. Задача о кратчайшем пути
- •Задача с мультипликативным критерием
- •50. Дп: организация выпуска m видов продукции.
- •51. Дп: задача об инвестициях.
- •52. Дп: многомерные задачи и проблемы решения.
- •53. Дп: снижение размерности с помощью множителей Лагранжа
- •54. Задачи спу: построение сети и временной анализ.
- •Временной анализ (для детерминированной сети)
- •55. Задачи спу: оптимизация.
- •56. Многокритериальные задачи: постановка, проблемы, основные понятия, методы.
- •Методы многокритериальной оптимизации
- •57. Многокрит. Задачи: функция полезности, лексикографический метод. Функция полезности
- •Решение на основе лексикографического упорядочения критериев
- •58. Методы главного критерия, свертки, идеальной точки, целевого програм-я. Метод главного критерия
- •Линейная свертка
- •Метод идеальной точки
- •Целевое программирование (цп)
- •59. Диалоговые методы решения задач по многим критериям.
- •Метод уступок
- •Интерактивное компромиссное программирование
Алгоритм с обратным шагом
Он построен путем модификации предыдущего алгоритма с целью уменьшить число розыгрышей направлений. Внесено следующее изменение: если сгенерированное направление неудачное, то после возврата в исходную точку Xk делается шаг в противоположном направлении; если же и оно неудачное, то генерируется новое направление из точки Xk. Логика действия очевидна: если в данном направлении функция ухудшается, то можно ожидать, что в противоположном направлении она улучшится. Понятно, что эффект модернизации алгоритма тем выше, чем ближе функция в текущей области к линейной.
Алгоритм наилучшей пробы
Здесь используются два шага: пробный и рабочий h. Величина пробного шага соответствует необходимой точности. Задается также число пробных шагов m, меньшее числа переменных n, причем разница между m и n увеличивается с ростом n.
В текущей точке генерируются m
направлений j
и на них делаются пробные шаги.
Вычисляются изменения функции
.
В направлении с наименьшим (отрицательным)
приращением fj
выполняется рабочий шаг:
.
Поиск заканчивается, если
.
По аналогии с предыдущим алгоритмом
можно рассматривать и неудачные
направления: вычислить
.
Если максимум соответствует положительному
приращению fj,
то рабочий шаг делается в противоположном
направлении.
Алгоритм статистического градиента
Все параметры и начальные действия
такие же, как в предыдущем алгоритме.
Отличие состоит в выборе направления
движения. Оно определяется с учетом
всех разыгранных направлений:
.
Направление y
называется статистическим градиентом.
В пределе (m)
он стремится к градиенту f.
Но определение y
требует меньше вычислений, чем f,
и тем в большей степени, чем сильнее
неравенство m<n.
каждый
компонент вектора у вычисляется по
формуле
.
Новая точка находится перемещением на
рабочий шаг h в
направлении статистического антиградиента:
.
Поиск завершается при выполнении условия
или
Эффективность рассмотренных алгоритмов можно повысить за счет незначительных изменений их отдельных элементов или шагов. Так, при успешном шаге можно продолжать шаги в найденном направлении до тех пор, пока функция улучшается (использование идеи одномерной минимизации).
Их эффективность выше вдали от экстремума и снижается по мере приближения к нему, так как падает вероятность выпадения удачных направлений.
Целесообразность применения случайного поиска возрастает с увеличением числа переменных, а при средней и большой размерности он становится практически безальтернативным. В отличие от методов, использующих производные, алгоритмы случайного поиска, как и прямые методы, могут применяться в условиях помех (погрешностей вычислений).
44. Метод проектирования градиентов.
Г
радиент
дает направление, в котором функция
возрастает с наибольшей скоростью.
Однако при условной оптимизации оно,
как правило, не является возможным
направлением. Поэтому используют не
сам градиент (антиградиент), а его
проекцию на поверхность ограничений,
точнее, на плоскость, аппроксимирующую
эту поверхность в текущей точке. Очевидно,
что проекция градиента определяет
направление наискорейшего изменения
функции на поверхности ограничений.
Метод применим, если целевая функция и
все функции ограничений дифференцируемы.
Пусть ограничения заданы в виде
(5).
Найдем возможное направление l,
на кот. скорость изм-я целевой ф-и макс.
(1):
В
допустимой области D
функции j
постоянны. Поэтому искомое направление
должно удовлетворять системе равенств
(2):
Из связи направления с координатами:
или
(3)
Для нахождения наилучшего возможного направления необходимо решить задачу оптимизации (1) – (3). Т.к условия имеют вид =, а ф-и дифференцируемы, для решения этой вспомогательной задачи воспользуемся методом Лагранжа. Функция Лагранжа:
.
Неизвестные - векторы
и . Возьмем
и приравняем к 0:
Отсюда выразим компоненты искомого вектора:
->
->
↓
Т
ак
как направление ищется в конкретной
точке, то все производные в последней
формуле (4) – известные константы. Поэтому
система уравнений (4) является линейной
системой относительно j.
Ее решение не вызывает затруднений (при
условии, что матрица системы не является
особенной). Найдя значения j,
получаем компоненты проекции градиента.
Движение осуществляется в направлении,
противоположном проекции. Аналогично
градиентному методу новая точка
вычисляется по формуле (6):
Алгоритм.
Задать начальную точку, удовлетворяющую системе (5), начальное значение h0 и точность по величине проекции градиента .
В текущей точке вычислить градиенты всех функций (f и j) и решить систему (4).
Вычислить проекцию градиента.
Проверить: если
завершить поиск.Вычислить новую точку по формуле (6).
Проверить: если значение целевой функции улучшилось, перейти на шаг 2, иначе уменьшить hk в два раза и перейти на шаг 5.
К
ачественный
характер работы алгоритма иллюстрирует
рис. Здесь функции зависят от 2-х
переменных, поэтому в каждой точке на
линии ограничения может быть всего 2
направления, лучшее из которых определяет
проекция градиента. В многомерной задаче
таких направлений бесконечное множество.
При линейных ограничениях могут
возникать проблемы поиска лишь
при очень малых значениях градиентов
функций ограничений и совпадении их
направлений, так как это приводит к
вырожденности матрицы системы (4).
