- •Оглавление:
- •Линейное программирование.
- •Геометрическая интерпретация
- •Алгебра симплекс – метода.
- •Математическое описание.
- •Ограничения
- •Представление пространства решений стандартной задачи линейного программирования.
- •Анализируя таблицу, легко заметить две закономерности:
- •Вычислительные процедуры симплекс-метода.
- •Оптимальное решение
- •Табличный метод.
- •Получение начального допустимого базисного решения.
- •Двойственная задача.
- •Нелинейное программирование.
- •Необходимые и достаточные условия существования экстремума.
- •Ограничения в виде равенств.
- •Ограничения в виде не равенств.
- •Итеративные методы. Постановка задачи.
- •Градиентный метод.
- •Метод наискорейшего спуска (подъема).
- •Алгоритм Ньютона.
- •Элементы динамичного программирования.
- •Основные понятия и обозначения.
- •Идеи метода динамического программирования
- •Введение в вариационное исчисление Основная задача вариационного исчисления
- •Классы функций
- •Экстремум функционала
- •Непрерывность и варьируемость функционала
- •Вариация функционала
- •Необходимое условие экстремума функционала
- •Основная лемма вариационного исчисления
- •Список литературы
Итеративные методы. Постановка задачи.
Ограниченные возможности симплексного метода привели к широкому распространению градиентных и других итеративных методов, в основе которых лежит понятие градиента целевой функции g(x).
Градиентом
функции g(x),
обозначаемымgradg(x)
и
,
называют вектор, величина которого
определяет скорость изменения функцииg(x), и
наибольшего возрастания этой функции.
Пусть
,
но
.
(1)
Условия
стационарности точки
.
(2) Разложим
в ряд Тейлора в окрестности точки
оптимума
,
которую считаем стационарной
(3), где
- отклонение от точки оптимума;
(4), т.к.
,
то
,
(5) где элементы матрицы А определяются
akjпо формуле (4). Разрешая систему уравнений
(5) относительно
,
получаем:
.
(6) Если заменить неизвестную матрицу
А-1на матрицу Г ([γkj]),
то можно надеется, что величина
даст значение, более близкое к оптимуму,
чемx. При этом открываются
возможности многошаговой процедуры
поиска.
Обозначим
через
,
значение
наn-ом шаге. Тогда процедура
поиска запишется в виде
.
Градиентный метод.
Этот метод представляет собой последовательность шагов, содержащих две операции:
Определение направления наибольшей крутизны спуска, т.е направление антиградиента g(x).
Перемещение в выбранном направлении на заданное расстояние.
Математически
стратегия градиентного метода получается,
если перемещение на каждом шаге
будет пропорционально составляющей
градиента в направлении этой оси:
(8) тогда Гnбудет
диагональной Гn=γI(9) при этом,
поправка наn-м шаге равна:
.
(10) При таком ограничении некоторые
шаги могут оказаться мелкими. Это можно
исправить, используя стратегию с
постоянным шагом γ.
(11) где
.
Метод наискорейшего спуска (подъема).
В
этом методе градиент находят только в
начальной точке и движении в найденном
направлении продолжается cодинаковыми шагами до тех пор, пока
уменьшается значение
.
Если на каком-то шаге
возросло, то движение в данном направлении
прекращается, последний шаг снимается
полностью, или на половину, и вычисление
нового градиента функции
,
т. е новое направление движение.
При этом, шаг движения не должен быть большим, чтобы не пропустить оптимум на данном направлении.
Алгоритм Ньютона.
Этот
метод применим, когда поверхность
отклика достаточно хорошо описывается
уравнением 2-го порядка. Метод позволяет
резко уменьшить число шагов. При хорошей
поверхности отклика вторые производные:
(12) вычисленные в точки
будут близкими и элементамakjматрицы А. Используя в качестве Гnматрицу вторых производных
в точке
,
получим вектор поправок для алгоритма
Ньютона:
.
(13) Если разложения (3) является точным,
то оптимум достигается за один шаг.
Элементы динамичного программирования.
Характер
движения объекта управления описывается
системой:
,
(1), где
- переменная состояния, а
-
управления (U
V).
За критерий качества управления
принимают оценку:
имеющую физический смысл потерь.
Добавочными
могут быть ограничения, накладываемые
на количество ресурсов (пределы сужения
параметров):
(3).
Оптимальным
называют такое решение U
V,
при котором для объекта (1), при ограничениях
(3) и критерии качества (2) принимает
минимальное (максимальное) значение.
Величина
является функционалом. Обычно задача
минимизации (2) заменяют задачей
минимизацией:
(4), где λ - множитель Лагранжа.
Докажем
возможность такой замены: докажем от
противного. Пусть V(t)
- управление ≠U(t),
такое, что
(5) и выполнено:
(6), тогда
(7), что противоречит условию, чтоU(t)
обращает (4) в минимум.
Рассмотрим понятие вариации функций. Пусть f(x) непрерывная на [a,b] функция. Рассмотрим значениеa<x<bи значение дифференциала Δx=dx. Разность:
f(x+Δx) -f(x) =df(x) =f/(x)Δxесть дифференциалf(x) в точкеx. Необходимое условие (минимизации) минимумаf(x):df(x)=0.
Рассмотрим значение функции f(x+εΔx) при фиксированных х и Δxоно будет функцией от ε.
(9)
Рассмотрим
аналогичные понятия вариационного
исчисления. Пусть U(t)
иU1(t)
- управление. Разность
(10) называют вариацией функциейU(t),
а разность
(11) называют вариацией функционала.
Вариацию
функционала можно определить иначе.
Рассмотрим при фиксированных U(t)
функционал:
(12), являющийся функцией ε. Если функционал
определён для различных ε, то возможны
различные управления
в близи фиксированного значенияU(t).
Тогда по аналогии с (9), можно дать
определение:
(13). ЕслиU(t)
- оптимальное управление, то функцияU(t) будет
достигать минимума при ε=0. В этом случае:
(14), т.е.
-
оптимальное управление – такое при
котором вариация функционала обращается
в 0.
В
вариационном исчислении условие
используется для получения дифференциальных
уравнений. Эйлера, среди множества
решений которого и определяется
уравнениеU(t),
образующие в минимум функционал (4).
