Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекции по МОТС / лекции МОТС / Методы оптимитизации.doc
Скачиваний:
145
Добавлен:
15.02.2014
Размер:
1.2 Mб
Скачать

Итеративные методы. Постановка задачи.

Ограниченные возможности симплексного метода привели к широкому распространению градиентных и других итеративных методов, в основе которых лежит понятие градиента целевой функции g(x).

Градиентом функции g(x), обозначаемымgradg(x) и, называют вектор, величина которого определяет скорость изменения функцииg(x), и наибольшего возрастания этой функции. Пусть, но. (1)

Условия стационарности точки . (2) Разложимв ряд Тейлора в окрестности точки оптимума, которую считаем стационарной(3), где- отклонение от точки оптимума;(4), т.к., то

, (5) где элементы матрицы А определяются akjпо формуле (4). Разрешая систему уравнений (5) относительно, получаем:. (6) Если заменить неизвестную матрицу А-1на матрицу Г ([γkj]), то можно надеется, что величинадаст значение, более близкое к оптимуму, чемx. При этом открываются возможности многошаговой процедуры поиска.

Обозначим через , значениенаn-ом шаге. Тогда процедура поиска запишется в виде.

Градиентный метод.

Этот метод представляет собой последовательность шагов, содержащих две операции:

  1. Определение направления наибольшей крутизны спуска, т.е направление антиградиента g(x).

  2. Перемещение в выбранном направлении на заданное расстояние.

Математически стратегия градиентного метода получается, если перемещение на каждом шаге будет пропорционально составляющей градиента в направлении этой оси:(8) тогда Гnбудет диагональной ГnI(9) при этом, поправка наn-м шаге равна:. (10) При таком ограничении некоторые шаги могут оказаться мелкими. Это можно исправить, используя стратегию с постоянным шагом γ.(11) где.

Метод наискорейшего спуска (подъема).

В этом методе градиент находят только в начальной точке и движении в найденном направлении продолжается cодинаковыми шагами до тех пор, пока уменьшается значение. Если на каком-то шагевозросло, то движение в данном направлении прекращается, последний шаг снимается полностью, или на половину, и вычисление нового градиента функции, т. е новое направление движение.

При этом, шаг движения не должен быть большим, чтобы не пропустить оптимум на данном направлении.

Алгоритм Ньютона.

Этот метод применим, когда поверхность отклика достаточно хорошо описывается уравнением 2-го порядка. Метод позволяет резко уменьшить число шагов. При хорошей поверхности отклика вторые производные: (12) вычисленные в точкибудут близкими и элементамakjматрицы А. Используя в качестве Гnматрицу вторых производныхв точке, получим вектор поправок для алгоритма Ньютона:. (13) Если разложения (3) является точным, то оптимум достигается за один шаг.

Элементы динамичного программирования.

Характер движения объекта управления описывается системой: ,(1), где- переменная состояния, а- управления (UV). За критерий качества управления принимают оценку:имеющую физический смысл потерь.

Добавочными могут быть ограничения, накладываемые на количество ресурсов (пределы сужения параметров): (3).

Оптимальным называют такое решение UV, при котором для объекта (1), при ограничениях (3) и критерии качества (2) принимает минимальное (максимальное) значение.

Величина является функционалом. Обычно задача минимизации (2) заменяют задачей минимизацией:(4), где λ - множитель Лагранжа.

Докажем возможность такой замены: докажем от противного. Пусть V(t) - управление ≠U(t), такое, что(5) и выполнено:(6), тогда(7), что противоречит условию, чтоU(t) обращает (4) в минимум.

Рассмотрим понятие вариации функций. Пусть f(x) непрерывная на [a,b] функция. Рассмотрим значениеa<x<bи значение дифференциала Δx=dx. Разность:

f(x+Δx) -f(x) =df(x) =f/(x)Δxесть дифференциалf(x) в точкеx. Необходимое условие (минимизации) минимумаf(x):df(x)=0.

Рассмотрим значение функции f(x+εΔx) при фиксированных х и Δxоно будет функцией от ε.

(9)

Рассмотрим аналогичные понятия вариационного исчисления. Пусть U(t) иU1(t) - управление. Разность(10) называют вариацией функциейU(t), а разность(11) называют вариацией функционала.

Вариацию функционала можно определить иначе. Рассмотрим при фиксированных U(t) функционал:(12), являющийся функцией ε. Если функционал определён для различных ε, то возможны различные управленияв близи фиксированного значенияU(t). Тогда по аналогии с (9), можно дать определение:(13). ЕслиU(t) - оптимальное управление, то функцияU(t) будет достигать минимума при ε=0. В этом случае:(14), т.е.- оптимальное управление – такое при котором вариация функционала обращается в 0.

В вариационном исчислении условие используется для получения дифференциальных уравнений. Эйлера, среди множества решений которого и определяется уравнениеU(t), образующие в минимум функционал (4).