
- •О.К. Мурга
- •Оглавление
- •1. Методы одномерной оптимизации 6
- •2. Методы безусловной оптимизации 13
- •3. Методы оптимизации при наличии ограничений 35
- •4. Приближённое решение задачи оптимального управления 53
- •Введение
- •1. Методы одномерной оптимизации
- •1.1. Методы перебора
- •1.1.1. Метод равномерного поиска
- •1.1.2. Метод поразрядного поиска
- •1.2. Методы исключения отрезков
- •1.2.1. Метод дихотомии
- •1.2.2. Метод золотого сечения
- •1.3. Сравнительный анализ методов одномерного поиска
- •1.4. Порядок выполнения лабораторной работы
- •1.5. Задания для лабораторной работы.
- •2. Методы безусловной оптимизации
- •2.1. Прямые методы безусловной оптимизации
- •2.1.1. Поиск по правильному симплексу
- •2.1.2. Поиск по деформируемому многограннику
- •Влияние параметров алгоритма на эффективность поиска
- •2.1.3. Типовой пример.
- •2.1.4. Порядок выполнения лабораторной работы
- •2.1.5. Задания для лабораторной работы
- •2.2 Методы покоординатного спуска
- •2.2.1 Метод циклического покоординатного спуска
- •2.2.2. Метод Зейделя.
- •2.2.3. Метод Хука-Дживса
- •2.2.4. Метод Пауэлла.
- •2.2.5. Типовые примеры
- •2.2.6. Порядок выполнения лабораторной работы
- •2.2.7. Задания для лабораторной работы
- •2.3. Градиентные методы
- •2.3.1. Метод градиентного спуска
- •2.3.2. Метод наискорейшего спуска
- •2.3.3. Типовой пример
- •2.3.4. Порядок выполнения лабораторной работы
- •2.3.5. Задания для лабораторной работы
- •3. Методы оптимизации при наличии ограничений
- •3.1. Методы последовательной безусловной оптимизации
- •3.1.1. Метод штрафных функций
- •3.1.2. Метод барьерных функций
- •3.1.3. Комбинированный метод штрафных функций
- •3.1.4. Типовой пример
- •3.1.5. Задание для лабораторной работы
- •3.2. Метод возможных направлений
- •3.2.1. Постановка задачи выпуклого программирования
- •3.2.2. Описание метода возможных направлений
- •3.2.3. Построение начального приближения
- •3.2.4. Выбор наилучшего подходящего направления
- •3.2.5. Определение длины шага
- •3.2.6. Типовой пример
- •3.2.7. Задания для лабораторной работы
- •3.3. Метод случайного поиска
- •3.3.1. Поиск с возвратом при неудачном шаге
- •3.3.2. Алгоритм наилучшей пробы
- •3.3.3. Алгоритм статистичекого градиента
- •3.3.4. Порядок выполнения работы
- •3.3.5. Задания для лабораторной работы
- •4. Приближённое решение задачи оптимального управления
- •4.1. Постановка задачи оптимального управления
- •4.2. Градиентный метод решения задачи оптимального управления
- •4.2.1. Описание градиентного метода в функциональном пространстве.
- •4.2.2. Алгоритм метода.
- •4.2.3. Порядок выполнения лабораторной работы.
- •4.2.4. Задания для лабораторной работы.
- •Список литературы
1.1. Методы перебора
1.1.1. Метод равномерного поиска
Метод равномерного поиска является простейшим из прямых методов одномерной оптимизации и состоит в следующем.
Отрезок [a ;b] разбивается на n равных частей точками деления
xi = a + i×(b-a)/n, i=0,...,n. (1.4)
Сравнением
значений функции f(x) во всех точках xi,
,
находится точка хk: 0 £
k £
n, для которой
f(xk)=min f(x0), f(x1),… f(xn). (1.5)
Полагая х*»xk , f*»f(xk), получается решение задачи (1.1) с погрешностью, не превосходящей величины
en=
. (1.6)
Для того, чтобы обеспечить требуемую точность e определения точки x*, число n отрезков разбиения необходимо выбирать из условия en £ e, т.е. назначить
n
³
. (1.7)
1.1.2. Метод поразрядного поиска
Усовершенствуем рассмотренный метод равномерного поиска с целью уменьшения количества значений функции f(x), которые необходимо находить в процессе минимизации.
Очевидно, если окажется, что f(xi+1) ³ f(xi), то отпадает необходимость вычислять f(x) в точках xi+2, xi+3,…, xn, т.к. в силу унимодальности функции f(x) x*£xi+1. Кроме того, целесообразно сначала грубо определить отрезок, содержащий x*, т.е. найти точку x* с небольшой точностью, а затем искать её на этом отрезке с меньшим шагом, повышая точность. Реализация этих возможностей улучшения метода перебора и приводит к методу поразрядного поиска.
В методе поразрядного поиска перебор точек отрезка предлагается выполнять сначала с достаточно большим шагом h=xi+1 xi>e ( например, h=(b a)/4 ) до тех пор, пока не выполнится условие f(xi+1) ³ f(xi) или пока очередная точка не совпадет с концом отрезка. После этого шаг уменьшается и перебор точек с новым шагом производится в противоположном направлении до тех пор, пока значения функции снова не перестанут уменьшаться или пока очередная точка не совпадет с другим концом отрезка. Описанный процесс завершается, когда перебор в данном направлении закончен, а использованный при этом шаг h не превосходит e.
Таким образом получается следующий алгоритм метода поразрядного поиска.
Шаг 0. Задать параметр точности e > 0, выбрать начальный шаг h=(b a)/4, положить x0=a, вычислить f(x0).
Шаг 1. Найти очередную точку x1= x0+h, вычислить f(x1).
Шаг 2. Сравнить значения функции f(x0) и f(x1). Если f(x0)>f(x1), то перейти к шагу 3, иначе – к шагу 4.
Шаг 3. Положить x0= x1 и f(x0)=f(x1). Проверить условие x0Î(a ;b ). Если
a<x0<b, то перейти к шагу 1, иначе – к шагу 4.
Шаг 4. Проверить условие окончания поиска | h | £ e. Если оно выполняется, то вычисления завершить, положив х*»x0 , f*»f(x0), иначе–перейти к шагу 5.
Шаг 5. Изменить направление и шаг поиска, положив h=-h /4, x0=x1, f(x0)=f(x1). Перейти к шагу 1.
1.2. Методы исключения отрезков
Рассмотрим ту же задачу одномерной минимизации (1.1), что и в предыдущей работе. Эффективность поиска точки минимума можно повысить, если использовать информацию, содержащуюся в уже найденных значениях f(x).
Пусть на интервале (a;b) выбраны две пробные точки x1 и x2, такие что a<x1<x2<b и вычислены значения f(x1) и f(x2). В силу унимодальности минимизируемой функции f(x) можно сократить отрезок поиска точки x*, перейдя к отрезку [a; x2], если f(x1) £ f(x2), или к отрезку [x1;b] , если f(x1)>f(x2). Повторяя эту процедуру до тех пор, пока длина последнего из полученных отрезков не станет достаточно малой, в качестве точки минимума можно взять одну из точек последнего отрезка, например, его середину. Методы, использующие такой способ последовательного уменьшения отрезка, содержащего точку минимума, называют методами исключенных отрезков. Друг от друга они отличаются лишь способом выбора пробных точек. Наибольшее распространение на практике получили метод дихотомии и метод золотого сечения.