
- •Основания теории оптимизации (теоремы о необходимости и достаточности существования экстремума функции многих переменных).
- •5.2.Достаточные условия экстремума.
- •Матрица Гессе и вектор-градиент функции многих переменных. Привести пример определения (функцию многих переменных задать самостоятельно).
- •Методы одномерного поиска экстремума. Метод золотого сечения.
- •Методы одномерного поиска экстремума. Метод поиска с использованием чисел Фибоначчи.
- •Методы одномерного поиска экстремума. Метод квадратической интерполяции.
- •Графический метод решения задач квадратичного программирования.
- •Метод множителей Лагранжа.
- •Алгоритм обобщенного метода множителей Лагранжа.
- •Градиентные методы решения задач нелинейного программирования.
- •Метод тяжелого шарика.
- •Эвристические методы поиска экстремума. Метод Монте-Карло.
- •Гомеостат Эшби и его связь со случайным поиском.
- •Методы случайного поиска.
- •Алгоритм случайного спуска с линейной тактикой
- •Алгоритмы эволюционной оптимизации. Муравьинный алгоритм.
- •Алгоритмы эволюционной оптимизации. Роевой алгоритм.
- •В чем состоит смысл когнитивной составляющей алгоритма поиска с роевым интеллектом?
- •Виды игр (безкоалиционные, кооперативные, дифференциальные и другие).
- •Игра двух участников с нулевой суммой. Решение игры двух участников с нулевой суммой в смешанных стратегиях.
- •Графо-аналитический метод решения матричной игры 2 х n и m х 2.
- •Решение игр вида 2хn и mх2
Методы одномерного поиска экстремума. Метод золотого сечения.
Рассмотрим более эффективный метод для минимизации выпуклых и строго квазивыпуклых функций – метод золотого сечения.
Пусть
на
-й
итерации метода золотого сечения
интервал неопределенности равен
.
Согласно теореме 6.1 новый интервал
неопределенности
будет
равен
,
если
и
–
в противном случае.
Точки
и
выбираются
исходя из следующих условий.
Длина
нового интервала неопределенности
не
зависит от результата на
-й
итерации, т.е. от того, выполняется ли
неравенство
или
.
Кроме того, должно выполняться равенство
.
Таким образом, если
(6.3.3)
где
,
то для
должно
выполняться условие
(6.3.4)
так что
(6.3.5)
Для
новой итерации
и
выбираются
так, что либо
совпадает
с
,
либо
совпадает
с
.
Тогда на
-й
итерации потребуется только одно новое
вычисление функции. Чтобы показать это,
рассмотрим следующие два возможных
случая (рис.6.9).
С
лучай 1.
.
В этом случае
.
Воспользуемся соотношением (6.3.3),
заменив
на
.
При
имеем
(6.3.6)
Подставляя
выражение для
,
из
(6.3.3), (6.3.4) в (6.3.6), получим
.
Случай
2.
.
В этом случае
.
Воспользуемся (6.3.4), заменив
на
.
При
имеем
.
Подставив (6.3.3), (6.3.4) в это уравнение, получим
.
Корнями
этого уравнения являются
и
.
Но так как
должно
быть взято из интервала (0, 1), то
.
Таким образом, если на
-й
итерации
и
выбраны
в соответствии с (6.3.3), (6.3.4), где
,
то длина интервала неопределенности
сжимается с коэффициентом
.
При этом на первой итерации необходимы
два вычисления функции в точках
,
,
а на всех последующих – только одно
вычисление, так как либо
,
либо
.
Методы одномерного поиска экстремума. Метод поиска с использованием чисел Фибоначчи.
Метод
Фибоначчи является одним из наиболее
эффективных методов одномерной
оптимизации выпуклых или квазивыпуклых
функций. Подобно методу золотого сечения,
он требует двух вычислений функции на
первой итерации, а на каждой последующей
только по одному. Однако этот метод
отличается от метода золотого сечения
тем, что коэффициент сокращения интервала
неопределенности меняется от итерации
к итерации. Метод основан на
последовательности чисел Фибоначчи
,
которая определяется следующим образом
[2, 18]:
(6.3.7)
Таким образом, последовательность Фибоначчи имеет вид 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, …
Предположим, что на -й итерации интервал неопределенности равен . Рассмотрим две точки и определяемые следующим образом:
(6.3.8)
(6.3.9)
где n – заданное общее число вычислений функции.
Согласно
теореме 6.1, новый интервал
неопределенности
будет
равен
,
если
и
,
если
.
В первом случае, учитывая (6.3.8) и полагая
в
(6.3.7), получим
(6.3.10)
Во втором случае, учитывая (6.3.9), получаем
Таким
образом, в обоих случаях длина интервала
неопределенности сжимается с
коэффициентом
.
Покажем, что на
-й
итерации либо
,
либо
,
так что требуется только одно новое
вычисление функции. Предположим, что
.
Тогда по теореме 6.1
,
.
Таким образом, используя (6.3.7) и
заменив
на
,получаем
Подставив выражение для из (6.3.8) и заменив на , получим
(6.3.11)
Подставляя это значение в (6.3.11), получим
.
(6.3.12)
Если , то выполнив аналогичные преобразования, получим . Таким образом, в обоих случаях на -й итерации требуется только одно вычисление функции.
В
отличие от методов дихотомического
поиска и золотого сечения в методе
Фибоначчи требуется, чтобы общее число
вычислений
(или
коэффициент сокращения исходного
интервала) было задано заранее. Это
объясняется тем, что точки, в которых
производятся вычисления, определяются
по формулам (6.3.8), (6.3.9) и, следовательно,
зависят от
.
Из формулы (6.3.10) следует, что длина
интервала неопределенности на
-й
итерации сжимается с коэффициентом
.
Следовательно, после
итерации,
где
–
заданное общее число вычислений
функции
,
длина интервала неопределенности
сократится от
до
.