
- •Основания теории оптимизации (теоремы о необходимости и достаточности существования экстремума функции многих переменных).
- •5.2.Достаточные условия экстремума.
- •Матрица Гессе и вектор-градиент функции многих переменных. Привести пример определения (функцию многих переменных задать самостоятельно).
- •Методы одномерного поиска экстремума. Метод золотого сечения.
- •Методы одномерного поиска экстремума. Метод поиска с использованием чисел Фибоначчи.
- •Методы одномерного поиска экстремума. Метод квадратической интерполяции.
- •Графический метод решения задач квадратичного программирования.
- •Метод множителей Лагранжа.
- •Алгоритм обобщенного метода множителей Лагранжа.
- •Градиентные методы решения задач нелинейного программирования.
- •Метод тяжелого шарика.
- •Эвристические методы поиска экстремума. Метод Монте-Карло.
- •Гомеостат Эшби и его связь со случайным поиском.
- •Методы случайного поиска.
- •Алгоритм случайного спуска с линейной тактикой
- •Алгоритмы эволюционной оптимизации. Муравьинный алгоритм.
- •Алгоритмы эволюционной оптимизации. Роевой алгоритм.
- •В чем состоит смысл когнитивной составляющей алгоритма поиска с роевым интеллектом?
- •Виды игр (безкоалиционные, кооперативные, дифференциальные и другие).
- •Игра двух участников с нулевой суммой. Решение игры двух участников с нулевой суммой в смешанных стратегиях.
- •Графо-аналитический метод решения матричной игры 2 х n и m х 2.
- •Решение игр вида 2хn и mх2
Градиентные методы решения задач нелинейного программирования.
Методы градиентного спуска основываются на известном факте, что направление градиента показывает направление наискорейшего возрастания функции, а направление антиградиента, соответственно, показывает направление наискорейшего убывания функции. Модуль же градиента – характеризует скорость этого возрастания. Вектор градиента может быть получен через свои проекции на оси координат, которые равны соответствующим частным производным:
Градиент всегда перпендикулярен линии уровня, проходящей через ту точку, в которой вычислен градиент. Пример траектории поиска методом градиентного спуска приведен на рис..
Величина рабочего шага в направлении градиента зависит от величины градиента, которую заранее трудно учесть, поэтому, как правило, вводится коэффициент пропорциональности шага, с помощью которого можно управлять эффективностью (число повторов вычисления функции) метода.
Показано, что
значение
можно определять по некоторым
характеристикам функции f(x).
Например, если существует такая константа
R,
что для любых точек
Если известна
оценка М сверху максимального собственного
числа матрицы
,
то рекомендуется принять
.
Однако, значения R и M обычно заранее неизвестны.
Разработаны различные методы, относящиеся к группе градиентного спуска. Среди них: с постоянным шагом, с дробным шагом и наискорейшего спуска.
Основным недостатком градиентного метода является необходимость частого вычисления производных. Этого недостатка лишен метод наискорейшего спуска.
Особенность метода наискорейшего спуска в том, что в направлении антиградиента ищется точка, доставляющая минимум функции. Поиск этого минимума может производиться любым из известных методов одномерной минимизации.
В этом методе
направление из
касается
линии в
Вдали от оптимума эффективность метода наискорейшего спуска повышается по сравнению с градиентными методами, а в окрестности снижается из-за частой смены направлений.
Все градиентные методы плохо работают в овражных функциях.
Условия окончания итерационного поиска в градиентных методах связывают обычно с величиной градиента (критерий с номером 3).
Градиентные методы относятся к группе методов 1 порядка, т.к. опираются на вычисления первой производной. Более эффективными могут быть методы второго порядка, которые в том числе используют вторые производные. Однако, здесь могут возникнуть трудности с вычислением и исследованием матрицы вторых производных (матрицы Гессе).
Метод тяжелого шарика.
Метод базируется на аналогии с движением тяжелого материального шарика по наклонной поверхности. Скорость шарика при движении вниз будет возрастать, и он будет стремиться занять нижнее положение, т.е. точку минимума.
Xi+1 = Xi - (Xi –Xi-1) – h gradF(Xi)
При = 0 – метод превращается в обычный градиентный. При 0 < < 1 можно получать различную эффективность метода, которая будет зависеть и от h. Вдали от оптимума поиск будет ускоряться, а вблизи возможны колебания около минимума.
- определяет память алгоритма, т.е учитывает влияние предыдущей точки, поэтому увеличение этого параметра вблизи минимума может привести к более быстрому затуханию, если градиент функции мал. Предпочтителен, когда глобальный минимум ярко выражен и локальные мелки.
метод решения задачи минимизации дифференцируемой функции f(x)на евклидовом пространстве Е п. Метод основан на рассмотрении системы дифференциальных уравнений
к-рая
описывает движение материальной точки
по поверхности y=f(x)в
поле тяжести, направленном в отрицательном
направлении оси О у, при
условии, что точка не может оторваться
от поверхности и трение пропорционально
скорости; f'(х) - градиент
функции f(x)в точке х,
- коэффициент
трения. Этим объясняется название
метода. Учитывая, что в окрестности
стационарной точки величина |f' (х)|
- мала,
систему (1) часто заменяют системой
При нек-рых предположениях относительно функции f(x)и начальных условий
можно
доказать, что соответствующее решение
x(t)системы (1) или (2) при
сходится
к какой-либо стационарной точке x*функции
f(x);eсли f(x) - выпуклая функция, то x* -точка
минимума f(х) на
Е n. Таким
образом, Т. ш. м. является частным
случаемустановления
метода (см.
[1]). Для численного решения систем (1),
(2) могут быть применены, напр.; разностные
методы. В зависимости от выбора разностного
метода получаются дискретные аналоги
Т. ш. м., охватывающие как частный
случайовражных
функций методы минимизации, сопряженных
градиентов метод и
т. п. Выбор величины шага разностного
метода и коэффициента асущественно
влияют на скорость сходимости Т. ш. м.
Вместо (1), (2) возможно использование
других систем 1-го или 2-го порядка (см.
[1]). В задачах минимизации функции f(x)
при ограничениях