Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебное_пособие_Математические_методы_в_экологии_360.docx
Скачиваний:
2
Добавлен:
01.07.2025
Размер:
2.7 Mб
Скачать

9.3 Методы безусловной оптимизации первого порядка

Градиентом дифференцируемой функции f(x) в точке х[0] называется n-мерный вектор f'(х[0]), компоненты которого являются частными производными функции f(x), вычисленными в точке х[0], т. е.

.

Этот вектор перпендикулярен к плоскости, проведенной через точку х[0], и касательной к поверхности уровня функции f(x), проходящей через точку х[0].

В каждой точке такой поверхности функция f(x) принимает одинаковое значение.

Приравнивая функцию различным постоянным величинам С0С1, ..., получим серию поверхностей, характеризующих ее топологию (рис. 9.8).

Рис. 9.8. Градиент функции

Вектор-градиент направлен в сторону наискорейшего возрастания функции в данной точке.

Вектор, противоположный градиенту (–f'(x[0])), называется антиградиентом и направлен в сторону наискорейшего убывания функции.

В точке минимума градиент функции равен нулю.

Если нет дополнительной информации, то из начальной точки х[0] разумно перейти в точку х[1], лежащую в направлении антиградиента – наискорейшего убывания функции.

Выбирая в качестве направления спуска p[k] антиградиент в точке x[k], получаем итерационный процесс вида

x[k + 1] = x[k] – k , k > 0; k = 0, 1, 2, … .

Вектор-градиент направлен в сторону наискорейшего возрастания функции в данной точке.

В координатной форме этот процесс записывается следующим образом:

Критерий останова – либо условие малости приращения аргумента,

|| x[k + 1] – x[k] || < ,

либо выполнение условия малости градиента

|| || <  .

Здесь ,  – заданные малые величины.

Возможен и комбинированный критерий.

В методе с постоянным шагом для всех итераций выбирается некоторая постоянная величина шага. Достаточно малый шаг ak обеспечит убывание функции.

Цена – (возможно) очень большое количество итераций для достижения точки минимума.

С другой стороны, слишком большой шаг может вызвать неожиданный рост функции либо привести к осцилляциям около точки минимума (зацикливанию).

Методы с постоянным шагом применяются на практике редко.

Более экономичны в смысле количества итераций и надежности градиентные методы с переменным шагом, когда в зависимости от результатов вычислений величина шага некоторым образом меняется.

Метод наискорейшего спуска

В этом методе на каждой итерации величина шага аk выбирается из условия минимума функции f(x) в направлении спуска, т. е.

Это условие означает, что движение вдоль антиградиента происходит до тех пор, пока значение функции f(х) убывает.

С математической точки зрения на каждой итерации необходимо решать задачу одномерной минимизации по α функции φ(α) = f(x[k] – αf'(x[k])).

В рассматриваемом методе направление движения из точки х[k] касается линии уровня в точке x[k + 1] (рис. 9.9).

Рис. 9.9. Геометрическая интерпретация метода наискорейшего спуска

Траектория спуска – зигзаг, соседние звенья зигзага ортогональны друг другу. Действительно, шаг k выбирается путем минимизации по  функции

() = f(x[k] – f '(x[k])).

Необходимое условие минимума функции d()/d = 0.

Найдя производную сложной функции, получим условие ортогональности векторов направлений спуска в соседних точках:

d()/d = –f'(x[k +1]) f'(x[k]) = 0.

Для гладких выпуклых функций градиентные методы сходятся к минимуму со скоростью геометрической прогрессии.

Есть много функций, для которых значения вдоль некоторых направлений изменяются гораздо быстрее (иногда на порядки!), чем в других направлениях.

Их поверхности уровня в простейшем случае сильно вытягиваются (рис. 9.10), а в более сложных случаях изгибаются и представляют собой овраги. Функции, обладающие такими свойствами, называют овражными.

Направление антиградиента этих функций (рис. 9.10) существенно отклоняется от направления в точку минимума, что приводит к замедлению скорости сходимости.

Скорость сходимости градиентных методов сильно зависит от точности вычислений градиента. Потеря точности (обычно в окрестности минимума или в «овражной» ситуации) может вообще нарушить сходимость процесса градиентного спуска.

Поэтому градиентные методы часто используют на начальной стадии решения задачи. При этом точка х[0] находится далеко от минимума, и шаги в направлении антиградиента позволяют достичь существенного убывания функции.

Затем применяют другие, более эффективные методы.

Рис. 9.10. Овражная функция