
- •Лекция 15. Методы первого порядка.
- •15.1. Метод градиента.
- •15.2. Овражные целевые функции.
- •15.3. Метод сопряженных градиентов
- •????15.4. Квазиньютоновские методы
- •15.Х. Метод Дэвидона-Флетчера-Пауэлла
- •20.5. Минимизация в задаче о наименьших квадратах и нелинейные регрессионные модели.
- •20.6. Сравнение методов безусловной минимизации
15.Х. Метод Дэвидона-Флетчера-Пауэлла
Сокращенно этот
метод называют ДФП, но не ДПФ. Поиск
начинается с выбранной начальной точки
в многомерном пространстве, т.е. точка
имеет
координат. Для этой точки начальная
матрица
в (20.6)
обычно полагается единичной порядка
.
Задается так же допустимая погрешность
EPS для точки минимума. Итерационная
процедура может быть представлена
следующим образом.
1. Вычислить вектор
.
2. Определить
направление поиска - это вектор
,
где
.
3. Произвести
одномерный поиск вдоль этого направления
и найти шаг
,
где
-
число, как и в (20.2).
4. Найти
и градиент
в точке
(см.
рис.20.2).
5. Проверить условие
окончания итераций. Итерации прекращаются,
если нормы векторов
или
меньше EPS.
6. Вычислить вектор
u=g1-g
7. Найти поправочные матрицы А1 и А2:
|
(20.7) |
8. Обновить матрицу Н:
|
|
9. Текущей точкой
сделать
,
т.е.
,
и вернуться на шаг 2.
20.5. Минимизация в задаче о наименьших квадратах и нелинейные регрессионные модели.
В лекции 2 рассматривались регрессионные модели, которые можно использовать для аппроксимации функции многих переменных. Критерий наименьших квадратов позволил записать эту задачу в виде задачи минимизации (2.2 - 2.3)
|
(20.8) |
где
- многомерная целевая функция,
- коэффициенты регрессионной модели
(2.1),
количество которых равно
.
В обозначениях лекции 15 эта же задача
может быть записана как
|
(20.9) |
c количеством
неизвестных коэффициентов
N=J.
Если внимательно
посмотреть на формулу (2.1),
то видим, что она линейна относительно
неизвестных компонент вектора
.
В связи с этим в формулу (2.3)
для целевой функции они входят в первой
и второй степенях, т.е. зависимость от
них квадратичная. Условие
при дифференцировании функции
по этим коэффициентам дает систему
линейных уравнений (2.6),
решение которой сразу дает коэффициенты
.
Модели (2.1)
с линейной зависимостью от коэффициентов
называют линейными регрессионными
моделями и эти коэффициенты получают,
решив СЛУ (2.6).
Но в общем случае зависимость от
неизвестных параметров модели может
быть более сложной, т.к. каждый регрессор
может зависеть от одной или нескольких
компонент вектора
.
Например,
|
|
Такие модели
называют нелинейными регрессионными
моделями. В этом случае целевая функция
уже не будет квадратичной и для настройки
регрессионной модели необходимо решать
задачу безусловной минимизации (20.9).
Для ее решения возможно применение
любого из рассмотренных методов
минимизации. Но обычно для задач с
наименьшей суммой квадратов некоторых
функций
|
(20.10) |
используют
специальные эффективные методы,
учитывающие специфику структуры матрицы
Гессе для этих задач. Методы похожи на
рассмотренные квазиньютоновские и
являются итерационными. В них используется
матрица Якоби
для всех
функций
и на основе произведения матриц (
)
формируется на каждой итерации
аппроксимация для матрицы Гессе в
(20.4),
т.е. на каждой итерации для определения
шага s решается СЛУ (20.5). Одним из известных
таких методов является метод
Левенберга-Маркардта, реализованный в
системе MathCAD.
При описании
методов минимизации для (20.10)
используют термин "невязка" , т.к.
обычно - это разность двух каких-то функций.
Например, при решении одного нелинейного
уравнения
|
(20.11) |
с заданными
функциями
,
(см.
раздел 5.1)
невязкой будет разность
.
Для точного решения уравнения или
системы уравнений все невязки должны
быть равны нулю. Но если точного решения
нет, то можно найти решение, минимизирующее
норму невязки
.
Поиск приближенного решения системы
нелинейных уравнений (СНУ), минимизирующего
невязки, приводит к задаче о наименьших
квадратах, т.е. к минимизации функции
(20.10).