
- •5. Поисковая минимизация
- •5.1.Метод покоординатного спуска Гаусса-Зейделя (Gauss - Seidel)
- •5.2.Метод конфигураций Хука – Дживса (Hooke - Jeeves)
- •7. Градиентные методы
- •7.1.Градиентный метод
- •7.1.1.Итерационная схема метода
- •7.1.2.Основные модификации метода
- •7.2.Оптимальный градиентный метод
- •7.2.1.Итерационная схема метода
- •7.2.2.Анализ сходимости метода
- •7.2.3.Траектория поиска
- •7.2.4.Выводы
- •7.4.Метод сопряженных градиентов
- •7.4.1.Оценивание направления поиска
- •7.4.2.Оценивание шага
- •7.4.3.Основные соотношения метода сопряженных градиентов Флетчера-Ривса
- •7.4.6.Траектория поиска и некоторые выводы
- •7.4.7.Модификации метода сопряжённых градиентов
- •8. Ньютоновские методы
- •8.1.Методы Ньютона и Ньютона-Рафсона
- •8.2.Скорость сходимости методов Ньютона и Ньютона - Рафсона
- •8.3.Модификации методов Ньютона и Ньютона – Рафсона
- •8.4.Некоторые результаты и выводы
- •10. Методы штрафных и барьерных функций
- •10.1.Методы преобразования
- •10.2.Условия Куна - Таккера
- •10.3.Барьерные функции
- •10.3.1.Функция барьера
- •10.3.2.Сходимость методов барьерных функций
- •10.3.5.Многократная безусловная минимизация
- •10.3.6.Проблемы применения барьерных методов
- •10.4.Штрафные функции
8.3.Модификации методов Ньютона и Ньютона – Рафсона
Модификации методов обусловлены следующими реальными проблемами:
большой объём вычислений на каждой итерации метода при оценке матрицы ;
отсутствие или потеря положительной определённости матрицы .
Модификация 1.Представляется итерационной схемой
(8.3.1)
где
целое
число, меньшее или равное
.
При
получаем метод Ньютона, а при
упрощённый
метод Ньютона, в котором гессиан
вычисляется
только в точке
.
Модификация 2. Представляется итерационной схемой
(8.3.2)
где для оценки приемлемого шага Канторовичем предложен алгоритм:
шаг
1.
;
шаг
2. вычислить
;
шаг
3. если
,
то
и перейти на шаг 2, иначе поиск
окончен.
Модификация 3. Представляется итерационной схемой регуляризованного метода Ньютона
(8.3.3)
где
оценивание параметра
,
например, по формуле
,
,
продолжается до тех пор, пока матрица
не станет положительно определенной.
Модификация 4. Представляется итерационной схемой регуляризованного метода
(8.3.4)
где
параметр
обеспечивает положительную определенность
матрицы
.
Модификация 5. Представляется итерационной схемой регуляризованного метода
(8.3.5)
где параметр обеспечивает положительную определенность матрицы , а оценивание шага отвечает концепция спуска с малым шагом, приведённой в разделе 6.3.
Модификация 6. Разработана Гринстадтом(Greenstadt,1967) на основе спектральной факторизации неположительно определенной матрицы Гессе.
Представляется алгоритмом оценки корректного направления :
шаг 1. выполняется спектральная факторизация матрицы Гессе
и
оцениваются
ортогональная матрица
,
т.е.
,
столбцами которой являются собственные
векторы, и диагональная матрица
,
образованная из собственных чисел;
шаг
2. из абсолютных величин собственных
значений матрицы
формируется матрица
;
шаг 3. вычисляется положительно определенная матрица
;
шаг 4. оценивается направление поиска
(8.3.6)
и работа алгоритма завершается.
Модификация 7. Разработана Гиллом и Мюрреем (Gill,Murray,1974) на основе факторизации Холесского неположительно определенной матрицы Гессе.
Представляется алгоритмом оценки приемлемого направления :
шаг 1. выполняется факторизация Холесского матрицы
:
,
где
есть диагональная матрица с неотрицательными
диагональными элементами, равными нулю,
если
положительно определена;
шаг
2. проверяется условие
и если оно выполнено, то полагается
и работу алгоритма завершается; иначе следует перейти на шаг 3;
шаг 3. следуя теореме о “кругах” Гершгорина (Дэннис,Шнабель,1988), вычисляется первая
верхняя
граница
для параметра
в представлении регуляризованной
матрицы
;
шаг
4. вычисляется вторая верхняя граница
для
;
шаг 5. оцениваются параметр
,
направление поиска
(8.3.7)
и работа алгоритма завершается.