- •Тема 1. Математические модели и численные методы 17
- •Тема 2. Задачи линейной алгебры 23
- •Тема 7. Методы оптимизации 59
- •Общие сведения Сведения об эумк
- •Методические рекомендации по изучению дисциплины
- •Рабочая учебная программа
- •Пояснительная записка Цель преподавания дисциплины
- •Задачи изучения дисциплины
- •1. Содержание дисциплины
- •2. Индивидуальные практические работы, их характеристика
- •3. Контрольные работы, их характеристика
- •Литература
- •4.1. Основная
- •4.2. Дополнительная
- •5. Перечень компьютерных программ, наглядных и других пособий, методических указаний и материалов и технических средств обучения
- •Протокол согласования учЕбной программы по изучаемой учебной дисциплине с другими дисциплинами специальности
- •1.2. Как исследуются физические явления и решаются задачи
- •1.3. Погрешность вычислений
- •1.4. Источники возникновения погрешности расчетов
- •1.5. Итерационные методы решения задач
- •Тема 2. Задачи линейной алгебры
- •2.1. Основные понятия и определения
- •2.2. Прямые методы решения слау
- •2.2.1. Метод Гаусса
- •2.2.2. Метод прогонки
- •2.2.3. Метод квадратного корня
- •2.3. Итерационные методы решения слау
- •2.3.1. Метод простой итерации
- •2.3.2. Метод Зейделя
- •2.3.3. Понятие релаксации
- •2.4. Нахождение обратных матриц
- •2.5. Собственные значения и собственные векторы матриц
- •2.5.1. Интерполяционный метод
- •2.5.2. Метод вращений Якоби
- •2.5.3. Итерационный метод
- •Контрольные вопросы
- •Тема 3. Аппроксимация функций
- •3.1. Зачем нужна аппроксимация функций?
- •3.2. Интерполяция
- •3.3. Многочлены и способы интерполяции
- •3.3.1. Интерполяционный многочлен Ньютона
- •3.3.2. Линейная и квадратичная интерполяции
- •3.3.3. Интерполяционный многочлен Лагранжа
- •3.3.4. Интерполяция общего вида
- •3.4. Среднеквадратичная аппроксимация
- •3.4.1. Метод наименьших квадратов
- •Контрольные вопросы
- •Тема 4. Вычисление производных и интегралов
- •4.1. Формулы численного дифференцирования
- •4.2. Формулы численного интегрирования
- •4.2.1. Формула средних
- •4.2.2. Формула трапеций
- •4.2.3. Формула Симпсона
- •4.2.4. Формулы Гаусса
- •Контрольные вопросы
- •Тема 5. Методы решения нелинейных уравнений
- •5.1. Как решаются нелинейные уравнения
- •5.2. Итерационные методы уточнения корней
- •5.2.1. Метод простой итерации
- •5.2.2. Метод Ньютона
- •5.2.3. Метод секущих
- •5.2.4. Метод Вегстейна
- •5.2.5. Метод парабол
- •5.2.6. Метод деления отрезка пополам
- •Контрольные вопросы
- •Тема 6. Решение обыкновенных дифференциальных уравнений
- •6.1. Задачи для обыкновенных дифференциальных уравнений
- •6.2. Основные положения метода сеток для решения задачи Коши
- •6.2.1. Явная схема 1-го порядка (метод Эйлера)
- •6.2.2. Неявная схема 1-го порядка
- •6.2.3. Неявная схема 2-го порядка
- •6.2.4. Схема Рунге – Кутта 2-го порядка
- •6.2.5. Схема Рунге – Кутта 4-го порядка
- •6.3. Многошаговые схемы Адамса
- •6.3.1. Явная экстраполяционная схема Адамса 2-го порядка
- •6.3.2. Явная экстраполяционная схема Адамса 3-го порядка
- •6.3.3. Неявная схема Адамса 3-го порядка
- •6.4. Краевая (граничная) задача
- •6.5. Численные методы решения краевых задач
- •6.5.1. Метод стрельбы
- •6.5.2. Метод конечных разностей
- •Контрольные вопросы
- •Методы оптимизации многопараметрических функций Тема 7. Методы оптимизации
- •7.1. Постановка задач оптимизации, их классификация
- •7.2. Методы нахождения минимума функции одной переменной
- •7.2.1. Метод деления отрезка пополам
- •7.2.2. Метод золотого сечения
- •7.2.3. Метод Фибоначчи
- •7.2.4. Метод последовательного перебора
- •7.2.5. Метод квадратичной параболы
- •7.2.6. Метод кубической параболы
- •7.3. Методы нахождения безусловного минимума функции нескольких переменных
- •7.3.1. Классификация методов
- •7.4. Методы нулевого порядка
- •7.4.1. Метод покоординатного спуска
- •7.4.2. Метод Хука – Дживса
- •7.4.3. Метод Нелдера – Мида
- •7.5. Методы первого порядка
- •7.5.1. Метод наискорейшего спуска
- •7.5.2. Метод сопряженных градиентов Флетчера – Ривса
- •7.6. Методы второго порядка
- •7.6.1. Обобщенный метод Ньютона – Рафсона
- •7.7. Методы переменной метрики
- •7.7.1. Метод Дэвидона – Флэтчера – Пауэлла
- •7.8. Методы условной минимизации функций
- •7.8.1. Метод штрафных функций
- •7.8.2. Метод барьерных функций
- •Контрольные вопросы
- •Литература
- •Практический раздел Контрольные работы
- •Контрольная работа №1
- •Тема 1. Методы решения систем линейных алгебраических уравнений. Нахождение обратных матриц
- •Тема 2. Аппроксимация функций
- •Тема 3. Вычисление производных и определенных интегралов
- •Тема 4. Собственные значения и собственные векторы
- •Тема 5. Методы решения нелинейных уравнений
- •Тема 6. Решение задачи Коши для обыкновенных дифференциальных уравнений
- •Контрольная работа №2
- •Тема 7. Методы нахождения безусловного минимума
- •Тема 8. Методы нахождения условного минимума
7.6. Методы второго порядка
7.6.1. Обобщенный метод Ньютона – Рафсона
Эти методы основаны на квадратичной аппроксимации целевой функции и как следствие для своей реализации требуют вычисления производных первого и второго порядков. Одним из таких методов является обобщенный метод Ньютона – Рафсона, в котором на каждой к-й итерации производится одномерный поиск минимума целевой функции (хk+pk) относительно шага в направлении pk=-Hk-1gk, где Нk-1 – матрица, обратная матрице Гессе (матрицы вторых производных) в точке хk, а gk – градиент целевой функции в той же точке. Одним из преимуществ этого метода по сравнению с градиентными методами состоит в том, что он не реагирует на «овражный» характер минимизируемой функции. Градиентные методы, по существу, используют линейную аппроксимацию целевой функции и поэтому менее точно определяют направление на точку минимума. Поэтому метод Ньютона – Рафсона позволяет достичь заданной точности за меньшее число итераций, чем градиентные методы. Однако каждая итерация метода Ньютона – Рафсона связана с вычислением матрицы вторых производных Нk и последующим её обращением, что требует большего объема вычислений по сравнению с одной итерацией градиентного метода. Кроме того, в ряде случаев производные не могут быть получены в виде аналитических выражений, а вычисление их численными методами осуществляется с ошибками, которые зачастую сводят на нет преимущества этого метода. Поэтому широкое распространение получила группа методов называемая методами переменной метрики или квазиньютоновскими, базирующихся на аппроксимации обратной матрицы Гессе на основе только первых производных. В этих методах вектор направления рk рассчитывается по формуле рk=-Аkgk, где матрица Аk называемая иногда матрицей направлений, представляет собой аппроксимацию матрицы Нk-1. Один из методов переменной метрики, полученный Дэвидоном и модифицированный Флэтчером и Пауэллом, получил название метода Дэвидона – Флэтчера – Пауэлла (ДФП).
7.7. Методы переменной метрики
7.7.1. Метод Дэвидона – Флэтчера – Пауэлла
Основной трудностью реализации обобщенного метода Ньютона – Рафсона является необходимость вычисления матрицы вторых производных Н (матрицы Гессе) и ее обращения на каждой итерации. В методе ДФП эта трудность преодолевается благодаря использованию определенного приближения Ак для матрицы, обратной гессиану Н. Матрица Ак – положительно определенная симметричная матрица, которая обновляется на каждой итерации. В пределе матрица Ак становится равной обратному гессиану Нк-1. Начальное значение матрицы А0 принимается равным единичной матрице Е. На каждой итерации текущее значение матрицы направлений пересчитывается в соответствии с рекуррентным соотношением:
где vk=kpk, uk=gk+1 – gk.
Алгоритм метода.
Задается начальная точка х0 и погрешность .
Задается начальное значение матрицы А0=Е (единичная матрица).
На каждой к-й итерации (к=0, 1, 2, …) вычисляется:
Градиент целевой функции
Вектор направления поиска рk=-Аkgk.
Находится k в результате решения задачи одномерной минимизации целевой функции (хk+pk) одним из ранее рассмотренных методов.
Вычисляется вектор перемещения в пространстве n переменных
vk=kpk.
Вычисляется новая точка xk+1=xk+vk.
Вычисляется целевая функция k+1=(хк + 1) и градиент gk+1=(xk+1) во вновь полученной точке xk+1.
Завершить процедуру поиска, если ||gk+1|| < или ||vk|| < .
В противном случае:
Вычислить uk=gk+1–gk.
Пересчитать матрицу Аk
Увеличить к на единицу и вернуться к п. 3.
