- •Тема 1. Математические модели и численные методы 17
- •Тема 2. Задачи линейной алгебры 23
- •Тема 7. Методы оптимизации 59
- •Общие сведения Сведения об эумк
- •Методические рекомендации по изучению дисциплины
- •Рабочая учебная программа
- •Пояснительная записка Цель преподавания дисциплины
- •Задачи изучения дисциплины
- •1. Содержание дисциплины
- •2. Индивидуальные практические работы, их характеристика
- •3. Контрольные работы, их характеристика
- •Литература
- •4.1. Основная
- •4.2. Дополнительная
- •5. Перечень компьютерных программ, наглядных и других пособий, методических указаний и материалов и технических средств обучения
- •Протокол согласования учЕбной программы по изучаемой учебной дисциплине с другими дисциплинами специальности
- •1.2. Как исследуются физические явления и решаются задачи
- •1.3. Погрешность вычислений
- •1.4. Источники возникновения погрешности расчетов
- •1.5. Итерационные методы решения задач
- •Тема 2. Задачи линейной алгебры
- •2.1. Основные понятия и определения
- •2.2. Прямые методы решения слау
- •2.2.1. Метод Гаусса
- •2.2.2. Метод прогонки
- •2.2.3. Метод квадратного корня
- •2.3. Итерационные методы решения слау
- •2.3.1. Метод простой итерации
- •2.3.2. Метод Зейделя
- •2.3.3. Понятие релаксации
- •2.4. Нахождение обратных матриц
- •2.5. Собственные значения и собственные векторы матриц
- •2.5.1. Интерполяционный метод
- •2.5.2. Метод вращений Якоби
- •2.5.3. Итерационный метод
- •Контрольные вопросы
- •Тема 3. Аппроксимация функций
- •3.1. Зачем нужна аппроксимация функций?
- •3.2. Интерполяция
- •3.3. Многочлены и способы интерполяции
- •3.3.1. Интерполяционный многочлен Ньютона
- •3.3.2. Линейная и квадратичная интерполяции
- •3.3.3. Интерполяционный многочлен Лагранжа
- •3.3.4. Интерполяция общего вида
- •3.4. Среднеквадратичная аппроксимация
- •3.4.1. Метод наименьших квадратов
- •Контрольные вопросы
- •Тема 4. Вычисление производных и интегралов
- •4.1. Формулы численного дифференцирования
- •4.2. Формулы численного интегрирования
- •4.2.1. Формула средних
- •4.2.2. Формула трапеций
- •4.2.3. Формула Симпсона
- •4.2.4. Формулы Гаусса
- •Контрольные вопросы
- •Тема 5. Методы решения нелинейных уравнений
- •5.1. Как решаются нелинейные уравнения
- •5.2. Итерационные методы уточнения корней
- •5.2.1. Метод простой итерации
- •5.2.2. Метод Ньютона
- •5.2.3. Метод секущих
- •5.2.4. Метод Вегстейна
- •5.2.5. Метод парабол
- •5.2.6. Метод деления отрезка пополам
- •Контрольные вопросы
- •Тема 6. Решение обыкновенных дифференциальных уравнений
- •6.1. Задачи для обыкновенных дифференциальных уравнений
- •6.2. Основные положения метода сеток для решения задачи Коши
- •6.2.1. Явная схема 1-го порядка (метод Эйлера)
- •6.2.2. Неявная схема 1-го порядка
- •6.2.3. Неявная схема 2-го порядка
- •6.2.4. Схема Рунге – Кутта 2-го порядка
- •6.2.5. Схема Рунге – Кутта 4-го порядка
- •6.3. Многошаговые схемы Адамса
- •6.3.1. Явная экстраполяционная схема Адамса 2-го порядка
- •6.3.2. Явная экстраполяционная схема Адамса 3-го порядка
- •6.3.3. Неявная схема Адамса 3-го порядка
- •6.4. Краевая (граничная) задача
- •6.5. Численные методы решения краевых задач
- •6.5.1. Метод стрельбы
- •6.5.2. Метод конечных разностей
- •Контрольные вопросы
- •Методы оптимизации многопараметрических функций Тема 7. Методы оптимизации
- •7.1. Постановка задач оптимизации, их классификация
- •7.2. Методы нахождения минимума функции одной переменной
- •7.2.1. Метод деления отрезка пополам
- •7.2.2. Метод золотого сечения
- •7.2.3. Метод Фибоначчи
- •7.2.4. Метод последовательного перебора
- •7.2.5. Метод квадратичной параболы
- •7.2.6. Метод кубической параболы
- •7.3. Методы нахождения безусловного минимума функции нескольких переменных
- •7.3.1. Классификация методов
- •7.4. Методы нулевого порядка
- •7.4.1. Метод покоординатного спуска
- •7.4.2. Метод Хука – Дживса
- •7.4.3. Метод Нелдера – Мида
- •7.5. Методы первого порядка
- •7.5.1. Метод наискорейшего спуска
- •7.5.2. Метод сопряженных градиентов Флетчера – Ривса
- •7.6. Методы второго порядка
- •7.6.1. Обобщенный метод Ньютона – Рафсона
- •7.7. Методы переменной метрики
- •7.7.1. Метод Дэвидона – Флэтчера – Пауэлла
- •7.8. Методы условной минимизации функций
- •7.8.1. Метод штрафных функций
- •7.8.2. Метод барьерных функций
- •Контрольные вопросы
- •Литература
- •Практический раздел Контрольные работы
- •Контрольная работа №1
- •Тема 1. Методы решения систем линейных алгебраических уравнений. Нахождение обратных матриц
- •Тема 2. Аппроксимация функций
- •Тема 3. Вычисление производных и определенных интегралов
- •Тема 4. Собственные значения и собственные векторы
- •Тема 5. Методы решения нелинейных уравнений
- •Тема 6. Решение задачи Коши для обыкновенных дифференциальных уравнений
- •Контрольная работа №2
- •Тема 7. Методы нахождения безусловного минимума
- •Тема 8. Методы нахождения условного минимума
7.4. Методы нулевого порядка
7.4.1. Метод покоординатного спуска
В этом методе направление спуска выбирают параллельным координатным осям. Задается начальная точка x0={x10, x20, ..., xn0} в n–мерном пространстве. Фиксируются все координаты, кроме первой и решается задача одномерной минимизации для координаты x1 одним из рассмотренных ранее методов. В результате мы переходим к точке x1={x11, x20, ..., xn0}, в которой функция f(x) принимает наименьшее значение по координате x1 при фиксированных остальных координатах. Затем фиксируются все координаты, кроме второй и решается задача одномерной минимизации для координаты x2 и т. д. После решения задачи минимизации для всех n переменных проверяется условие
||xn–x 0|| < или | f(xn)–f(x0)| < ,
где и - некоторые положительные числа, характеризующие точность решения задачи минимизации. При невыполнении этого условия вновь проводится цикл минимизаций для всех n переменных и т. д. Вычисления продолжаются до тех пор, пока не будет выполнено условие
||xnk+1–x0k|| < или |f(xnk+1)–f(x0k)| < .
7.4.2. Метод Хука – Дживса
Метод состоит из последовательности итераций, каждая из которых содержит перемещения двух типов: исследующий поиск вокруг базисной точки, за которым в случае успеха следует поиск по образцу.
Задается начальная точка x0 = (x10, x20, ..., xn0), вектор приращений для каждой координаты d = (d1, d2, ..., dn) и точность решения задачи минимизации .
Вычисляется целевая функция f0=f(x0).
Запоминается базисная точка x1=x0, f1=f0.
Задаем m=0.
Для каждой k-й координаты по очереди вычисляется: xt=x1+dkk, ft=f(xt), где k – единичный вектор в направлении оси xk. Если ft < f1, то полагаем x1=xt, f1=ft, и переходим к следующей координате, иначе вычисляется xt=x1-dkk, ft=f(xt). Если ft < f1, то полагаем x1=xt, f1=ft, и переходим к следующей координате, иначе значение m увеличиваем на единицу и переходим к следующей координате. После выполнения таких вычислений для всех координат (k=1,2,…,n), переходим к следующему пункту.
Если m=n, т. е. уменьшение функции не было достигнуто ни по одной координате, то вектор приращений d уменьшают (например, в два, четыре или десять раз) и повторяют вычисления с 4-го пункта. Вычисления повторяются до тех пор, пока не будет достигнуто уменьшение функции.
Примечание. Если все компоненты вектора приращений d станут меньше (dk < , для всех k=1,2,…,n), а уменьшение функции не достигнуто, то базисная точка x0 является точкой минимума целевой функции f(x) и вычисления прекращаются.
При поиске по образцу используется информация, полученная в процессе исследующего поиска. Разумно двигаться из полученной точки x1 в направлении p=x1–x0, поскольку поиск в этом направлении уже привел к уменьшению значения целевой функции. Поэтому на этапе поиска по образцу решается задача одномерной минимизации целевой функции f(x1+p) относительно шага одним из рассмотренных ранее методов. После получения значения min вычисляется новая базисная точка x0=x1+minp и вычисления повторяются со 2-го пункта.
