- •Лекция 1.
- •1.1. Основные понятия и определения.
- •1.2. Требования к модели. Функции модели
- •1.3. Классификация моделей
- •1.3.1. Статические и динамические модели
- •1.3.2. Детерминированные и стохастические модели
- •1.3.3. Классификация математических моделей.
- •Лекция 2. Разновидности математических задач, возникающих при моделировании эмс.
- •2.1. Приближение функций. Интерполяция, экстраполяция, аппроксимация. Приближение периодических функций.
- •2.2. Алгебра комплексных чисел.
- •2.3. Решение систем линейных алгебраических уравнений (слау), матричная алгебра.
- •2.4. Решение систем нелинейных алгебраических уравнений.
- •2.5. Решение систем обыкновенных дифференциальных уравнений.
- •2.6. Решение систем дифференциальных уравненийв частных производных.
- •Лекция 3. Ошибки вычислений.
- •3.1. Общие характеристики вычислительных процессов.
- •3.2. Классификация погрешностей.
- •3.3. Абсолютная и относительная погрешности. Точные десятичные знаки.
- •Лекция 4. Приближение функций
- •4.1. Каноническая форма интерполяционного полинома.
- •4.2. Интерполяционный полином Лагранжа.
- •4.3. Интерполяция сплайнами.
- •4.3.1. Линейный сплайн
- •4.3.2. Кубический сплайн
- •Лекция 5. Аппроксимация функций.
- •5.1. Степенной базис
- •5.2. Базис в виде классических ортогональных полиномов
- •5.3. Малая помехоустойчивость метода наименьших квадратов при решении задач идентификации
- •5.3.1. Теория множественности моделей
- •Лекция 6. Приближение периодических функций.
- •6.1. Общие сведения.
- •6.2. Ряды Фурье.
- •6.3. Функции Уолша.
- •Лекция 7. Решение систем линейных алгебраических уравнений.
- •7.1. Область применения слау в задачах математического моделирования эмс.
- •7.2. Прямые методы решения слау.
- •7.3. Итерационные методы.
- •Лекция 8. Решение нелинейных уравнений.
- •8.1. Отделение корней уравнения.
- •8.1.1. Графический метод отделения корней.
- •8.1.2. Аналитический метод отделения корней.
- •8.2. Метод половинного деления (метод дихотомии).
- •8.3. Метод хорд.
- •8.4. Метод касательных (метод Ньютона-Рафсона).
- •Лекция 9. Численное интегрирование и дифференцирование.
- •9.1. Метод прямоугольников.
- •9.2. Метод трапеций.
- •9.3. Метод Симпсона.
- •9.4. Численное дифференцирование.
- •Лекция 10. Решение систем обычных дифференциальных уравнений (оду).
- •10.1. Метод Эйлера.
- •10.2. Методы Рунге-Кутты.
- •10.2.1. Метод Рунге-Кутты-Мерсона
- •10.3. Метод Адамса.
- •10.4. Визуализация решений оду.
- •Лекция 11. Визуальное моделирование динамических систем.
- •Лекция 12. Численное решение систем дифференциальных уравнений в частных производных.
- •12.1. Уравнения математической физики.
- •12.1.1. Уравнения параболического типа.
- •12.1.2. Уравнения гиперболического типа.
- •12.1.3. Уравнения эллиптического типа
- •12.2. Основные понятия метода сеток.
- •Лекция 13. Решение оптимизационных задач.
- •13.1. Методы безусловной одномерной оптимизации
- •13.1.1. Постановка задачи.
- •13.1.2 Метод обратного переменного шага.
- •13.1.3. Метод половинного деления
- •13.1.4. Метод квадратичной аппроксимации (метод Пауэлла).
- •13.2 Методы оптимизации многомерных функций.
- •13.2.1. Метод покоординатного спуска.
- •13.2.2. Метод наискорейшего спуска (метод градиентов)
- •13.2.3. Метод Нелдера-Мида.
- •13.2.3. Метод пчелиного роя.
- •Лекция 14. Идентификация параметров эмс.
- •14.1. Аппроксимация переходных характеристик элементарными динамическими звеньями
- •14.1.1. Апериодическая переходная характеристика
- •14.1.2.Колебательная переходная характеристика.
13.1.3. Метод половинного деления
Метод половинного деления, называемый также методом дихотомии, является процедурой последовательного поиска. Пусть определен отрезок [a0, b0], которому принадлежит точка локального минимума x*. Далее для сужения промежутка, содержащего точку экстремума, используем две точки x1 и x2, расположенные симметрично на расстоянии δ > 0 от середины отрезка:
Константа δ должна быть меньше допустимой конечной длины отрезка,
Δk= bk- ak> 0.
Рассчитываем значение функции в этих точках y1=f(x1) и y2=f(x2) и в зависимости от их соотношения новые границы отрезка , содержащего точку экстремума, [a1, b1] будут следующие:
• y1< y2, a1=a0 и b1=x2;
• y1> y2, a1=x1 и b1=b0;
• y1= y2, a1=x1 и b1=x2.
Название метода половинного деления мотивировано тем, что если величина ε достаточно мала, то длина отрезка (b – a) уменьшается почти вдвое.
13.1.4. Метод квадратичной аппроксимации (метод Пауэлла).
Основан на аппроксимации функции полиномом второго порядка в некоторой окрестности и расчета на его основе координаты точки оптимума.
Пусть известны значения функции в трех точках x0 ,x1,x2 , составляющие соответственно у0 , у1 , у2. Тогда функцию f(x) можно аппроксимировать полиномом
Оптимальное значение можно оценить по формуле
Мы вычисляем значение функции в новой, четвертой точке. Точку с наихудшим значением функции можно отбросить. Тогда, последовательно применяя этот алгоритм к трем наилучшим точкам, мы будем получать последовательно сходящуюся к экстремуму последовательность x*.
13.2 Методы оптимизации многомерных функций.
Далее будем рассматривать алгоритмы оптимизации функции нескольких переменных.
Основные алгоритмы будем рассматривать на примере функции двух переменных вида
Для наглядного изображения таких функций часто используют линии уровня, рис. 13.1.
|
|
Функция Химмельблау
|
|
|
|
Линии уровня параболоида
|
|
Рисунок 13.1 – Примеры отображения функций двух переменных с помощью линий уровня. |
|
13.2.1. Метод покоординатного спуска.
Алгоритм координатного спуска заключается в сведении многомерной задачи к последовательным одномерным задачам, которые решаются методами минимизации функции одной переменной, и в частности, методом золотого сечения. Вначале в прямоугольной области (8.4) зафиксируем координату y = y0, тогда функция f(x, y0) будет зависеть только от одной переменной x. Найдем минимум x01 функции f(x, y0), изменяя координату x по методу золотого сечения.
Затем зафиксируем первый аргумент x = x01 и найдем минимум y1 функции f(x01, y) относительно второго аргумента y (точка B) на рис. 13.2). Аналогичным способом перейдем последовательно к точкам C(x1, y1), D(x1 , y2 ) и т.д.
Если в области минимума функция f(x, y) достаточно гладкая, то процесс спуска по координатам будет линейно сходиться к минимуму.
В сходящемся процессе с приближением к минимуму функции f(x, y) расстояния между последовательными точками однокоординатных минимумов будут стремиться к нулю. Поэтому в качестве критериев окончания итерационного процесса координатного спуска выбираются условия
Рисунок 13.2 - Демонстрация метода покоординатного спуска.

.
.