- •Лекция 1.
- •1.1. Основные понятия и определения.
- •1.2. Требования к модели. Функции модели
- •1.3. Классификация моделей
- •1.3.1. Статические и динамические модели
- •1.3.2. Детерминированные и стохастические модели
- •1.3.3. Классификация математических моделей.
- •Лекция 2. Разновидности математических задач, возникающих при моделировании эмс.
- •2.1. Приближение функций. Интерполяция, экстраполяция, аппроксимация. Приближение периодических функций.
- •2.2. Алгебра комплексных чисел.
- •2.3. Решение систем линейных алгебраических уравнений (слау), матричная алгебра.
- •2.4. Решение систем нелинейных алгебраических уравнений.
- •2.5. Решение систем обыкновенных дифференциальных уравнений.
- •2.6. Решение систем дифференциальных уравненийв частных производных.
- •Лекция 3. Ошибки вычислений.
- •3.1. Общие характеристики вычислительных процессов.
- •3.2. Классификация погрешностей.
- •3.3. Абсолютная и относительная погрешности. Точные десятичные знаки.
- •Лекция 4. Приближение функций
- •4.1. Каноническая форма интерполяционного полинома.
- •4.2. Интерполяционный полином Лагранжа.
- •4.3. Интерполяция сплайнами.
- •4.3.1. Линейный сплайн
- •4.3.2. Кубический сплайн
- •Лекция 5. Аппроксимация функций.
- •5.1. Степенной базис
- •5.2. Базис в виде классических ортогональных полиномов
- •5.3. Малая помехоустойчивость метода наименьших квадратов при решении задач идентификации
- •5.3.1. Теория множественности моделей
- •Лекция 6. Приближение периодических функций.
- •6.1. Общие сведения.
- •6.2. Ряды Фурье.
- •6.3. Функции Уолша.
- •Лекция 7. Решение систем линейных алгебраических уравнений.
- •7.1. Область применения слау в задачах математического моделирования эмс.
- •7.2. Прямые методы решения слау.
- •7.3. Итерационные методы.
- •Лекция 8. Решение нелинейных уравнений.
- •8.1. Отделение корней уравнения.
- •8.1.1. Графический метод отделения корней.
- •8.1.2. Аналитический метод отделения корней.
- •8.2. Метод половинного деления (метод дихотомии).
- •8.3. Метод хорд.
- •8.4. Метод касательных (метод Ньютона-Рафсона).
- •Лекция 9. Численное интегрирование и дифференцирование.
- •9.1. Метод прямоугольников.
- •9.2. Метод трапеций.
- •9.3. Метод Симпсона.
- •9.4. Численное дифференцирование.
- •Лекция 10. Решение систем обычных дифференциальных уравнений (оду).
- •10.1. Метод Эйлера.
- •10.2. Методы Рунге-Кутты.
- •10.2.1. Метод Рунге-Кутты-Мерсона
- •10.3. Метод Адамса.
- •10.4. Визуализация решений оду.
- •Лекция 11. Визуальное моделирование динамических систем.
- •Лекция 12. Численное решение систем дифференциальных уравнений в частных производных.
- •12.1. Уравнения математической физики.
- •12.1.1. Уравнения параболического типа.
- •12.1.2. Уравнения гиперболического типа.
- •12.1.3. Уравнения эллиптического типа
- •12.2. Основные понятия метода сеток.
- •Лекция 13. Решение оптимизационных задач.
- •13.1. Методы безусловной одномерной оптимизации
- •13.1.1. Постановка задачи.
- •13.1.2 Метод обратного переменного шага.
- •13.1.3. Метод половинного деления
- •13.1.4. Метод квадратичной аппроксимации (метод Пауэлла).
- •13.2 Методы оптимизации многомерных функций.
- •13.2.1. Метод покоординатного спуска.
- •13.2.2. Метод наискорейшего спуска (метод градиентов)
- •13.2.3. Метод Нелдера-Мида.
- •13.2.3. Метод пчелиного роя.
- •Лекция 14. Идентификация параметров эмс.
- •14.1. Аппроксимация переходных характеристик элементарными динамическими звеньями
- •14.1.1. Апериодическая переходная характеристика
- •14.1.2.Колебательная переходная характеристика.
Лекция 13. Решение оптимизационных задач.
13.1. Методы безусловной одномерной оптимизации
Ниже рассматривается решение наиболее простого типа задач оптимизации – поиска экстремума функций одной переменной без ограничений. Данная задача формулируется как нахождение такого значения вход-ной переменной объекта, которое соответствует наилучшему(минимальному или максимальному) значению целевой функции.
Хотя на практике задачи, в которых критерий задан функцией одной переменной, встречаются достаточно редко, анализ таких задач занимает достаточно важное место в оптимизационных исследованиях. Это объясняется тем, что многие многомерные методы используют на каждой итерации одномерные процедуры. Одномерные методы достаточно понятны, легко могут быть проиллюстрированы графически, что позволяет глубже понять сущность задач оптимизации и способствует приобретению навыков их решения.
Будут рассмотрены постановка задачи одномерной оптимизации, аналитический анализ функций и наиболее известные численные методы поиска экстремума: обратного переменного шага, квадратичной аппроксимации, половинного деления, золотого сечения.
13.1.1. Постановка задачи.
Одномерная оптимизация заключается в нахождении точки x*, в которой целевая функция f(x) принимает максимальное или минимальное значение. Часто в постановках задачи может быть задан отрезок[a, b], в котором находится оптимальное значение.
Функция f(x) имеет локальный минимум в точке x*, если при ε > 0 существует окрестность[x*- ε, x*+ ε] такая, что для всех значений x в этой окрестности f(x) больше f(x*)
Функция f(x) имеет глобальный минимум в точке x*, если для всех x справедливо неравенство f(x) > f(x*).
Целевая функция может иметь в заданной области несколько экстремумов. Поэтому различают задачи поиска локального и глобального максимумов. Ниже мы будем условно полагать, что в области поиска содержится единственный экстремум.
13.1.2 Метод обратного переменного шага.
Данный метод называют иногда методом сканирования.
Предположим, что произвольная точка x0 этого промежутка является исходной для поиска точки х* локального минимума и число ε– заданная точность нахождения х*.
Обозначим через Δ0 произвольное приращение аргумента х и, сделав один шаг от точки x0 , получим новое значение аргумента х1= x0+ Δ0.
Сравним значения функции у0= f(x0) и у1= f(x1) = f(x0+Δ0). Возможны три различных продолжения в приближении к точке х *.
I. у1 < у0 - произошло уменьшение значения функции. Тогда примем в качестве нового стартового значения х0(1) = х1 , и сделаем шаг Δ0 от этой точки х0 (1) к точке х1 (1) , т.е. х1 (1) = х0 (1) + Δ0. Если окажется у1 (1) < у0 (1) , то снова сделаем шаг Δ0 от новой стартовой точки х0 (2) = х1 (1) и т.д. На некотором k-м шаге произойдет увеличение значения функции, т.е. у1(k)>у0(k), и если при этом|Δ0| < ε, то принимаем х * ≈ х0 (k). В противном случае полагаем, что точка x0 (k) является исходной для продолжения вычислений по следующей схеме.
II. у1> у0 - значение функции возросло. В этом случае полагаем, что начальной точкой вычислений является точка х0= х1, а меньшим шагом в продолжении счета– величина Δ1= - β Δ0, где β – некоторое положительное число, β< 1. Далее производим вычисления по схеме I или II, вплоть до достижения заданной точности.
Поиск минимума функции одной переменной указанным методом представляет собой колебательный процесс, совершающийся около точки х* локального минимума функции f(x) с непрерывно меняющейся амплитудой.
Пример 13.1. Поиск экстремума методом сканирования. В качестве исследуемой функции возьмем параболу y = 3x2+2, имеющую минимальное значение ymin=y(0)=2.
Ниже приведены исходные данные и графическое отображение как исследуемой функции так и процесса поиска минимума.