
- •3.1. Постановка задачи 23
- •5.1. Постановка задачи 41
- •6.1. Постановка задачи 48
- •7.1. Постановка задачи 59
- •9.1. Постановка задачи 81
- •Введение
- •Тема 1. Элементы теории погрешностей
- •1.1. Точные и приближенные числа
- •1.2. Абсолютная и относительная погрешность
- •Тема 2. Методы решения нелинейных уравнений
- •2.1. Постановка задачи
- •Отделение корней (локализация корней);
- •Уточнение корней.
- •2.2. Отделение корней
- •2.2.1. Графическое отделение корней
- •2.2.2. Аналитическое отделение корней
- •2.3. Уточнение корней
- •2.3.1. Метод половинного деления
- •2.3.2. Метод итерации
- •2.3.3. Метод Ньютона (метод касательных)
- •2.3.4. Метод хорд
- •Тема 3. Интерполяция функций
- •3.1. Постановка задачи
- •3.2. Интерполяционная формула Лагранжа
- •3.3. Интерполяционные формулы Ньютона
- •3.3.1. Конечные разности
- •3.3.2. Первая интерполяционная формула Ньютона
- •3.3.3. Вторая интерполяционная формула Ньютона
- •3.4. Сплайн – интерполяция
- •Тема 4. Аппроксимация функций
- •4.1. Постановка задачи аппроксимации
- •4.2. Метод наименьших квадратов
- •Тема 5. Численное интегрирование
- •5.1. Постановка задачи
- •5.2. Методы прямоугольников
- •5.3. Формула трапеций
- •5.4. Формула Симпсона
- •5.5. Оценка погрешности численного интегрирования
- •Тема 6. Методы решения обыкновенных дифференциальных уравнений
- •6.1. Постановка задачи
- •6.2. Метод Эйлера
- •6.3. Методы Рунге-Кутты
- •6.4. Решение оду n-го порядка
- •Тема 7. Одномерная оптимизация
- •7.1. Постановка задачи
- •7.2. Метод прямого перебора с переменным шагом
- •7.3. Метод дихотомии
- •7.4. Метод золотого сечения
- •7.5. Метод средней точки
- •Тема 8. Многомерная оптимизация
- •8.1. Постановка задачи и основные определения
- •8.2. Методы спуска
- •8.3. Метод градиентного спуска с дроблением шага
- •8.4. Метод наискорейшего спуска
- •8.5. Метод покоординатного спуска
- •Тема 9. Методы решения систем линейных уравнений
- •9.1. Постановка задачи
- •9.2.Метод Гаусса
- •9.3. Метод итераций
- •Список литературы
6.4. Решение оду n-го порядка
Методы, рассмотренные выше, позволяют найти численное решение ОДУ только первого порядка. Однако они применимы и к уравнениям n-го порядка. Для этого ОДУ n-го порядка предварительно приводится к системе n уравнений первого порядка.
Пусть,
например, требуется решить ОДУ
второго
порядка
,
с начальными
условиями
,
,
.
Обозначим
z=y’.
В результате подстановки в исходное
уравнение получим систему двух уравнений
первого порядка
,
с
двумя неизвестными функциями
и
и
начальными условиями
,
.
В общем виде система уравнений может быть представлена в виде
(6.4-1)
Решением
системы (6.4-1) являются две функции
и
,
из которых
-
решение исходного уравнения второго
порядка. Выбрав, например, метод Эйлера,
приближенное решение системы (6.4-1) можно
найти с помощью двух рекуррентных
формул:
Пример
6.4-1. Дано
обыкновенное дифференциальное уравнение
второго порядка
при начальных условиях
,
,
на отрезке [0;0.4]
с шагом
.
Обозначим
,
тогда ОДУ
второго порядка можно записать в виде
системы ОДУ
первого порядка
с
начальными условиями
,
,
.
Применим метод Эйлера для решения системы ОДУ
и т.д.
Сведем полученные результаты решения в следующую таблицу:
Таблица 6.4-1
-
xi
yi
zi
0
1
2
0.2
1.4
1.6
0.4
1.72
1.808
Более точное решение ОДУ 2-го порядка можно получить, используя одну из формул Рунге-Кутта 4-го порядка, например,
где
Для
решения ОДУ
n-го
порядка
введем
следующие обозначения:
…
В результате этих подстановок перейдем к системе из n ОДУ первого порядка:
(6.4-2)
Решением
системы (6.4-2) являются функции
При
заданных начальных условиях
,
и использовании метода Эйлера
решение может быть получено с помощью
следующих рекуррентных формул
Окончательным решением ОДУ n-го порядка, согласно определению, служит функция , вычисленная на заданном множестве точек [a;b].
Тема 7. Одномерная оптимизация
7.1. Постановка задачи
Задача оптимизации – одна из важнейших составляющих многих инженерных задач. Найти оптимальное решение – означает найти наилучший, в смысле заданного критерия, вариант из всех возможных. При решении задачи оптимизации рассматривается некоторая функция, называемая целевой (или критериальной), и аргументы (параметры целевой функции), называемые параметрами оптимизации.
По количеству независимых переменных различают задачи одномерной оптимизации (n=1) и многомерной оптимизации (n³ 2). При этом задача нахождения максимума целевой функции сводится к задаче нахождения минимума путем замены функции f(x) на -f(x), поэтому в дальнейшем будем говорить только о поиске минимума функции, то есть такого x*Î[a, b], при котором f(x*) = min(f(x)).
В области допустимых значений функция f(x) может иметь несколько экстремумов (минимумов или максимумов - рис. 7.1-1). Говорят, что функция f(x) имеет в точке x*локальный минимум, если существует некоторая положительная величина d, такая, что если ½х – х*½<d, то f(x)³f(x*), т.е. существует d - окрестность точки х*, такая, что для всех значений х в этой окрестности f(x)³f(x*). Функция f(x) имеет глобальный минимум в точке x*, если для всех х справедливо неравенство f(x)³f(x*). Таким образом, глобальный минимум является наименьшим из локальных минимумов.
Рис. 7.1-1
Задачей одномерной оптимизации является нахождение точек локального минимума и соответствующих им значений функции, а в некоторых случаях требуется вычислить глобальный минимум. Однако, во всех случаях эта задача сводится к задаче нахождения локального минимума.
Интервал, на котором локализован единственный минимум, называется отрезком неопределенности.
Известно, что необходимым условием существования экстремума дифференцируемой функции f(x) является выполнение равенства f¢(х) = 0. Точка х, удовлетворяющая данному условию, называется точкой стационарности. Достаточным условием существования минимума в точке стационарности является выполнение неравенства f¢¢(х)>0, а максимума - f¢¢(х)<0.
Функция является унимодальной на отрезке [a,b], если она на этом отрезке имеет единственную точку глобального минимума и слева от этой точки является строго убывающей, а справа строго возрастающей.
Достаточным условием унимодальности функции f(x) на отрезке [a;b] является следующее: если функция f(x) дважды дифференцируема на отрезке [a,b] и f¢¢(х*)>0 в любой точке этого отрезка, то функция f(x) - унимодальна на отрезке [a,b].
Заметим, что условие f¢¢(х*)>0 определяет множество точек, на котором функция является выпуклой (вниз). Условие f¢¢(х*)<0 определяет вогнутую функцию, которая на [a,b] имеет максимум и также является унимодальной.
Все численные методы одномерной оптимизации применяются только для унимодальных функций.
Задача одномерной оптимизации имеет единственное решение в том случае, если функция f(x)на отрезке [a;b] имеет только один экстремум.
Пример 7.1-1.Провести исследование функции f(x) = x3 – x + e-x на предмет существования экстремумов.
Проведем графическое исследование. Построим график функции f(x). f(x) имеет две точки минимума: х1 и х2, причем точка х1 – точка глобального минимума. Отрезки неопределенности: для точки х1 - [-4;-3], а для точки х2 - [0;1].
Проверка достаточного условия существования минимума:
f¢(x) = 3x2 – 1 – e-x; f¢¢ (x) = 6x + e-x,
f¢(0) < 0, f¢(1) >0, f¢¢ (x) > 0 для хÎ[0;1],
f¢(-4) < 0, f¢(-3) >0, f¢¢ (x) > 0 для хÎ[-4;-3].
f¢¢(x) > 0 для всех хÎ[0;1] и хÎ[-4;-3]. Следовательно, функция f(x) является унимодальной на выбранных отрезках.
В том случае, если функция представляет собой набор дискретных точек, то единственно возможным методом нахождения минимума функции является метод сканирования. Алгоритм метода полностью соответствует алгоритму поиску минимума (максимума) конечного набора значений функции в точках.
В следующих случаях, когда:
значения функции f(x) определены в ходе эксперимента;
целевая функция очень сложна или не имеет непрерывных производных;
классические методы поиска оптимального значения не применимы.
Для поиска минимума применяют численные методы одномерной оптимизации, к которым относятся методы одномерного поиска.
Суть методов одномерного поиска заключается в том, что на каждой итерации интервал неопределенности уменьшается и стягивается к точке минимума. Уменьшение отрезка происходит до тех пор, пока на некоторой n-й итерации отрезок неопределенности [bn;an] не станет соизмеримым с заданной погрешностьюe, то есть будет выполняться условие |bn-an| <e. Тогда за точку минимума можно принять любую точку, принадлежащую этому отрезку, в частности, его середину
.