
- •2 Округление приближённых чисел
- •Для того чтобы графически отделить корни уравнения (1), необходимо построить график функции . Абсциссы точек его пересечения с осью Ox являются действительными корнями уравнения
- •Теорема 1. Если непрерывная функция принимает на концах отрезка значения разных знаков, т.Е. , то на этом отрезке содержится по крайней мере один корень уравнения (1)
- •6Методы половинного деления
- •7 Метод простых итераций решения уравнения
- •Сходимость метода простых итераций
- •8 Метод гаусса решения систем линейных уравнений
- •9 Норма вектора. Сходимость по норме виды норм вектора
- •10 Норма матрици. Виды норм матрици согласованной с нормой вектора Норма матрицы
- •13 Конечные разности
- •14 Разделённые разности. Интерполяционный многочлен ньютона
- •15 Метод наименьших квадратов
- •16 Постановка задачи численного интегрирования определение квадратурных формул
- •18 Обобщённая формула прямоугольников
- •19 Обобщённая формула трапеции
- •20 Обобщённая формула симпсона
- •21 Гаусса квадратурная формула
- •22 Чебышева квадратурная формула
- •24 Метод Рунге-Кутты
- •Метод покоординатного спуска
24 Метод Рунге-Кутты
Метод Рунге-Кутты используют для расчета стандартных моделей достаточно часто, так как при небольшом объеме вычислений он обладает точностью метода Ο4(h).
Для построения разностной схемы интегрирования воспользуемся разложением функции
в ряд Тейлора:
Заменим вторую производную в этом разложении выражением
где
Причем Δx подбирается из условия достижения наибольшей точности записанного выражения. Для дальнейших выкладок произведем замену величины «y с тильдой» разложением в ряд Тейлора:
Метод золотого сечения — метод поиска значений действительно-значной функции на заданном отрезке. В основе метода лежит принцип деления в пропорциях золотого сечения. Наиболее широко известен как метод поиска экстремума в решении задач оптимизации. На первой итерации заданный отрезок делится двумя симметричными относительно его центра точками и рассчитываются значения в этих точках. После чего тот из концов отрезка, к которому среди двух вновь поставленных точек ближе оказалась та, значение в которой максимально (для случая поиска минимума), отбрасывают. На следующей итерации в силу показанного выше свойства золотого сечения уже надо искать всего одну новую точку. Процедура продолжается до тех пор, пока не будет достигнута заданная точность.
Метод покоординатного спуска
Пусть требуется найти наименьшее
значение целевой функции u
= f(x1,x2,…,xn).
В качестве начального приближения
выберем в п-мерном
пространстве некоторую точку M0
с координатами
.
Зафиксируем все координаты функции и,
кроме первой. Тогда
-
функция одной переменной x1.
Решая одномерную задачу оптимизации
для этой функции, мы от точки M0
перейдем к точке
,
в которой функция и
принимает наименьшее значение по
координате x1
при фиксированных остальных координатах.
В этом состоит первый шаг процесса
оптимизации, состоящий в спуске по
координате x1.
Таким образом, метод покоординатного
спуска сводит задачу о нахождении
наименьшего значения функции многих
переменных к многократному решению
одномерных задач оптимизации по каждому
проектному параметру.