
- •1. Вычислительный эксперимент. Типы погрешностей. Погрешность округления. Представление чисел на эвм.
- •2. Накопление погрешностей округления.
- •3. Метод Гаусса. Подсчет числа действий. Метод Гаусса с выбором главного элемента.
- •4. Условия применимости метода Гаусса и метода Гаусса с выбором главного элемента.
- •5.Обусловленность, устойчивость решения слу
- •6.Итерационные методы решения линейных уравнений. Метод Якоби, Зейделя.
- •7.Достаточное условие сходимости стационарных итерационных методов.
- •8. Сходимость метода Якоби, Зейделя, метода простых итераций.
- •9. Необходимое и достаточное условие сходимости.
- •10. Оценка скорости сходимости итерационных методов в случае симметричных матриц a и b
- •11. Многочлен Чебышева с нормировкой по старшему коэффициенту.
- •12. Многочлен Чебышева с нормировкой по значению многочлена в нуле
- •13. Явный итерационный метод Чебышева
- •14. Неявный итерационный метод Чебышева.
- •15. Метод минимальных поправок, метод минимальных невязок
- •16. Метод скорейшего спуска, метод сопряжённых градиентов. Подсчёт числа итераций для решения системы линейных уравнений с точностью до ℰ итерационными методами.
- •17. Интерполирование и приближение функций. Интерполяционная формула Лагранжа.
- •18. Погрешность интерполяции. Оптимальный выбор узлов интерполяции.
- •19. Сходимость интерполяционных процессов. Интерполяция с кратными узлами.
- •20. Интерполяция кубическими сплайнами.
- •21. Скорость процесса интерполяции кубическими сплайнами.
- •22. Наилучшее приближение в гильбертовом пространстве.
- •23. Численное интегрирование. Формула прямоугольника, трапеции, Симпсона. Оценка погрешности.
- •24. Апостерионная оценка погрешности методом Рунге. Автоматический выбор шага интегрирования.
- •25. Численное дифференцирование. Связь между точностью вычисления функции и шагом сетки.
- •26. Решение нелинейных уравнений методом простых итераций, релаксации. Сходимость метода релаксации.
- •27. Сходимость метода простых итераций
- •28. Метод Ньютона. Сходимость метода Ньютона.
- •29. Метод Ньютона в случае кратных корней. Односторонние приближения по методу Ньютона.
- •30. Итерационные методы решения снлу. Сходимость метода простых итераций
- •31. Производная от оператора. Метод Ньютона для систем нелинейных уравнений.
- •32. Метод Рунге-Кутта второго порядка. Семейство методов второго порядка. Методы третьего и четвертого порядка.
- •1. Методы второго порядка
- •2. Методы третьего порядка.
- •3. Методы четвертого порядка.
- •33. Доказательство сходимости метода Рунге-Кутта.
- •34. Многошаговые разностные методы. Погрешность аппроксимации метода.
- •35. Устойчивость многошагового метода по начальным данным.
- •36. Оценка решения неоднородного разностного уравнения. Устойчивость многошагового метода по правой части.
- •37. Разностная аппроксимация Пуассона. Порядок аппроксимации
- •38. Оператор 2 разностной производной на отрезке. Собственные функции и собственные значения оператора
- •39.Разностный оператор Лапласа. Собственные значения и собственные функции
- •40. Устойчивость и сходимость разностной аппроксимации уравнения Пуассона.
- •1) Метод простых итераций.
- •2) Метод Чебышева.
- •3) Метод сопряжённых градиентов.
- •45. Асимптотическая устойчивость разностных схем.
- •46. Вариационные методы в математической физике.
- •47. Метод Ритца.
- •48. Метод Галеркина.
15. Метод минимальных поправок, метод минимальных невязок
Рассматривается СЛУ и итерационный процесс:
(1)
(2)
-
невязка,
(3)
- поправка
Метод минимальных
поправок заключается в том, чтобы выбрать
из условия:
минимально.
Подействуем
на (3) матрицей
,
вычтем
,
затем подействуем матрицей
:
.,
,
.
Минимум
достигается при
. (4)
Метод минимальных
невязок. Метод минимальных невязок
состоит в выборе
для минимизации невязки. Рассмотрим
метод при
.
Тогда
.
Получаем
(5)
и метод
минимальных поправок принимает вид
(6)
Теорема. Пусть
А — симметричная положительно
определенная матрица. Для погрешности
метода минимальных невязок выполняется
оценка
,
или
,
где
Д-во.
(т.к. при
,
выбранном по (5),
минимально
при любом другом
значение справа увеличится)
т.к.
аналогично
Теорема д-на.
Теорема. Пусть
A и B - симметричные положит-е матрицы.
Тогда для погрешности метода мин.
поправок верна оценка:
,
где
Д-во. Сначала докажем лемму.
Лемма. Собственные
значения матриц
совпадают с собственными значениями
обобщенной спектральной задачи
Д-во леммы.
Пусть
- соб-е значение м-цы
- соответствующий соб-й вектор.
- соб-й вектор, соотв-й соб-му знач-ю
матрицы
Лемма д-на
Продолжим д-во теоремы.
Обозначим
,
тогда
(7)
Метод мин.
невязок для (7) примет вид
где
- невязка, т.е.
(8)
- совпадает с 4
.
Тогда из (8) следует утверждение теоремы.
Теорема д-на
16. Метод скорейшего спуска, метод сопряжённых градиентов. Подсчёт числа итераций для решения системы линейных уравнений с точностью до ℰ итерационными методами.
Ищем приближение к решению системы вида
(1)
Метод скорейшего спуска.
Рассмотрим явный метод
(2)
и
выберем итерационный параметр
из условия минимума
при
заданном векторе
,
где
Имеем:
,
Поскольку погрешность удовлетворяет уравнению
имеем
где
невязка,
поправка,
где
точное
решение,
Следовательно,
будет
минимальной если метод явный (то есть,
единичная
матрица) и
Теорема.
Пусть A - симметрическая положительно определённая матрица. Для метода скорейшего спуска выполняется оценка:
где
Преимущество метода: не нужно знать границ ( ).
Метод сопряжённых градиентов.
Этот
метод является двухшаговым итерационным
методом, то есть для нахождения новой
итерации
используются
две предыдущие итерации
.
Следовательно, здесь возрастает требуемый
объём памяти, нужно помнить не только
вектор
,
но и
.
Применение двухшаговых методов
оправдывается тем, что при правильном
выборе итерационных параметров скорость
сходимости будет выше, чем у одношаговых
методов. Например, рассматриваемый
метод сопряжённых градиентов сходится
при любом начальном приближении за
конечное число итераций.
Пусть
матрица
системы и
симметричная
положительно определённая матрица.
Рассмотрим следующий класс неявных
двухшаговых итерационных методов:
.0 (1)
Первый
шаг находится по одношаговой формуле,
которая получается при
:
.
где
произвольное
начальное приближение.
Задача
состоит в выборе таких коэффициентов
что при любом
была минимальной оценка
.
Тогда получим:
,
где
.
Коэффициенты считаются по следующим формулам:
.
Тогда будет верна
Теорема.
Пусть
- симметрические положительно определённые
матрицы. Тогда для погрешности метода
сопряжённых градиентов выполнена
оценка:
,
где
,
где
,
где
.