
- •[Home|Кафедра|ПетрГу] Роль численныхметодов
- •Источники и классификацияпогрешностей
- •Погрешности арифметическихопераций
- •Методы решения алгебраических уравнений
- •Метод Гаусса решениясистем линейных алгебраических уравнений
- •Задача Коши для оду
- •МетодЭйлера
- •Методы Рунге-Кутты
- •1.2. Источники и классификация погрешностей
- •1.2.1. Погрешности данных, метода и вычислений
- •1.3. Абсолютная и относительная погрешности вычисления
- •2. Численные методы алгебры
- •2.1. Методы решения алгебраических уравнений
- •2.1.1. Метод деления отрезка пополам
- •2.1.2. Метод хорд
- •2.1.3. Метод Ньютона
- •2.2. Метод Гаусса решения систем линейных алгебраических уравнений
- •2.4. Варианты итерационных методов
- •2.4.1. Метод простых итераций
- •2.4.2. Метод Якоби
- •2.4.3. Метод Зейделя
- •2.4.4. Метод релаксации
- •2.5. Оценка погрешности и мера обусловленности
- •2.4. Варианты итерационных методов
- •2.4.1. Метод простых итераций
- •2.4.2. Метод Якоби
- •2.4.3. Метод Зейделя
- •2.4.4. Метод релаксации
- •2.5. Оценка погрешности и мера обусловленности
- •2.6.1. Степенной метод
- •2.6.2. Метод вращений
- •3. Численные методы математического анализа
- •3.1. Задача интерполяции. Многочлен Лагранжа
- •3.1.1. Постановка задачи
- •3.1.2. Построение интерполяционного многочлена Лагранжа
- •3.1.3. Остаточный член
- •3.2.1. Постановка задачи
- •3.2.2. Многочлены Чебышева
- •3.2.3. Минимизация оценки остаточного члена
- •3.4.1. Использование интерполяционных многочленов с разделенными разностями.
- •3.4.3. Оценка погрешности по методу Рунге..
- •3.4.4. Уточнение приближенного решения.
- •3.5.1. Линейный интерполяционный сплайн
- •3.5.2. Кубический интерполяционный сплайн
- •3.5.3. Метод прогонки.
- •3.6. Метод наименьших квадратов
- •3.6.1. Подбор эмпирических формул
- •3.6.2. Среднеквадратичные приближения.
- •3.7.1. Формула прямоугольников.
- •3.7.2. Формула трапеций.
- •3.7.3.Формула Симпсона (парабол).
- •3.7.4. Оценка погрешности численного интегрирования.
- •4.2.1. Классификация численных методов для задачи Коши
- •4.4.1. Устойчивость задачи Коши по начальным данным
- •4.4.2. Устойчивость схемы Эйлера на модельной задаче
- •4.6. Сходимость методов Рунге - Кутта второго порядка
- •4.6.1. Исследование сходимости семейства разностных схем на модельной задаче
- •4.7.1. Сценарий построения разностных схем
- •4.8.1. Построение двухшаговой и трехшаговой схем
- •4.8.2. Погрешность аппроксимации
- •4.8.3. Устойчивость на модельной задаче
- •4.9.1. Построение неявных схем
- •4.9.2. Двухшаговая схема: погрешность аппроксимации и устойчивость на модельной задаче
- •4.9.3. Нахождение решения неявной разностной схемы
- •4.9.4. Схема "предиктор - корректор". Сравнение методов
- •4.10.1. Граничные условия
- •4.10.2. Метод стрельбы для краевой задачи с оду 2-го порядка
- •4.12. Общая задача.
- •4.12.1. Построение трехточечной разностной схемы 2-го порядка аппроксимации.
- •4.12.2. Сходимость разностной схемы.
- •4.12.3. Краевые условия 2-го и 3-го рода.
- •4.12.1. Построение трехточечной разностной схемы 2-го порядка аппроксимации.
- •4.12.2. Сходимость разностной схемы.
- •4.12.3. Краевые условия 2-го и 3-го рода.
- •1.1. Методы решения алгебраических уравнений
- •1.2. Решение систем линейных алгебраических уравнений методом Гаусса.
- •1.3. Итерационные методы решения систем уравнений
- •2.5.2. Формула Симпсона
2.4. Варианты итерационных методов
2.4.1. Метод простых итераций
В качестве первого примера рассмотрим явный стационарный итерационный метод, каноническая форма которого:
(26)
Выясним
достаточные условия сходимости этого
метода. В соответствии с теоремой 2 для
этого достаточно, чтобы матрица системы
A
была симметричной и положительной и
выполнялось неравенство
Учитывая,
что
,
имеем
.
Это
неравенство выполнено при
.
Следовательно, метод простых итераций
сходится при всех значениях
,
удовлетворяющих неравенству
.
С
учетом неравенства
,
где
-
собственные числа матрицы A,
достаточное условие сходимости можно
записать в виде
Условие (26) является также и необходимым для сходимости метода простых итераций.
Пусть
- максимальное по модулю собственное
число,
- соответствующий собственный вектор.
При начальном приближении
для погрешности k-го
приближения имеем:
.
Тогда
.
Если
,
то
и
при
.
Если
,
то
не стремится к нулю при
.
2.4.2. Метод Якоби
Координатная форма записи этого варианта итерационного метода имеет вид:
.
( 27)
Формулы
(27) получаются непосредственно из
исходной системы, если i
- ое уравнение системы разрешить
относительно неизвестного
.
Подставляя сюда
,
получаем
или, в каноническом виде,
где
- диагональная матрица.
В
соответствии с теоремой 2 сходимость
этого метода гарантирована, если
положительны матрица A
и матрица
Из положительности матрицы A вытекает, что ее диагональные элементы, а значит и диагональные элементы матрицы
больше
нуля. При этом условии для положительности
матрицы достаточно, чтобы она имела
свойства диагонального преобладания
.
Последнее равносильно тому, чтобы этим свойством обладала сама матрица A. Свойство диагонального преобладания матрицы A как достаточное условие сходимости метода Якоби возникает и в качестве следствия из теоремы 1.
2.4.3. Метод Зейделя
Весьма широко на практике применяется итерационный метод Зейделя:
Компоненты находятся последовательно по формулам:
Запишем этот метод в матричной форме. Для этого представим матрицу A в виде суммы
,
где
,
- нижняя треугольная матрица,
,
- верхняя треугольная матрица.
В этих обозначениях метод Зейделя записывается следующим образом:
(28)
Применим теорему 2 для исследования сходимости метода Зейделя.
.
В этом случае
,
,
если
.
Следовательно, метод Зейделя сходится,
если
.
Неравенство
следует из условия
.
Таким образом, метод Зейделя всегда сходится, если A - положительная матрица.
2.4.4. Метод релаксации
Можно
ускорить сходимость метода Зейделя,
если в схему (28) ввести итерационный
параметр (параметр релаксации)
.Получим
.
(29)
Значение
соответствует методу Зейделя.
Применим теорему 2 для исследования сходимости метода релаксации.
.
Найдем разность
,
при
.
Таким
образом, метод релаксации сходится при
любых значениях
,
если
- положительная матрица.
2.5. Оценка погрешности и мера обусловленности
Предположим, что матрица системы линейных уравнений и вектор правых частей заданы неточно и вместо предъявленной к решению системы
(30)
в действительности решается некоторая система
,
где
(31)
Обозначим
решения (30) и (31) через
и
Оценим
погрешность решения
.
Подставим
выражения
,
и
в (31)
Вычитая (30), получим
(32)
Если
малы
и
,
то следует ожидать и малости
.
Тогда слагаемое
имеет более высокий порядок малости.
Отсюда следует оценка погрешности
.
(33)
Довольно
распространен случай, когда погрешность
матрицы системы существенно меньше
погрешности правой части; в качестве
модели этой ситуации будем рассматривать
случай точного задания матрицы системы.
Тогда, полагая
в (33) имеем
(34)
Для качественной характеристики связи между погрешностями правой части и решения вводится понятие обусловленности матрицы системы. Абсолютные погрешности правой части и решения системы зависят от масштабов, которыми измеряется эти величины и матрица системы. Поэтому правильнее характеризовать свойства системы через связь между относительными погрешностями правой части и решения.
Для относительной погрешности решения из (34) имеем
(35)
отсюда
.
Подставляя
оценку для
в (35) имеем
(36)
Величину
называют мерой обусловленности матрицы.
Величина
относительной погрешности решения при
фиксированной величине относительной
погрешности правой части может стать
сколь угодно большой при достаточно
большой мере обусловленности матрицы.
Число обусловленности зависит от выбора
нормы матрицы. Любая норма матрицы не
меньше ее наибольшего по модулю
собственного значения, т. е.
.
Собственные значения матрицы
и
взаимно обратны; поэтому
.