
- •III семестр. Ммф нгу
- •Конспект лекций1
- •2003 – 2004 Учебный год
- •Содержание
- •Лекция 1. Традиционные задачи линейной алгебры
- •Векторные и матричные нормы
- •Число обусловленности
- •Лекция 2. Прямые методы решения линейных уравнений Метод исключения Гаусса – схема единственного деления
- •Теорема об lu разложении
- •Разложение Холесского
- •Метод квадратного корня
- •Метод вращений решения системы уравнений Элементарная матрица вращения
- •–Ый шаг метода вращений
- •Решение системы с вырожденной матрицей –разложение с перестановками столбцов матрицы
- •Совместность системы с вырожденной матрицей
- •Применение –разложения с перестановками столбцов для решения совместной системы
- •Метод прогонки решения систем с трехдиагональной матрицей –разложение трехдиагональной матрицы :
- •Формулы метода прогонки для системы :
- •Асимптотическая скорость сходимости
- •Метод Зейделя (Гаусса–Зейделя, Некрасова)
- •Необходимое и достаточное условие сходимости метода Зейделя в случае симметричной матрицы с положительной главной диагональю
- •Лекция 7. Функционал ошибки
- •Метод полной релаксации
- •Метод неполной релаксации
- •Метод минимальных невязок
- •Метод простой итерации
- •Оценки сходимости мнс и ммн
- •Лекция 9. Метод Ричардсона с чебышевскими параметрами Задача оптимизации параметров
- •Полином Чебышева и решение задачи оптимизации параметров
- •Циклический метод Ричардсона: формулы и сходимость
- •Об устойчивости метода Ричардсона
- •Трехчленные формулы реализации метода Ричардсона с чебышевскими параметрами
- •Лекция 10. Многошаговые методы. Вариационная оптимизация
- •Метод сопряженных градиентов
- •Переобуславливатель
- •Положительно определенные матрицы
- •Лекция 11. Проблема собственных значений
- •Корректность задачи на собственные значения
- •Степенной метод вычисления максимального собственного значения матрицы
- •Степенной метод вычисления минимального собственного значения матрицы
- •Применение ортогонализации и степенного метода для вычисления очередного собственного значения
- •Лекция 12. Метод деления пополам (бисекций)
- •Идея метода бисекций вычисления
- •Приведение самосопряженной матрицы к трехдиагональному виду ортогональным преобразованием подобия с помощью матриц вращения
- •Якобиевы матрицы
- •О вычислении чпз
- •О вычислении собственного вектора
- •Лекция 13. Метод вращений (Якоби)
- •Выбор вращения
- •Сходимость собственных значений
- •Сходимость собственных векторов
- •Литература
Лекция 7. Функционал ошибки
Второй
из способов построения итерационного
метода решения системы линейных
алгебраических уравнений
(
)
состоит из построения последовательности
приближений
такой, что
,
т.е. строгого убывания на каждом шаге
функционала ошибки
.
Теорема. |
Если
и
отображение
|
Док–во. |
Т.к.
Предположим,
что
Т.к.
Т.к.
,
то
Тогда, выполнив предельный переход в соотношениях
получим
противоречие:
|
Обычно
используют нормы, порождаемые симметричной
положительно определенной матрицей:
.
Доказать:
если
|
– норма в . |
Метод полной релаксации
для решения
системы
с матрицей
– очередное приближение
определяется по известному приближению
за
шагов:
где
параметр
выбирается из условия минимума
.
Теорема. |
и . |
Док–во. |
Т.к. , то имеем
Очевидно,
что при
если
хотя бы одна из компонент невязки
(в
противном случае
Итак, функционал ошибки строго убывает. Найдем оператор шага для ошибки: имеем (проверить!):
или
– метод Зейделя (он сходится)
по теореме о функционале ошибки. |
Метод неполной релаксации
для решения системы с матрицей – очередное приближение определяется по известному приближению за шагов:
где
параметр
,
т.е. ошибка уменьшается меньше, чем в
методе полной релаксации (
):
Расчетные
формулы имеют вид (проверить!):
или
Теорема. |
Если
,
то метод неполной релаксации сходится
|
Док–во |
практически совпадает с доказательством сходимости метода полной релаксации. |
Оценка сходимости методов релаксации
Итак,
ошибка
монотонно убывает в норме
.
Оценим
.
Т. к.
,
где
,
то
,
если
.
.
Т.к.
,
то
где
.
Пусть
.
Т.к.
,
то
.
Теорема. |
где
постоянные
( |
Док–во |
очевидно. |
Доказать:
.
Доказать:
.
Пример
,
,
т.к.
,
то
и
,
тогда (проверить):
верхняя релаксация |
|
полная релаксация |
|
т.е. метод
верхней релаксации в
раз дешевле.
Лекция 8.
Градиент, метод наискорейшего спуска
Как
выбирать вектор
при построении итерационного метода
из условия минимизации ошибки:
?
Если
,
то
Следовательно,
.
Теорема. |
Метод наискорейшего спуска сходится
, если
|
|
Док–во. |
Очевидно,
что оператор
:
непрерывен
всюду, кроме , быть может, 0.
|