
- •Министерство образования и науки Российской Федерации
- •1. Прямые (точные) методы
- •1.1 Метод исключения Гаусса
- •1.3 Решение слау с помощью lu-разложения матриц
- •1.4 Обращение матриц
- •1.5 Метод исключения Жордана (Гаусса – Жордана)
- •1.6 Контроль точности и уточнение приближенного решения в рамках прямого метода
- •1.7 Вычислительные затраты прямых методов
- •2. Итерационные методы
- •2.1 Классические итерационные методы и релаксация
- •2.1.1 Методы Якоби и Гаусса-Зейделя
- •2.1.2 Ускорение сходимости релаксационных методов
- •2.2 Проекционные методы и подпространства Крылова
- •2.2.1 Общий подход к построению проекционных методов
- •2.2.2 Случай одномерных подпространств k и l
- •2.2.3 Два выбора подпространств
- •2.2.4 Подпространства Крылова
- •2.2.5 Базис подпространства Крылова. Ортогонализация Арнольди
- •2.2.5 Биортогонализация Ланцоша
- •2.3 Предобусловливание
- •2.3.1 Предобусловливание основанное на классических методах
- •2.3.2 Неполное lu-разложение
- •2.3.3 Выбор структуры разреженности
- •2.4 Методы Крыловского типа
- •2.4.1 Метод обобщенных минимальных невязок
- •2.4.2 Метод бисопряженных градиентов
- •2.4.3 Стабилизированный метод бисопряженных градиентов
- •2.4.4 Метод квази-минимальных невязок
- •2.2.5 Квадратичный метод сопряженных градиентов
- •2.2.6 Метод сопряженных градентов
2.1.2 Ускорение сходимости релаксационных методов
Скорость сходимости методов, основанных на расщеплении, непосредственно связана со спектральным радиусом матрицы K–1R; с другой стороны, выбор K ограничен требованием легкой обратимости. Одним из распространенных способов улучшения сходимости является введение параметра. Пусть – некоторое вещественное число. Рассмотрим вместо системы (1.1) масштабированную систему
Ax=b, |
(2.10) |
и вместо (2.1) воспользуемся представлением
A=(D–E)–(F+(1–)D), |
(2.11) |
где матрицы D, E, F имеют тот же смысл, что и в (2.1).
Тогда на основании (2.10) и (2.11) можно построить итерационную схему, похожую на метод Гаусса-Зейделя,
(D–E)xk+1=(F+(1–)D)xk+b. |
(2.12) |
Схема (2.18) называется методом последовательной верхней релаксации (SOR). Для нее
KSOR()=D–E RSOR()=F+(1–)D. |
Выбор параметра , минимизирующего спектральный радиус является, вообще говоря, достаточно сложной проблемой. Однако для многих классов матриц такая задача исследована и оптимальные значения известны.
Выражение (2.11) остается тождеством, если в нем поменять местами матрицы E и F. Такая перестановка дает обратный метод последовательной верхней релаксации:
(D–F)xk+1=[E+(1–)D]xk+b. |
Последовательное применение прямого и обратного методов SOR дает симметричный метод последовательной верхней релаксации (SSOR)
(D–E)xk+1/2=[F+(1–)D]xk+b; (D–F)xk+1=[E+(1–)D]xk+1/2+b. |
2.2 Проекционные методы и подпространства Крылова
2.2.1 Общий подход к построению проекционных методов
Рассмотрим систему (1.1) и сформируем для нее следующую задачу. Пусть заданы некоторые два подпространства K RN и L RN. Требуется найти такой вектор xK, который обеспечивал бы решение исходной системы, «оптимальное относительно подпространства L», т.е. чтобы выполнялось условие
|
называемое условием Петрова-Галеркина. Сгруппировав обе части равенства по свойствам скалярного произведения и заметив, что b–Ax=rx, это условие можно переписать в виде
l L: (rx, l)=0, |
(2.13) |
т.е. rx=b–Ax L. Такая задача называется задачей проектирования x на подпространство K ортогонально к подпространству L.
В более общей постановке задача выглядит следующим образом. Для исходной системы (1.1) известно некоторое приближение x0 к решению x*. Требуется уточнить его поправку x K таким образом, чтобы b–A(x0+x) L. Условие Петрова-Галеркина в этом случае можно записать в виде
l L: (rx0+x, l)=((b–Ax0)–Ax, l)=(r0–Ax, l)=0. |
Пусть
dimK=dimL=m
(где dim
– размер подпространств). Введем в
подпространство K
и L
базисы
и
соответственно. Нетрудно видеть, что
(2.19) выполняется тогда и только тогда,
когда
j(1jm): (r0–Ax,j)=0. |
(2.14) |
При введении для базисов матричных обозначений V=|1|2| |m| и W=|1|2| |m| можно записать x=Vy где y Rm– вектор коэффициентов. Тогда (2.14) может быть записано в виде
WT(r0–AVy)=0, |
(2.15) |
откуда WTAVy=WTr0 и
y=(WTAV)–1WTr0. |
(2.16) |
Таким образом, решение должно уточняться в соответствии с формулой
x1=x0+V(WTAV)–1WTr0, |
(2.17) |
из которой сразу вытекает важное требование: в практических реализациях проекционных методов подпространства и их базисы должны выбираться, так чтобы WTAV либо была малой размерности, либо имела простую структуру, удобную для обращения.
Из (2.15) также вытекает соотношение
Vy=A–1r0=A–1(b–Ax0)=x*–x0, |
т.е. Vy=x представляет собой проекцию на подпространство K разности между точным решением и начальным приближением.
Пусть
имеется набор пар подпространств
таких, что K1
K2…
Kq=RN
и L1
L2…
Lq=RN
(запись K
L
обозначает симметричную разность
множеств K
и L,
т.е. элемент принадлежит K
L,
если он находится либо в K,
либо в L,
но не в пересечении K
и L,
т.е. K
L
= K
L
– K
L).
Тогда очевидно, что последовательное
применение описанного ранее процесса
ко всем таким парам приведет к решению
xq,
удовлетворяющему исходной системе
Ax=b.
Соответственно, в общем, виде алгоритм
любого метода проекционного класса
может быть записан следующим образом:
Начало |
Выбор пары подпространств K и L |
Построение для K и L базисов V=|1|2| |m| и W=|1|2| |m| |
r=b–Ax |
y=(WTAV)–1WTr |
x=x+Vy |
Продолжать до достижения сходимости |