
- •Предисловие
- •Глава 1. О численном анализе
- •1.1. Немного истории
- •1.1.1. Развитие численных методов
- •1.1.2. Теории и модели
- •1.2. Математическое моделирование
- •1.2.1. Математическая модель
- •1.3. Источники погрешности
- •1.3.1. Величины и нормы
- •1.3.2. Погрешность модели
- •1.3.3. Неустранимая погрешность
- •1.3.4. Погрешность метода
- •1.3.5. Погрешность округления
- •1.3.6. Корректность задачи
- •Глава 2. Системы алгебраических уравнений
- •2.1. Линейные системы
- •2.1.1. Задачи линейной алгебры
- •2.1.2. Метод Гаусса
- •2.1.3. Определитель и обратная матрица
- •2.1.4. Прочие методы
- •2.1.5. Плохо обусловленные системы
- •2.1.6. Переобусловленные системы
- •2.2. Нелинейное уравнение
- •2.2.1. Дихотомия
- •2.2.2. Метод Ньютона
- •2.2.3. Обобщенный метод Ньютона
- •2.2.4. Прочие методы
- •2.2.5. Удаление корней
- •2.3. Системы нелинейных уравнений
- •2.3.1. Метод Ньютона
- •2.3.2. Обобщенный метод Ньютона
- •Глава 3. Численное интегрирование
- •3.1. Квадратурные формулы
- •3.1.1. Интегральная сумма
- •3.1.2. Формула средних
- •3.1.3. Формула трапеций
- •3.1.4. Формула Симпсона
- •3.1.5. Формулы Эйлера-Маклорена
- •3.1.6. Формулы Гаусса-Кристоффеля
- •3.1.7. Недостаточно гладкие функции
- •3.2. Метод сгущения сеток
- •3.2.1. Однократное сгущение
- •3.2.2. Рекуррентное уточнение
- •3.2.3. Квазиравномерные сетки
- •3.2.4. Метод Эйткена
- •3.3. Кубатурные формулы
- •3.3.1. Метод средних
- •3.3.2. Произведение квадратурных формул
- •3.3.3. Статистические методы
- •Глава 4. Интерполяция
- •4.1. Интерполяционный многочлен
- •4.1.1. Задачи интерполяции
- •4.1.2. Многочлен Ньютона
- •4.1.3. Погрешность
- •4.1.4. Обратная интерполяция
- •4.1.5. Эрмитова интерполяция
- •4.1.6. Многомерная интерполяция
- •4.2. Сплайн-интерполяция
- •4.2.1. Историческая справка
- •4.2.2. Кубический сплайн
- •4.2.3. Обобщения
- •4.3. Нелинейная интерполяция
- •4.3.1. Выравнивание
- •4.3.2. Рациональная интерполяция
- •Глава 5. Среднеквадратичная аппроксимация
- •5.1. Общий случай
- •5.1.1. Выбор нормы
- •5.1.2. Аппроксимация обобщенным многочленом
- •5.1.3. Неортогональные базисы
- •5.1.4. Ортогональные системы
- •5.1.5. Метод наименьших квадратов
- •5.2. Тригонометрический ряд Фурье
- •5.2.1. Общие формулы
- •5.2.2. Сходимость
- •5.2.3. Вычисление коэффициентов
- •5.2.4. О равномерных приближениях
- •5.3. Ряды по многочленам Чебышева
- •5.4. Метод двойного периода
- •5.4.1. Исключение разрывов
- •5.4.2. Двойной период
- •5.4.3. Наилучшее приближение
- •5.4.4. Вычисление скалярных произведений
- •5.5. Аппроксимация сплайнами
- •5.5.1. В-сплайны
- •5.5.2. Среднеквадратичная аппроксимация
- •5.5.3. Конечные элементы
- •5.6.2. Хорда
- •5.6.3. Окружность
- •5.6.4. Аппроксимация
- •5.6.5. Ротационная инвариантность
- •Глава 6. Численное дифференцирование
- •6.3. Некорректность численного дифференцирования
- •Глава 7. Спектр матрицы
- •7.1. Преобразование подобия
- •7.1.1. Теория
- •7.1.2. Метод отражений
- •7.1.3. Другие методы
- •7.2. Вычисление спектра
- •7.2.1. Частичная проблема
- •7.2.2 Обобщенная проблема
- •7.2.3. Полная проблема
- •Глава 8. Задачи минимизации
- •8.1. Одномерный минимум
- •8.1.1. Золотое сечение
- •8.1.2. Метод Ньютона
- •8.1.3. Случай многих экстремумов
- •8.2. Многомерный минимум
- •8.2.1. Рельеф функции
- •8.2.2. Обобщенный метод Ньютона
- •8.2.3. Многоэкстремальность
- •8.3. Решение сеточных уравнений
- •8.3.1. Градиентные спуски
- •8.3.2. Наискорейший спуск
- •8.3.3. Минимальные невязки
- •8.3.4. Усеченный спуск
- •8.3.5. Сопряженные градиенты
- •8.3.6. Нелинейность
- •8.4. Задачи с ограничениями
- •8.4.1. Наложение связей
- •8.4.2. Ограниченная область
- •8.4.3. Общий случай
- •8.5. Минимизация функционала
- •8.5.1. Прикладные проблемы
- •8.5.2. Сеточный метод
- •8.5.3. Метод Ритца
- •8.5.5. Пробные функции
- •Список литературы
- •Оглавление
Выводы. Выполняя отражения с q = 1, 2, ... , N - 2, по добно преобразуем произвольную матрицу А к верхней почти
треугольной форме (форме Хессенберга). Суммарное преобра
зование требует (10/З)N3 арифметических операций (немногим
больше, чем для обращения матрицы).
Если исходная матрица была эрмитовой, то ее эрмитовость
сохраняется, и результирующая матрица оказывается трехдиа
гональной. В этом случае верхнюю половину матрицы нужно не
вычислять, а заполнять по условию симметрии. Это уменьшает
число арифметических операций до (4/З)N3.
Если предполагается находить только собственные значения,
то найденные на каждом шаге цикла векторы w и константы с
хранить не надо. Если же нужно находить собственные векторы, то потребуется обратное преобразование. В этом случае w и с
надо сохранять.
Практика показала, что метод Хаусхолдера очень устойчив по отношению к ошибкам округления. При 64-разрядных вычис лениях он позволяет проводить расчеты с N "-'1 ООО и более.
7.1.З. Другие методы
Метод Гивенса ( 1954). В этом методе используется це
почка унитарных преобразований - двумерных вращений коор динат. Каждое вращение происходит в плоскости, проходящей через какие-то две оси координат. При таком вращении преоб разуются только элементы двух столбцов и двух одноименных строк матрицы А. Поэтому объем вычислений при одном пово роте мал. Углы поворотов выбирают так, чтобы каждый пово рот аннулировал определенный элемент матрицы А, лежащий ниже по,лдиагонали. Последовательность поворотов выбирают так, чтобы ранее аннулированный элемент оставался нулевым.
После (N - l)(N - 2)/2 поворотов аннулируются все элементы,
лежащие ниже по,лдиагонали. Поэтому произвольная матрица А приводится к верхней почти треугольной форме.
Преобразования вращения сохраняют эрмитовость. Следова тельно, если матрица А была эрмитовой, то цепочка преобразо ваний Гивенса приводит матрицу к трехдиагональной форме.
По конечному результату метод Гивенса похож на метод Ха усхолдера. Он столь же устойчив, но в полтора раза медленнее
(5N3 арифметических действий для произвольной матрицы и 2N3 - для эрмитовой). В нем также по,лдиагональные элемен
ты итоговой матрицы оказываются весьма большими.
244
Метод Якоби. Метод, предназначенный только для эрми товых матриц А, был предложен в XVIII в. и возрожден с появ лением компьютеров. В нем используются такие же двумерные вращения, как и в методе Гивенса, но угол поворота выбирается иначе. Аннулируется достаточно большой по модулю внедиаго нальный элемент. Симметричный ему внедиагональный элемент также обращается в нуль в силу сохранения эрмитовости. При
этом ранее аннулированный элемент может снова стать ненуле
вым. Бесконечная цепочка таких поворотов в пределе приводит
эрмитову матрицу к диагональному виду. При этом сразу нахо
дятся собственные значения: они равны диагональным элемен
там итоговой матрицы.
Такая цепочка преобразований не может быть конечной, т. е. метод Якоби - итерационный процесс. Он сходится всегда, но сходится достаточно медленно, так что объем вычислений для получения высокой точности в нем примерно в 20 раз больше, чем в методе Хаусхолдера. Поэтому на практике он применяется редко. Интересен он лишь тем, что исключительно устойчив и сразу дает собственные значения.
Элеменmарн:ьtе преобразования. Возьмем произвольную
(неэрмитову) матрицу А, уже приведенную методом отражений
к верхней почти треугольной форме. Ее можно привести к трех диагональной форме цепочкой так называемых элементарных преобразований подобия с матрицами вида
-Vq+2 |
-Vq+З |
-~N] |
|
||
1 |
о |
о ' |
о |
1 |
|
о |
о |
1 |
причем м-1 (v) = M(-v). Величины Vn выбирают так, чтобы ан
нулировать все элементы соответствующей строки матрицы А, лежащие правее верхней кодиагонали. Последовательность мат риц М берут так, чтобы аннулировать сначала первую строку, затем вторую и т. д. Трудоемкость элементарных преобразова ний меньше, чем для преобразования отражения.
Однако матрицы М неунитарны, так что устойчивость этого метода хуже. В литературе отмечено, что обычно устойчивость метода удовлетворительна, но наблюдаются также случаи поте ри точности и даже срывы расчета. При мощности современных компьютеров надежность важнее небольшого выигрыша в тру
доемкости.
245