
- •Электрооборудования и электрического транспорта
- •Оглавление
- •Глава 2 23
- •Глава 3 34
- •Глава 4 43
- •Глава 5 61
- •5.7. Понятие о методах обратного дифференцирования 74
- •Предисловие
- •Глава 1 решение алгебраических уравнений и их систем
- •1.1. Решение систем линейных алгебраических уравнений
- •1.1.1. Итерационные методы решения систем линейных алгебраических уравнений
- •1.1.2. Факторизация и типовые схемы решений
- •1.1.3. Метод Гаусса и lu— разложение
- •1.1.4. Метод Гаусса-Жордана обращения матриц
- •1.1.5. Метод квадратного корня (Холесского)
- •1.1.6. Метод вращений
- •1.1.7. Итерационное уточнение
- •1.1.8. Решение преопределенных систем линейных алгебраических уравнений
- •1.2 Решение систем нелинейных алгебраических уравнений
- •1.2.1. Метод последовательных приближений
- •1.2.2. Метод Ньютона
- •1.2.3. Метод Ньютона по параметру
- •Глава 2 Интерполяция зависимостей
- •2.1. Интерполяция каноническим полиномом
- •2.2. Интерполяция полиномом Лагранжа
- •2.3. Интерполяция полиномом Ньютона
- •2.4. Применение интерполяции для решения уравнений
- •2.5. Интерполяция сплайнами
- •Глава 3 Метод наименьших квадратов
- •3.1. Общие положения
- •3.2. Степенной базис
- •3.3. Базис в виде классических ортогональных полиномов
- •3.4. Базис в виде ортогональных полиномов дискретной переменной
- •3.5. Линейный вариант метода наименьших квадратов
- •3.6. Сглаживание экспериментальных данных с ошибками
- •Глава 4 Определенные интегралы
- •4.1. Классификация методов
- •4.2. Методы прямоугольников
- •4.3. Апостериорные оценки погрешностей по Рунге и Эйткену
- •4.4. Метод трапеций
- •4.5. Метод Симпсона
- •4.6. Методы Ньютона-Котеса
- •4.7. Вычисление интегралов с заданной точностью
- •4.8. Применение сплайнов для численного интегрирования
- •4.9. Методы наивысшей алгебраической точности
- •4.10. Несобственные интегралы
- •4.11. Вычисление кратных интегралов
- •Глава 5 Решение обыкновенных дифференциальных уравнений
- •5.1. Типы задач для обыкновенныхдифференциальных уравнений
- •5.2. Метод Эйлера
- •5.3. Методы Рунге-Кутта
- •5.4. Метод Рунгe-Кутта-Мерсона
- •5.5. Методы Адамса-Башфорта и Адамса-Маултона
- •5.6. Методы Гира
- •5.7. Понятие о методах обратного дифференцирования
- •Библиографический список
- •Методы вычислений в задачах
- •Электроаппаратостроения,
- •Электрооборудования
- •И электрического транспорта
- •346428, Г.Новочеркасск, ул. Просвещения 132
Глава 1 решение алгебраических уравнений и их систем
В настоящее время разработано большое количество различных методов решения систем алгебраических уравнений. Для правильного выбора метода, наилучшим образом отвечающего сформулированной задаче, необходимо знать особенности его реализации: количество необходимых операций, объем памяти, оценку численной устойчивости, удобство алгоритмизации и т.п.
1.1. Решение систем линейных алгебраических уравнений
Вычислительные методы для решения СЛАУ разделяются на:
прямые методы, которые позволяют получить точное решение за конечное число операций (при использовании точных вычислений без округлений);
итерационные методы, которые позволяют после задания некоторого начального приближения получать в ходе последовательности итераций новое приближение к решению до тех пор, пока оно не будет соответствовать заданной точности; общее число операций зависит от исходного приближения вычислительной схемы, особенностей СЛАУ и заранее неизвестно.
Для прямых методов, как правило, стоит проблема численной устойчивости решения, а для итерационных — еще и сходимости последовательности итераций к решению.
Далее будем полагать, что СЛАУ представлена в виде
или в матричной форме
АХ = В,
где А — матрица размерности пх п коэффициентов при неизвестных; X-— вектор-столбец искомых неизвестных размерности n; В — вектор-столбец свободных коэффициентов (правых частей) размерности п.
1.1.1. Итерационные методы решения систем линейных алгебраических уравнений
Будем полагать, что матрица А невырожденная. В наиболее простой форме итерационный метод решения системы АХ = В можно записать в виде вычислительной процедуры:
где F(k)— некоторая последовательность операторов, действующих для заданных A и В.
Вектор
называют
начальным
вектором (начальным
приближением),
а векторы
=
—
X,
где X—
точное решение, называют
векторами
ошибок. Векторы
=
- Вназывают
векторами невязок.
Широко распространено в литературе по электротехнике описание метода простой итерации, который в развернутой форме имеет следующий вид:
|
где последовательность
k
итераций
завершается, если все элементы вектора
невязок меньше заданной точности расчета
1,2,…,n(получено
приемлемое решение), либо превышено
заранее заданное количество
итераций
.
В матричной форме
,
где
.
Для ускорения сходимости в правой части приведенных выражений возможно использовать не только значения неизвестных хр, вычисленные на предыдущих итерациях, но также рассчитанные ранее на этой же итерации и имеющие индексы р <i. В этом случае говорят о методе ускоренной итерации, часто называемом также методом Гаусса-Зейделя. Схема решения имеет следующий вид:
,
i=1, 2, …,n; k=1, 2, … .
В матричной форме
-
,
где U, L— верхняя и нижняя треугольные матрицы, содержащие нули на главной диагонали, и такие, чтоА — L + D + U.
Метод ускоренной итерации позволяет ограничиться одним массивом для хранения искомых переменных.
Существенными вопросом при выборе данных методов для решения конкретных задач является скорость сходимости итерационного процесса к решению, которая зависит от начального приближения и от особенностей матрицы А.
Методы простой и ускоренной итерации сходятся к точному решению, если матрицаАимеет диагональное преобладание. В противном случае решение не гарантировано.
При построении реальных вычислительных схем часто пытаются ускорить процесс решения введением специальных ускоряющих коэффициентов.
Тогда полученное значение переменнойxi(k) можно скорректировать следующим образом:
|
где
,
- коэффициенты
ускорения и замедления, часто
принимают
=1,3,
=0,4,
-
разность решений на двух итерациях.
Таким образом, если направление (знак) приращения переменной не меняется на двух последовательных итерациях, то "движение к решению" пытаются ускорить, в противном случае пытаются подавить колебательный процесс сходимости с помощью уменьшения приращения переменной.
Такой подход требует выполнения дополнительных операций и дополнительной памяти для хранения вектора приращений переменных Y.