Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Спецглавы САПР / Лекции (Петраков) / Печатный вариант / 3.Алгоритмы решения ММ БИС по постоянному току.doc
Скачиваний:
61
Добавлен:
17.04.2013
Размер:
308.74 Кб
Скачать

Метод последовательного исключения неизвестных. Метод Гаусса.

Идея метода основана на исключении переменных до тех пор, пока не останется только одна переменная в левой части одного уравнения. Затем это уравнение решается относительно этой единственной переменной, и полученное значение подставляется в предыдущее уравнение для получения остающихся переменных. Очевидно что предложенный алгоритм работает, если аii≠0.

(6)

(7)

Второе уравнение системы (7) получено умножением первого уравнения этой системы на коэффициент a21/a11 и сложением со вторым уравнением системы (6). Третье уравнение - путем умножения первого уравнения этой системы на коэффициентa31/a11 и сложением с третьим уравнением системы (6).

(8)

Третье уравнение системы (8) получено умножением второго уравнения системы (7) на коэффициент a32/a22 и сложением с третьим уравнением системы (6).

Описанные этапы приводят к уравнению вида:

Ux=Mb,

где U- верхняя треугольная матрица. Диагональные элементы матрицы называются ведущими. K-ый ведущий элемент является коэффициентом при к-ой переменной в к-ом уравнении на к-ом шаге исключения.

Интуитивно можно утверждать, что к-ый элемент не должен быть слишком малым, иначе при делении будут получаться очень большие числа с большими абсолютными погрешностями. В результате этого решение может сильно исказиться.

Для того чтобы этого избежать применяются:

  1. Масштабирование коэффициентов. Подход заключается в «отбрасывании» порядков при коэффициентах уравнений.

  2. Метод Гаусса с выбором ведущего элемента. Отличие его от выше описанной схемы состоит в том что на к-ом шаге в качестве ведущего элемента берется наибольший по абсолютной величине элемент в неприведенной части к-ого столбца. Строка, содержащая этот элемент переставляется с к-ой строкой. Так же переставляются элементы правой части.

Гауссово исключение с выбором ведущих элементов гарантированно дает малые невязки. Связь между величинойошибки и невязкиотчасти определяетсячислом обусловленности.

Дополнительная информация приведена в Приложении 2.

Методы решения моделей по постоянному току. Линейный и нелинейный случаи (итерационные методы решения)

Идея итерации с неподвижной точкой.Большинство итерационных методов решения систем линейных и нелинейных уравнений могут быть рассмотрены как специальные случаи итерационного алгоритма с неподвижной точкой. Рассмотрим идею на примере уравнения с одним неизвестным

ƒ(х)=0. (9)

Алгоритм неподвижной точки требует специальной формы записи

x=F(x) (10)

Целью алгоритма является нахождение x=x*, которое сводит уравнение (10) к тождеству. Преобразуем уравнение (10) к виду

Y=x Y= F(x). (11)

Тогда геометрическая интерпретация алгоритма будет выглядеть следующим образом (см. рис. 3)

Рис. 3. Геометрическая интерпретация алгоритма неподвижной точки.

Предполагаем, что мы начинаем итерационную процедуру выбрав х=х0, в результате получаемх1. Если|x*-x1|<|x*-x0|,то выбор начального приближениях1 лучше, чем х0.В качестве начального приближения выбираемх1 и так далее пока

|xк+1-xк|<ε.(12)

В общем случае метод описывается рекурсивной формулой

xк+1=F(xк) (13)

Критерий, гарантирующий сходимость, определяется следующим образом (принцип сжатых отображений): если F(x)есть сжатиеn-мерного пространстваRnвRn, т.е. константаL<1, такая что

|| F(y)-F(x)||<||y-x|| , х,у Є Rn , (14)

то F(y) имеет единственную неподвижную точку.

Последовательные итерации приводят к этой неподвижной точке. Если Lблизка к единице, то сходимость может быть достаточно медленной.

Методы неподвижной точки требуют, чтобы исходные уравнения … записывались в стандартной форме, где

, (15)

где - матричная неособенная функция от.

Ясно, что может быть случайной функцией. Различные выборыведут к различным характеристикам сходимости. Большинство итерационных методов решения систем нелинейных уравнений является специальными случаями уравнения (15).

Например, , где- матрица Якоби.

Подставляя в формулу (15), получим

. (16)

То есть приходим к методу Ньютона - Рафсона.

Метод Ньютона применяется на практике в большинстве случаев, поэтому остановимся на нем подробнее.

Известно, что всякую функцию в окрестности решения можно разложить в ряд Тейлора

(17)

При этом в окрестности решения можно ограничиться разложением с точностью до первого порядка малости. В методе Ньютона можно ввести преобразование, которое позволит сохранить невязку, если она мала, и уменьшить её, если она велика. Для метода Ньютона оправдывается теорема, если

,

=0

и вторая производная

непрерывна, то существует открытый интервал , содержащийв решении, такой что, если, то для метода Ньютонасходится к решению, т.е. метод Ньютона гарантирует сходимость к решению при хорошем приближении.

Погрешность решения

. (18)

Нетрудно видеть, что

. (19)

Если необходимо определить погрешность решения и сходимость, то нужно учесть второй порядок.

Об итерационном процессе, для которого ошибка удовлетворяет соотношению

. (20)

говорят, что он имеет сходимость порядка p, то есть метод Ньютона имеет квадратичную сходимость. Например, наk-ой итерации погрешность решения:

,,,.

То есть, достаточно шести итераций для того, чтобы погрешность стала очень маленькой.

Трудность применения метода Ньютона заключается в выборе начального приближения, которое находилось бы внутри интервала . Есливзят вне интервала (разложение в ряд Тейлора в окрестности решения ), то нуль не будет найден. Вследствие этого методу Ньютона часто предшествует какой-либо глобально сходящийся алгоритм (например, метод деления отрезка пополам). То есть метод Ньютона является завершающей процедурой более медленных, но надежных начальных алгоритмов.

Локальная методическая погрешность

.

Различные подходы к выбору матрицы (помимо метода Ньютона) приводят к методам Якоби, Гаусса–Зейделя, методу последовательной верхней релаксации. Перечисленные методы относятся к релаксационным.