Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
511722_F4A3E_burlyaev_v_v_chislennye_metody_v_p...doc
Скачиваний:
141
Добавлен:
09.11.2019
Размер:
10.13 Mб
Скачать

3.3. Метод итераций.

Пусть задана система нелинейных уравнений 2-го порядка

f1(x1,x2) = 0

f2(x1,x2) = 0

причем левые части уравнений известны в виде формул. Заданы также числовые значения начальных приближений х10 и х20, а также Е - точность вычислений значений корней.

Для применения итераций исходная система приводится к виду

х1 = g1(x1,x2)

x2 = g2(x1,x2),

где функции gi называются итерирующими. Алгоритм решения задается итерирующими формулами

х1i+1 = g1(x1i,x2i)

x2i+1 = g2(x1i,x2i),

где i -номер итерации, i = 0,1,2,... Для прекращения итераций вычисляются значения

p1i+1 = х1i+1 - x1i

p2i+1 = x2i+1 - x2i,

D=( p1i2+p2i2)(1/2),

и D сравнивается с Е. Итерации продолжаются до тех пор, пока не выполнится условие D<=E. Чтобы процесс вычислений сходился к этому условию, нужно выполнение достаточного условия сходимости:

dg1/dx1 + dg1/dx2

dg2/dx1 + dg2/dx2.

Возможно также суммирование по столбцам.

Пример 3.3.

Решим систему из примера 3.1 методом итераций. Начальные приближения также возьмем из того же примера. Пусть Е = 0,00001. Выпишем формулы для итерирующих функций

g1(x1,x2) = (x13 + x23 + 3)/6

g2(x1,x2) = (x13 - x23 + 2)/6.

При изменении независимых переменных в пределах 0<= x1<=1 и 0<= x2<=1 достаточное условие сходимости выполняется, т.к.

dg1/dx1 + dg1/dx2x12)/2 + (x22)/2

dg2/dx1 + dg2/dx2x12)/2 + -(x22)/2.

Проведем вычисления на том же рабочем листе, что и в примере 4.2.

Отведем столбец А, начиная с 26 строки под значения х1, столбец В под значения х2, столбец С - под g1, столбец D - под g2, следующие три столбца под р12 и D.

В строке 27 сформируем формулы для второй итерации, а затем скопируем их в блок А28:G32, с учетом изменений относительных адресов ячеек. В результате будем иметь заполненную таблицу

Как видно, процесс итераций сходится достаточно быстро.

4. Численные методы одномерной оптимизации.

Одномерная задача оптимизации в общем случае формулируется следующим образом: найти значение независимой переменной Х, заданной на интервале[a,b], при котором некоторая целевая функция f(X) принимает минимальное значение. Если ставится задача нахождения максимума, например, функции g(X), то преобразованием f(X) = - g(X) она приводится к отысканию минимума f(X). Целевая функция f(X) должна быть задана в виде формулы. Если существует производная f’(X), то задача сводится к решению уравнения f’(X) = 0, например, методами, описанными в разделе 2.

Численные методы оптимизации используются тогда, когда целевая функция недифференцируема и, в общем случае, может быть не гладкой и даже непрерывной, т.е. может иметь разрывы первого рода по Дирихле.

Единственное условие, предъявляемое к целевой функции - она должна быть унимодальной на интервале [a,b], т.е. иметь на этом интервале только один минимум и не иметь ни максимумов, ни точек перегиба. Математически свойство унимодальности записывается так. Функция f(X) называется унимодальной на интервале [a,b], если на этом интервале существует такая точка Х*, что для значений Х

X1<X2<X*<X3<X4

выполняется условие

f(X1)>f(X2)>f(X*)<f(X3)<f(X4).

В этом определении очень важно, что все неравенства - строгие.

Процесс нахождения минимума унимодальной функции численными методами оптимизации, называемыми иногда методами поиска, состоит в последовательном сужении интервала [a,b] - начального интервала неопределенности - так, чтобы его длина достигала значения Е - заданной погрешности решения.

Алгоритм сужения интервала [a,b] называется стратегией поиска. Заметим, что если выбрать два любых значения Х1 и Х2 на интервале [a,b] и вычислить для них значения функции f(X1) и f(X2), то сравнивая эти значения по величине и используя свойство унимодальности, всегда можно сократить начальный интервал неопределенности, отбрасывая отрезок [a,X1] или отрезок [X2,b]. Таким образом, стратегии поиска отличаются правилами выбора значений Х1 и Х2 на интервале [a,b]. Далее будут рассмотрены три метода одномерной оптимизации.