Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Экзаменационные шпоргалки

.doc
Скачиваний:
37
Добавлен:
26.05.2014
Размер:
184.32 Кб
Скачать

1. Определения абсолютной и относительной погрешностей. Оценки абс. и отн. погр. Погрешность арифм. операций. Понятие верной цифры.

Классификац. погрешн.: 1. Неустойчивая погрешность – погреш. вход. данных. 2. Методическая погрешность – погрешн. метода решения задачи. 3. Вычислит. погрешность – погреш. представл. данных, округления.

(a*)=|a – a*| - модуль разности между точным и приближенным значениями.

δ(а*)=(a*)/|a|

Погрешность арифм. операций:

1) (а* ± b*) (a*) + (b*). Д. (a* ± b*) – (a + b) =(a* - a) ± (b* - b)  (a*) + (b*).

2) a и b – ненулевые одного знака. (a*b*) (a*) + (b*) + (a*)(b*). Д. (a*b*) = (a*b*)/ab =a*b* - ab/ab=(a – a*)b + (b – b*)a + (a – b)(a* - b*)/ab ((a*)b+ (b*)a+a - ba* - b*/ab  (a*) + (b*) + (a*)(b*).

3) (a*/b*) ((a*) + (b*))/(1 - (b*)). Д. аналог., только b* = b + (b* - b).

Значащие цифры числа – все цифры в его записи, начиная с 1й ненулевой слева. Значащая цифра наз. верной, если абс. погр. не прев. единицы разряда, соответствующего этой цифре.

2. Вывод общей ф-лы погр. Обратная задача теории погрешностей.

Пост. Задачи: дана ф-ия n пер-х. y=f(x1..xn).

Т.(общая ф-ла) Пусть у имеет непр. частные производные по кажд. аргументу. Тогда (y)≈ j=1nf/xi(xj). Док: (для ф-ии 1перем) ф-ла конечных приращений Лагранжа f(x)- f(xn)=f’(ξ)(x-xn), ξЄ[x,xn]. |f(x)-f(xn)| M1|x-xn|, M1=max[x, xn]|f’(x)|, (y)≈ |f’(xn)| (x), а xn– заданное значение аргумента, чтд.

Обратная задача теор. погр.: требуется задать погр. аргумента т.о., чтобы (y)≈ε. Эта задача может быть решена с пом. принципа равных влияний. Будем предп., что кажд. слаг. в общей ф-ле погр-тей вносит равный вклад в величину (y): ε=(y)=i=1n|f/xi|(xi), (xi)= ε/(n|f/xi|).

3. Представление чисел в ЭВМ. Особенности машинной арифметики. Понятие машинного эпсилон.

х = ±  * 2р,  - t разрядов. х – с округлением по дополнению, тогда: х = *2р,  = (1/2)*2-(t + 1). х = х/х = *2р/*2р = /  *2 = (1/2)*2 -(t + 1)*2 = 2 -(t + 1)  маш. .

4. Абсолютное и относительное числа обусловленности задачи. Обусловленность задачи вычисления функций одной переменной.

Под обусл. поним. чувствительность задачи к погрешности вх. данных. а = 3.34 ± 0.01, b = 3.35 ± 0.01. Вычисли (а + b) и (a – b). Абсолютное число обусл.: : (у*)  *(х*). Относит. число обусл.: : (у*)  *(х*). Задача хор. обусл, если 10. Число обусл. ф-ии 1-ой переменной. Ф-ла погрешностей: (f*)  max[x, x*]df/dx(x*), max[x, x*]df/dx- и есть абс. число обусл. . Итак: = max[x, x*]df/dx. (f*) = (f*)/f*  max[x, x*]df/dx(x*)*x*/(f*x*) = (max[x, x*]df/dx*x*/ /f*)*(x*). max[x, x*]df/dx*x*/f* – есть . Итак: = max[x, x*]df/dx*x*/f*.

5. Постановка задачи приближенного вычисления корня и основные этапы ее решения. Итерационное уточнение корней: порядок сходимости метода, оценка погрешности.

итерационное уточнение корня(ей). При этом получаем последовательность х(0), х(1), … , х(n), … приближений к корню х. Итерац. процесс наз. схож. если limnx(n) = x. Итерац. процесс сход. со скоростью геометрич. прогрессии со знаменат. прогр. q, если справедливо, что x(n) - x  cqn, c – const.

6. Метод бисекции: описание, ск-ть сходимости, критерий окончания.

Критерий окончания: х = х* ± . х*  [a(n), b(n)], значит b(n) - a(n)  2. х = х(n) ± . Условия применимости: пусть f(x) непр. на [a, b], где [a, b] – отрезок лок. корня. Если f(a)f(b) < 0, то метод сход. (стягивается в точку х). x(n) - x (b – a)/2n+1. Достат. кол-во итерац.: (b – a)/2n+1    (b – a)/  2n+1 n  [log2((b – a)/2)] – 1, где [] – целая часть. Скорость сход.: x(n) - x  (b – a)/2n+1 = ((b – a)/2)(1/2)n. Метод сход. со скоростью геометрич. прогрессии со знаменателем q = ½.

7. МПИ решения нелинейного уравнения: описание, условие и ск-ть сходимости, критерий окончания.

Дано: f(x) = 0, преобразуем в x = (x). Расчетная ф-ла: x(n+1) = (x(n)).

Т. Достаточное условие сход.: f(x) = 0,  x = (x), [a, b] – отрезок локализации корня х. Тогда, если (х)  с1[a, b], и '(х)  q  1 тогда х(0)  [a, b] метод сход., и оценка погреш.: x(n) - x qnx(0) - x, x(n) - x (q/(1 – q))x(n-1)x(n). Д. x = (x). x(n) = (x(n-1)). x(n) - x = (x(n-1)) - (x) = '(ξ)(x(n – 1) - x), ξ  [x(n-1), x].x(n) - x qx(n-1) - x …  qnx(0) - x. x(n) - x= (x(n-1)) - (x) = (x(n-1)) – x(n+1) + x(n+1) - (x) = (x(n-1)) – (x(n+1))+ (x(n+1)) - (x) = '(ξ)(x(n-1) – x(n)) + (ξ2)(x(n) - x).x(n) - x qx(n) – x(n-1)+ qx(n) - x ч. т. д.

Критерий окончания итерац. x(n) - x  (q/(1 – q))x(n-1) – x(n)  x(n)x(n-1) (1 – q)/q. Замеч.: когда q  ½, величина (1 - q)/q  1  x(n) – x(n-1) . Сход. со скоростью геометрической прогрессии со знаменателем q

8. МН решения нелинейного уравнения: описание, теорема о сходимости, критерий окончания.

(Метод касательных). Ур-е касат к графику f(x) в точке M(n)(x(n), y(n)): l(x(n)) = f(x(n)) + f '(x(n))(x – x(n)). Ищем x(n + 1): l(x(n + 1)) = 0  x(n + 1) = x(n) – f(x(n))/f '(x(n))расчетная ф-ла.

Т. Условие сходимости. Пусть f(x) дважды дифф. на [a, b]. Тогда  такя -окрестность корня х, что если взять х(0) из нее, то метод сойдется, и оценка погрешности х(n+1) - x  x(n) - x2. Д. Пусть f(x)  с2[0, 1], m = max[a, b]f '(x), M = max[a, b]f ''(x). 1. Запишем f(x) по ф-ле Тейлора: f(x) = f(x(n)) + f '(x(n))(x – x(n)) + (f ''(ξ)/2)(x – x(n))2, где ξ  [a, b]. 2. 0 = f(x(n)) + f '(x(n))(x – x(n)) + (f ''(ξ)/2)(x – x(n))2. 3. 0 = f(x(n)) + f '(x(n))(x(n+1) - x(n)). Вычтем (3) – (2): f '(x(n))(x(n+1) - x(n)) - f '(x(n))(x – x(n)) + (f ''(ξ)/2)(x – x(n))2. Получим: f '(x(n))x(n+1) - x = (f ''(ξ)/2)x(n) - x2. x(n+1) - x  (M/2m)x(n) - x2. Следствия: 1. x(n+1) - x  (q2)n/c, c - const, q = x(0) - x. 2. x(n+1) - x  x(n+1) - x(n) 

Критерий оконч. итерац.: x(n+1) - x(n) . Скорость сход.: со скор. геом. прогр. со знаменателем q2.

9. Сравнение итерационных методов по ск-ти сходимости. Применение МН для случая кратного корня.

МБ: x(n) - x  (b – a)/2n+1 = ((b – a)/2)(1/2)n. МН:x(n+1)- x  (q2)n/c. МПИ x(n) - x  qnx(0) - x cqn. Будем говорить, что итер. проц. сх. со скоростью геом. прогрессии со знаменателем прогрессии q, если справедливо , чтоx(n) - x  cqn, c – const. Все 3 м. сх. по геом. прогрессии: МБ q = ½, МН – q2, МПИ – q.

Мод.МН: x(n + 1) = x(n) – mf(x(n))/f '(x(n)), m – кратность корня, она неизвестна. При m = кратности корня, число итераций метода – минимально.

10. Обусловленность задачи поиска корня, интервал неопределенности.

В реальн. вычисл. $ такая d-окрестность корня х½, в которой знак вычисл. ф-ии f*(x) не совп. со знаком f(x½)из-за погрешности вычисл. Становится невозм. опред… Этот отрезок (х½-d, х½+d) наз. интервал неопределенности. Если [х½-d, х½+d], то f(x) » f(x½) + f '(x)(x - x½) ® D ³ f(x) » f '(x)(x - x½). ½x - x½½£ D/½f '(x½)½, ½x - x½½¬ погрешность результата. Dу £ nDx, n - число обусловлености. Dх £ nD(f*), nD = 1/½f '(x)½. Из этой оценки вытекает, что задача вычисления кратного корня явл. зад. вычисл. плохо обусловленного значения

11. Нормы векторов и матриц.

В пространстве Rn введена норма, если каждому вектору Х, сопост. вещ. число – норма х ® ||х||. Св-ва нормы: 1. ||х|| ³ 0 и = 0, когда Х = 0. 2. ||ax|| = ½a½||x||, x, y – векторы, a - число. ||x + y|| £ ||x|| + ||y||. Вектор Х = {x1, x2 … xm}. 3 нормы: 1. ||х||1 = Si=1m½xi½. 2. ||х||e = ÖSi=1mxi2. 3. ||х||¥ = maxi½xi½. Величина ||A|| = maxx¹0||Ax||/||x|| наз. нормой матр. А, подчин. норме векторов, введенных в Rn. Св-ва: 1. ||A|| ³ 0 (= 0, A = 0). 2. ||aA|| = ½a½||A||. 3. ||A + B|| £ ||A|| + ||B||. 4. ||AB|| £ ||A||||B||. 5. ||Ax|| £ ||A||||x||. 3 нормы: 1. ||A||1 = maxjSi=1m½aij½. 2. ||A||e = ÖSi,j=1maij2. 3. ||A||¥ = maxiSj=1m½aij½. Геометрическая интерпритация: норма матр. А - это коэфф. макс. растяжения вект. х под действием матр. А по всем х из Rn кроме х = 0, т. е. kmax = ||A|| = maxx¹0||Ax||/||x||.

12. Обусловленность задачи решения СЛАУ. Числа обусловленности.

Обусл. – чувствит. зад. к погреш. вход. данных. Рассм. сис. Ax* = b*. Т. Dx* £ nDDb*. nD = ||A-1||. dx* £ nddb*. nd = ||A||||A-1||, где dx* = ||x½-x*||/||x½||. Д. Ax½-Ax* = b–b*; x½-x* = A-1(b – b*); ||x–x*||(= Dx*) = ||A-1(b – b*)|| £ ||A-1||(= nD)*||b – b*||(= Db*); ( ||b|| = ||Ax½|| £ ||A||||x½|| умножим на ||x½ - x*|| £ ||A-1||||b – b*|| ) ® ||x½ - x*||||b|| £ ||A||||A-1||||x½||||b – b*||. Получим: ||x½ - x*||/x½ £ ||A||||A-1||*(||b – b*||/||b||) или dx* £ nddb*. Итак, отн. число об. наз. вел.: nd = ||A||||A-1||, ч. т. д. Аналогично м. показать, что dA* = ||A – A*||/||A|| для А*x* = b*; и dx* £ nd(dA* + db*) для А*x* = b*.

14. МГ (схема единственного деления): описание метода, трудоемкость метода.

Прямой ход: m - 1 шагов. k – ый шаг: мастаб коэфф.: mik = aik(k-1)/akk(k-1), i = k + 1, … m. aij(k) = aij(k-1) - mikakj(k-1), i = k + 1, … m; j = k, … m. bi(k) = bi(k-1) - mikbk(k-1). Обратный ход: xm = bm(m-1)/amm(m-1). xk = (1/akk)[bk(k-1) - Sj=k+1makjxi(k-1)]. Трудоемкость метода: 1 шаг: m – 1 деление, (m – 1)2 умножение, (m – 1)2 вычитание. 2 шаг: m – 2 деления, (m – 2)2 умножение, (m – 2)2 вычитание. 3. m – 1 шаг: все по 1 разу. Итого Sk=1m-1k + 2Sk=1m-1k2 » 2m3/3 арифм. действий.

.

15. LU-разложение. Достаточное условие разложимости матрицы. Задачи, решаемые на основе LU-разложения.

Это тоже, как метод Гаусса, но только для самой матрицы А не трогая b. A = LU, L – НТМ, состоящая из масштабир. коэфф. построчно: L = (1, 0, … , 0; m21, 1, 0, …, 0; … ; mm1, mm2, … , mm,m-1, 1). матрица U – ВТМ, то, что остается от А в процессе преобраз. построчно: U = (a11, a12, …, a1m; 0, a21(1), …, a2m(1); 0, 0, …, amm(m-1)). Решение получаем так: Ly = b ® y, Ux = y ® x – ответ. Применимость: Если все главные миноры матр. А ¹ 0, то $ единств. LU-разл. матр. Примен. для реш. систем с разными правыми частями, т. к. LU – разл. требует (2/3)m3 арифм.ю действ., а остальные действия лишь 2m2. Можно вычисл. определитель: detA = (-1)sa11(0)a22(1)…amm(m-1), где s – число потребовавшихся перестановок строк.

16. МГ с выбором главного элемента по столбцу(схема частичного выбора): описание метода, его вычислительная устойчивость.

Условие: ½mik½£ 1. Для этого на каждом (k-ом) шаге метода выбир. макс. по модулю коэфф. из столбца, и меняют строки, чтобы строка с 1-ым макс. кофф. аij попала на первое место. Далее все тоже самое. Это чтобы уменьшить mik, чтобы погрешн.ь нарастала меньше.

17. МХ решения СЛАУ: описание метода, его преимущества.

(метод квадратных корней). Для симметрич. положительноопределенных матриц. Положит. опр. – жначит все собственные числа > 0, в некотор. случ. достат. проверять, что ½aii½ £ Si¹j½aij½. А = LLT. Матрица L имеcет вид: построчно: L = (l11, 0, …, 0; l21, l22, 0, …, 0; lm1, lm2, …, lmm). Вычислим эл-ты матр. LLT и приравняем их к эл-там матр. А. Отсюда их и найднм. Ly = b ® y, LTx = y ® x. Примущ.: трудоемкость » m3/3 + 2m2 арифм. действий, что в 2-ое меньше, чем у Гаусса. Симметрия матр. позволяет компактно хранить и затем замещать элементы аij элементами lij, метод гарантированно устойчив

18. Метод прогонки с 3-хдиагональной матрицей: описание метода, условия его применимости и достоинства.

построчно: (b1, c1, 0, …, 0; a2, b2, c2, 0, …, 0; 0, a3, b3, c3, 0, …, 0; 0, …, 0, am, bm). Правая часть: d1, d2, …, dm. Прямой ход – вычисл. прогоноч. коэфф.: При i = 1: a1 = - с1/b1; b1 = d1/b1. При i = 2, …, m-1; gi = (aiai-1 + bi); ai = - ci/gi; bi = (di - aibi-1)/gi. Обратный ход – вычисл. х: xm = bm = (dm – ambm-1)/(amam-1 + bm); далее: xi = aixi+1 + bi, при i = m-1, m-2, …, 1. Трудоемкость » 8m арифм. действий. Условия применимости: Если ½bk½ ³ ½ak½+½ck½; ½bk½>½ak½. Тогда, gk ¹ 0, т. е. прогонка может быть довед. до конца и . ½ak½ £ 1 – т.е. погрешность не накапливается.

19. МЯ решения СЛАУ: описание, условия сходимости, оценка погрешности.

(вариант метода простой итерации). Ах = b ® x = Bх + c, причем, bij = - aij/aii; ci = bi/aii. Т. Условие сходимости: Пусть Ax = b ® x = Bx + c (1); x(n+1) = Bx(n) + c (2). Если ||B|| < 1, то итер. процесс сход. к корню ур-я и справедл. след. оценки: ||x(n) - x½|| £ ||B||n * ||x(0) - x½|| (3); ||x(n) - x½|| £ (||B||/(1 - ||B||))*||x(n) – x(n-1)|| (4). Д.(3). Имеем системы: x(n+1) = Bx(n) + c и x½ = Bx½ + c, вычтем их: x(n+1) - x½ = Bx(n) - Bx½ = В(x(n) - x½). ||x(n+1) - x½|| = ||В(- x½)|| £ ||В|||| (x(n) - x½)|| £ ||В2|||| (x(n-1) - x½)|| £ £ ||В||n+1 * || (x(n-1) - x½)||. Д.(4). x(n+1) - x½ = В(x(n-1) - x½) = В(x(n-1) - x(n) + x(n) - x½) ® ||x(n+1) - x½|| = ||В(x(n) - x½) + + В(x(n-1) - x(n))|| £ ||В||||(x(n) - x½)|| + ||В||||(x(n-1) - x(n))||. (1 - ||В||)||(x(n) - x½)|| £ ||В||||(x(n-1) - x(n))|| ч.т.д. Из оценки (4) вытекает Критерий окончания итераций: ||(x(n-1) - x(n))|| < e(1 - ||В||)/||B||.

20. МЗ решения СЛАУ: описание, условия сходимости, оценка погрешности. Метод релаксации.

Модиф. метод простой итерации. Найденное на n-ом шаге значения неизвестных x1(n), x2(n) … сразу же вкл. в расчет последующих неизвестных. x(n+1) = B1x(n+1) + B2x(n) + c. В1 – нижняя D матрица, на главной диаг – 0. В2 – верхняя D матрица, на главной диаг – 0. В = В1 + В2. Коэфф. по темже ф-лам, что и в МПИ: bij = - aij/aii; ci = bi/aii. Расчетная ф-ла: xi(n+1) = Si=1i-1bijxj(n+1) + Sj=i+1mbijxj(n) + c1, i = 1, …, m.

Метод релаксации – дальнейшая модификация метода Якоби. В нем, как и в Зейделе, находимые Х используются на этом же шаге, но формула выглядит так: . ω=0..2– коэффициент релаксации.

21. Каноническая форма записи расчетных формул итерационных методов. МПИ с оптимальным выбором параметра.

Ax=b. (x(n+1)x(n))/+Ax(n)=b. Расчетная ф-ла МПИ с оптим. выбором параметра: x(n+1)=x(n)-(Ax(n)b). x(n+1)=(E–A)(= B)x(n)+b. ( x(n+1) = Bx(n) + c ). Для того, чтобы метод сход., надо ||B|| < 1, т. е. ||E - A|| < 1  условие сходимости. = 2/(min + max).  - собственные числа матр. А. Условие сходимости будет выполнено и при   (0, 2/max).

МПИ с оптимальным выбором итерац. параметра. Расчетная ф-ла: х(n+1) = x(n) – (2/m+M)f(x(n)). m и M – min и max f '(x), x  [a, b].

22. Аппроксимация функций по МНК. Постановка задачи. Вывод нормальной системы метода. Выбор степени аппроксимирующего многочлена.

В случае, если: 1. f(x) задана табл. 2. f(x) – вычисл. сложно. Задача: приблизить ф-ию f(x) ф-ией F(x), т. е. f(x)  F(x).  - средеквадр. отклон. должно быть миним. = ((1/(n + 1))i=0n(yiF(xi))2)  min. Приближаем многочленом Рn(x) = a0 + a1x + a2x2 + … + amxm = 0.  = ((1/(n + 1))i=0n(a0 + a1xi + a2xi2 + … + amxim - yi)2)  min. i=0n(a0 + a1xi + a2xi2 + … + amxim - yi)2  min по a0, a1, a2, …, am, т. е. g/a0 = 2i=0n(a0 + a1xi + a2xi2 + … + amxim - yi)*1) = 0; … g/am = 2i=0n(a0 + a1xi + a2xi2 + … + amxim - yi)*xim) = 0; Получаем нормальную систему ур-ий МНК: (i=0nxi0)a0 + (i=0nxi1)a1 + … + (i=0nxim)am = i=0nyi; … ; (i=0nxim)a0 + (i=0nxim+1)a1 + … + (i=0nxi2m)am = i=0nyixim. Система симметрична и плохообусловлена. при m > 5 погрешность – катастрофическая. Из нее нах. a0, a1, a2, …, am. Степень аппр. мн. m выбир. такой, когда ф-ия (m) имеет первый локальный минимум

23. Постановка задачи интерполяции. Т. о существовании и единственности интерполяционного многочлена.

Дана n + 1 точка, построить интерп. мн. степени n, так, чтобы Pn(xi) = yi. Т. интерполяц. многочлен  и единственен. Д. 1. Существование. Рассм. м-н Логранжа: Ln(x) = i=0nyi((xx0)(x-x1)…(x-xi-1)(x-xi+1)…(x-xn)/(xi-x0)(xi-x1)…(xi-xi-1)(xi-xi+1)…(xi-xn)). Ln(x) -  мн-ов n-ой степени, сам он тоже n-ой степени. Ln(xk) = yk, k = 0, 1, …, n. 2. Единственность. Рассм. Pn1, Pn2 – 2 интерп. мн-на n – ой ст. Pn(x) = Pn1 - Pn2. Pn(xk) = 0; k = 0, …, n

24. Многочлен Лагранжа. Оценка погрешности интерполяции.

см. чуть повыше

Погрешность интерп.: Rn(x)=y(x)–Pn(x). T. y(x)cn+1[x0,xn]. Rn(x)(Mn+1/(n+1))!n+1(x), где: Mn+1=max[x0, xn]y(n + 1)(x); n+1(x) = (x – x0)(x - x1)…(x – xn). без. док. maxn+1(x) невелико внутри [x0, xn], а вне быстро растет.

25. Многочлен Ньютона с конечными разностями. Оценка погрешности.

. Применяется, когда сетка равномерна. Составим диаг. таблицу конеч. разностей: строка заголов.: xi; yi; yi; 2yi;… Возьмем интерп. мн. в след. виде: n(x) = a0 + a1(x – x0) + a2(x – x0)(x – x1) + … + an(x – x0)(x – x1)…(x – xn). Условие: n(xi) = yi. (xkxk-1) = h. Рассмотри n(x0) = a0 = y0; n(x1) = … и выведи ф-лу: ak = ky0/(k!hk). Интерп. м-н Н. при интерп. вперед от точки x0: n(x) = y0 + (y0/1!h)(xx0) + … + (ny0/n!hn)(xx0)(xx1)…(xxn). Интер. МН при инт. назад от точки xn: n(x) = yn + (yn-1/1!h)(xx0) + … + (ny0/n!hn)(xx0)(xx1)…(xxn). Оценка погреш.: как для Логранжа Rn(x) (Mn+1/(n+1)!)hn+1. Преимущ.: при добавл. новых узлов надо только добавить новое слагаемое, можно строить от  точки табл.

26. Глобальная и кусочно-полиномиальная интерполяция.

Глоб. – с исп. всех точек. Кусочнополин. – с использованиием части точек, мн-ми невыс. степ. Погрешность: max[x0, xn]f(x) – Pm(x) (Mm+1)/4(n + 1))/hmaxm+1, где m – степень интерп. мн-на, а Mm+1 = max[a, b]f (m+1)(x).  from book. Из тетрадки: R(n)инт (Mn+1/(n+1)!)hn+1.

27. Интерполяция с кратными узлами.

Мы знаем в хi не только значения f(xi), но и f '(xi), … f(k-1)(xi). (xi – узел кратности k), причем для всех точек (i = 0, …, m). Пусть k1 – кратность 1-ого узла, …, km – кратность m-ого узла. n = k0 + … + km.  единственный многочлен ст. n, такой, что Pn(xi) = yi; P'(xi) = y'(x), … до (k – 1) для всех i = 0, …, m. 1. Задан один узел кратности k. Pn(x) = i=0k-1y0(i)(xx0)i/(i!). 2. Заданы несколько точек кратности 2, т. е. мы знаем y(xi) и y'(xi). По каждым двум соседним точкам в этом случае строят мн-н Эрмита: P3(x) = yi-1((xxi)2(2(xxi-1) + hi)/hi3) + yi((xxi-1)2(2(xix) + hi)/hi3) + y'i-1((xxi-1)(xxi)2/hi2) + y'i((xxi-1)2(xxi)/hi2). (локальный сплайн). Погрешность max[x0, x1]f(x) – P3(x) (M4/384)h4, M4 = max[x0, x1]f(4)(x). h = (x1x0).

28. Понятие сплайна. Интерполяционный сплайн степени m. Различные виды граничных условий.

(Гибкая линейка). Условия: 1. Ф-ия Sm(x) и ее произв. до S(p)m(x) вкл. непрер. на [x0, xn]. 2. Значение Sm(x) на [xi-1,xi] представл. собой полином степени m. 3. Sm(xi) = y(xi). Sm(x) – интерп. сплайн. Деффект спл. есть m–p. Рассмотрим кубический сплайн: S3(x) = P3,i(x) = yi-1((xxi)2(2(xxi-1) + hi)/hi3) + yi((xxi-1)2(2(xix) + hi)/hi3) + si-1((xxi-1)(xxi)2/hi2) + s'i((xxi-1)2(xxi)/hi2). Граничные условия: 1. если известны y'(x0), y'(xn), то полагают, что s0 = y'(x0); sn=y'(xn), где si – наклон сплайна, si = S'm(xi). 2. известны y''(x0), y''(xn)  - 4s0/h1 – 2s1/h1 + 6(y1 – y0)/h12 = y''(x0); 2sn-1/hn + 4sn/hn – 6(yn – yn-1)/hn2 = y''(xn). 3. естественный сплайн: y'(x0) = y'(xn) = 0. 4. отсутствие узла. выбор наклонов si производят так, чтобы P3,1(x)=P3,2(x); P3,n-1(x)=P3,n(x). для этого потребуем совпад. соотв. 3-их произв.: P'''3,1(x1) = P'''3,2(x1); P'''3,n-1(xn-1) = P'''3,n(xn-1). 2h1-3(y0 – y1) + h1-2(s0 – s1) = 2h2-3(y1 – y2) + h2-2(s1 + s2), 2hn-1-3(yn-2 – yn-1) + hn-1-2(sn-2 + sn-1) = 2hn-3(yn-1 – yn) + hn-2(sn-1 + sn).

29. Построение линейного и кубического сплайнов. Оценка погрешности приближения функции кубическим сплайном.

Лин. сплайн: yi+((yi+1yi)/(xi+1xi))(xxi), x  [xi, xi+1]. Дефект =1. Куб. сплайн.: S3(x)=P3,i(x)=yi-1((xxi)2(2(xxi-1)+hi)/hi3)+yi((xxi-1)2(2(xix)+ hi)/hi3) + si-1((xxi-1)(x - xi)2/hi2) + s'i((xxi-1)2(xxi)/hi2). Необходимо, чтобы P''3,i(xi) = P''3,i+1(xi), i = 1, 2, …, n – 1. P''3,i(xi) = 2si-1/hi + 4si/hi – 6(yi – yi-1)/hi2; P''3,i+1(xi) = - 4si/hi+1 – 2si+1/hi+1 + 6(yi+1 – yi)/hi+12. Эти рав-ва приводят к системе ур-ий отн. si: hi-1si-1+2(hi-1+hi+1-1)si+hi+1-1si+1 = 3[hi-2(yi – yi-1) + hi+1-2(yi+1 – yi)]. Дополняя условиями s0 = y'(x0); sn = y'(xn) получаем фундаментальный кубич. сплайн. Погрешность кубич. сплайна: y(x) – S3(x)  cM4hmax4, M4 = max[x0, xn]y(4)(x).

31. Унимодальные ф-ии.

Ф-ия f(x) наз. унимодальной, если x1  x2, то f(x1)  f(x2) при x1, x2  x, а если x1  x2, то f(x1)  f(x2) при x1, x2  x. (аналогично, ф-ия унимодальна, если для всех х  [a, b] f''(x)  0, то ф-ия унимод. на [a, b]. Поиск min: 1. нахождение отрезков унимодальности f(x). 2. Нах. т. мин. с заданной точностью. Необх. условие: y(x)  c2[a, b]; y'(x) = 0; y''(x)  0. Утв.: Если f(x) – унимод. на [a, b] и если    и выполнены условия f()  f(), тогда х  [a, ], если f()  f(), тогда х  [, b]. Утв.2. Если f(x) – унимод. на [a, b], то также унимодальна на любом [, ]  [a, b].

32. Решение задачи одномерной минимизации методом деления отрезка пополам. Алгоритм и оценка погрешности.

Утв.: Если f(x) – унимод. на [a, b] и если a < b и выполнены условия f(a) < f(b), тогда х½ Î [a, b], если f(a) > f(b), тогда х½ Î [a, b]. Утв.2. Если f(x) – унимод. на [a, b], то также унимодальна на любом [a, b] Ì [a, b]. На каждом шаге метода вычисл. 2 значения: a(k) = (a(k) + b(k))/2 - d. b(k) = (a(k) + b(k))/2 + d. d - параметр метода, причем 0 <d< (b – a)/2. Условие выбора новых границ: Если f(a(0)) £ f(b(0)), то [a(1), b(1)] = [a(0), b(0)]; а если f(a(0)) > f(b(0)), то [a(1), b(1)] = [a(0), b(0)]. D(n) = b(n) – a(n) = (D - 2d)/2n + 2d. limn®¥D(n) = 2d. ® d < e/2.

33. Решение задачи одномерной минимизации методом золотого сечения. Алгоритм и оценка погрешности.

ЗС отрезка наз деление на 2 наравные части, так, что D/D1 = D1/D2. D - длина всего отрезка. a(k) = а(k) + (2/(3 + Ö5))(b(k)a(k)); b(k) = a(k) + (2/(1 + Ö5))(b(k)a(k)). Точка a осущ. золотое сечение не только отр. [a, b] но и отрезка [a, b]. a(k) или b(k) совпадают с предыд. знач. a(k-1) или b(k-1). Поэт. в отличие от деления на 2, необх. вычисл. только одно недостающ. знач. ф-ии. Далее выбирают так: если f(a(k)) £ f(b(k)), то [a(k+1), b(k+1)] = [a(k), b(k)], если же f(a(k)) > f(b(k)), то [a(k+1), b(k+1)] = [a(k), b(k)]. Погрешн.: ½x½-x(n)½£(2/(1 + Ö5))n+1D, D = ba. n – число итераций.

34. Решение задачи одномерной минимизации методом Фибоначчи. Алгоритм и оценка погрешности.

Числа Фибоначи: Fn = Fn-1 + Fn-2, (n ³ 2). (1, 2, 3, 5, 8, 13, …). a(k) = (FN-k-1/FN-k+1)(b(k) – a(k)); b(k) = a(k) + (FN-k/FN-k+1)(b(k) – a(k)). a(k) или b(k) совпадают с пердыд. знач. a(k-1) или b(k-1). Поэт. в отличие от деления на 2, необх. вычисл. только одно недостающ. знач. ф-ии. Новый отрезок локализации опред. по прафилу: если f(a(k)) £ f(b(k)), то [a(k+1), b(k+1)] = [a(k), b(k)], если же f(a(k)) > f(b(k)), то [a(k+1), b(k+1)] = [a(k), b(k)]. Погрешн.:½x½ - x(N-1)½ £ D/FN+1, D = ba. N – число итераций

35. МН поиска минимума для задачи одномерной минимизации. Трудности применения.

Условие: f(x) Î c2[a, b]. Если х½ - точка мин., то f '(x) = 0, f ''(x) ­. Хочем: x(n) » x½.Возьмем за р – направление спуска. f(x(n) + p) = f(x(n)) + (f '(x(n))/1!)p + (f''(x(n))/2!)p2 + … f(x(n) + p) » q(p) = f(x(n)) + (f '(x(n))/1!)p + (f ''(x(n))/2!)p2. q(p) – парабола. q(p) – мин. по р. ® dq/dp = f '(x(n)) + f ''(x(n))p = 0. Условие экстр.: p = - f '(x(n))/f ''(x(n)) ® x(n+1) = x(n) + p = x(n) - f '(x(n))/f ''(x(n)) ® x(n+1) = x(n) - f '(x(n))/f ''(x(n)) ¬ расчетная ф-ла. Метод облад. локальной сходимостью. Вблизи x½ сход. квадратично. Критерий окончания: ½x(n) - x(n-1)½ < e.