Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
informatika (2).docx
Скачиваний:
49
Добавлен:
16.04.2015
Размер:
653.64 Кб
Скачать
  1. где 1-наибольшое собств значение симметричной матрицы AA, являющейся произведением транспонированной и исходной матриц. Т к матрица AA симметричная, то все ее собственные значения вещественны и положительны. Число  -собств значение, а ненулевой вектор x – собственный вектор матрицы A(если они связаны между собой соотношением Ax=x). Если же матрица A сама является симметричной, A = A, то AA = A2 и тогда 1 = , где- наибольшее по модулю собственное значение матрицыA. Следовательно, в этом случае мы имеем =.

  2. Собственные числа матрицы не превышают любой из ее согласованных норм. Нормируя определяющее собственные числа соотношение, получим ||λx||=||Ax||, |λ|·||x||=||Ax||||A||·||x||, |λ|||A||

  3. Поскольку справедливо ||A||2||A||e, где евклидова норма вычисляется просто, в оценках вместо спектральной нормы можно использовать евклидову норму матрицы.

  4. 30.Обусловленность систем уравнений. Коэффициент обусловленности.

  5. Степень обусловленности - влияние решения на исходные данные. Ax = b : вектору b соответствует решение x. Пусть b изменится на величину . Тогда векторуb+ будет соответствовать новое решение x+:A(x+) =b+. Так как система линейна, то Ax + A = b+, тогда A = ; = ; =;b = Ax; =тогда;*, где- относительная погрешность возмущения решения,коэффициент обусловленности cond(A) (во сколько раз может возрасти погрешность решения), – относительное возмущение вектораb. cond(A) = ; cond(A)* Свойства коэффициента: зависит от выбора нормы матрицы; cond(=cond(A); умножение матрицы на число не влияет на коэффициент обусловленности. Чем больше коэффициент, тем сильнее сказывается на решении СЛАУ ошибка в исходных данных. Число обусловленности не может быть меньше 1.

  6. 31. Метод прогонки для решения систем линейных алгебраических уравнений.

  7. Часто возникает необходимость в решении систем, матрицы которых, являясь слабозаполненными, т.е. содержащими много ненулевых элементов. Матрицы таких систем обычно имеют определенную структуру, среди которых выделяют системы с матрицами ленточной структуры, т.е. в них ненулевые элементы располагаются на главной диагонали и на нескольких побочных диагоналях. Для решения систем с ленточными матрицами метод Гаусса можно трансформировать в более эффективные методы. Рассмотрим наиболее простой случай ленточных систем, к которым, как мы увидим впоследствии, сводится решение задач дискретизации краевых задач для дифференциальных уравнений методами конечных разностей, конечных элементов и др. Трёх диагональной матрицей называется такая матрица, у которой ненулевые элементы стоят только на главной диагонали и соседних с ней:

  8. У трёх диагональной матрицы ненулевых элементов всего (3n-2).

  9. Переобозначим коэффициенты матрицы:

  10. .

  11. Тогда в покомпонентной записи систему можно представить в виде:

  12. ai * xi-1 + bi * xi + ci * xi+1 = di , i1, 2,…, n; (7)

  13. a1=0, cn=0. (8)

  14. Структура системы предполагает взаимосвязь только между соседними неизвестными:

  15. xi=i *xi+1+i (9)

  16. Уменьшим в представлении (9) индекс на единицу:

  17. xi-1=i-1*xi + i-1 и подставим в (7):

  18. ai(i-1*xi + i-1)+ bi * xi + ci * xi+1 = di

  19. (ai *i-1 + bi )xi = –ci * xi+1 +di –ai * i-1

  20. Сравнивая полученное выражение с представлением (7), получаем:

  21. (10)­

  22. Формулы (10) представляют рекуррентные соотношения для вычисления коэффициентов прогонки. Они требуют задания начальных значений. В соответствии с первым условием (8) для i =1 имеем a1=0, а значит

  23. , .

  24. Далее вычисляются и сохраняются остальные прогоночные коэффициенты по формулам (10) для i=2,3,…, n, причем при i=n, с учетом второго условия (8), получаем n=0. Следовательно, в соответствии с формулой (9) xn = n.

  25. После чего по формуле (9) последовательно находятся неизвестные xn-1, xn-2, …, x1. Этот этап расчета называется обратным ходом, в то время как вычисление прогоночных коэффициентов называется прямым ходом прогонки.

  26. Для успешного применения метода прогонки нужно, чтобы в процессе вычислений не возникало ситуаций с делением на нуль, а при большой размерности систем не должно быть быстрого роста погрешностей округления. Будем называть прогонку корректной, если знаменатель прогоночных коэффициентов (10) не обращается в ноль, и устойчивой, если i<1 при всех i=1,2,…, n. Достаточные условия корректности и устойчивости прогонки, которые во многих приложениях выполняются, определяются теоремой.

  27. Теорема. Пусть коэффициенты ai и ci уравнения (7) при i=2,3,..., n-1 отличны от нуля и пусть

  28. bi>ai+ci при i=1, 2,..., n. (11)

  29. Тогда прогонка, определяемая формулами (10), (9) корректна и устойчива.

  30. 32. Метод простой итерации для решения систем линейных алгебраических уравнений

  31. Альтернативой прямым методам решения СЛАУ являются итерационные методы, основанные на многократном уточнении , заданного приближенного решения системы. Верхним индексом в скобках здесь и далее по тексту обозначается номер итерации (совокупности повторяющихся действий).

  32. Как уже было сказано, в итерационных методах определяется не само решение задачи Ax=b, а некоторая последовательность векторов x(k) (k - номер итерации), такая, что она стремится к ветору решения при k. Чтобы построить такую последовательность, надо прежде всего исходную систему Ax=b преобразовать к виду

  33. x=Bx+f. (12)

  34. Сделать это можно различными способами. Самый простой и распространенный – это выражение каждого диагонального неизвестного из соответствующего по номеру уравнения системы:

  35. т.е. преобразованные матрица B и вектор f имеют вид

  36. , f=.

  37. Задаваясь начальным приближением – вектором x(0)=(x1(0), x1(0),…., x1(0),), получаем

  38. (13)

  39. Такая формула вычисления приближений определяет метод простой итерации – МПИ. Основной вопрос – будет ли последовательность векторов x(k) сходится к решению системы линейных уравнений. Итерации прерываются при выполнении условиягде— заданная точность, которую необходимо достигнуть при решении задачи.

  40. 33.Сходимость последовательности векторов и матричной прогрессии

  41. (1) Сущ. сходимость по элементам и сходимость по нормам.

  42. Вектор наз. пределом последовательности векторов (1), если сущ. каждый изn числовых пределов i=1,2…..n и ,….- числовая последовательность(предел) Последовательность векторов (1) сходится к векторупо норме,если предел=0

  43. В конечномерном пространстве сходимость по норме эквивалентна сходимости по компонентам.

  44. Лемма Неймана. Условие, что все собственные числа матрицы<1 |– необходимо и достаточно для того, чтобы:и Е+B++……++…..=(Е-В)^(-1)(обратная матрица.

  45. Лемма 2 Если норма ||B||< = q<1, то матрица (Е-B) имеет обратную, такую что Е+B++……++…..=(Е-В)^(-1), причем || (Е-В)^(-1)||< =1/1-q V= Е+B++……++….

  46. ||V||=||…||< =||E||+||B||+||||+||+…+||+||||+…<||E||+||B||+||||+||+…+||+||||<1+q+q^2+…q^n+…+1/1-q

  47. ||V||<=1/1-q

  48. 34.Сходимость Метода Простых Итераций для решения систем линейных уравнений.

  49. Сходимость последовательности векторов x(0), x(1),…., x(k),…, определяют двумя способами: по компонентам и по норме.

  50. Определение 1. Вектор x=(x1, x2,…., xn,) называется пределом этой последовательности векторов, если существует каждый из n числовых пределов Определенная таким образом сходимость называется сходимостью по компонентам.Определение 2. Последовательность векторов сходится к вектору x по норме, если .

  51. Сходимость по норме более общая, так как не зависит от того, будет ли векторное пространство конечной или бесконечной размерности. Если размерность имеет конечное значение n, то сходимость по норме и сходимость по компонентам равносильны (т.е. из одной следует другая). Сходимость по норме во многих случаях более удобна, чем сходимость по компонентам.

  52. Все эти рассуждения распространяются и на последовательность матриц B(0), B(1), …, B(k), …, однако здесь нас будет интересовать последовательность степеней матриц E, B, B2, …, Bk, …, называемая матричной геометрической прогрессией.

  53. Лемма Неймана. Условие, что все собственные числа матрицы<1 |– необходимо и достаточно для того, чтобы:и Е+B++……++…..=(Е-В)^(-1)(обратная матрица.

  54. Лемма 2 Если норма ||B||< = q<1, то матрица (Е-B) имеет обратную, такую что Е+B++……++…..=(Е-В)^(-1), причем || (Е-В)^(-1)||< =1/1-q V= Е+B++……++….

  55. ||V||=||…||< =||E||+||B||+||||+||+…+||+||||+…<||E||+||B||+||||+||+…+||+||||<1+q+q^2+…q^n+…+1/1-q

  56. ||V||<=1/1-q

  57. Теорема 1 сходимости МПИ). Необходимым и достаточным условием сходимости МПИ при любом начальном векторе x(0) к решению x* СЛАУ x=Bx+f является требование, чтобы все собственные значения матрицы B по модулю были меньше единицы.

  58. Докажем только достаточность.

  59. Пусть собственные значения матрицы B по модулю были меньше единицы

  60. maxi(B)<1, i=1,2,…, n. По лемме 1 имеем Bk при k, а также E + B + B2 + … + Bk + …= (E+B)-1.

  61. Применяя последовательно формулу МПИ для вычисления приближений:

  62. x(1)=Bx(0)+f,

  63. x(2)=Bx(1)+f=B(Bx(0)+f)+f=B2x(0)+(E+B)f,

  64. . . . . . . . . . .

  65. x(k+1)=Bk+1x(0) + (E + B + B2 + … + Bk)f.

  66. 0 ()

  67. Правая часть последнего выражения при любом x(0) и равна (E-B)-1f, т.е. в пределе .

  68. Представим исходную систему x=Bx+f в виде (E-B)x=f и подставим x*: (E-B)(E-B)-1f=f.

  69. Получается, что x* действительно является решением системы уравнений.

  70. Достаточность доказана.

  71. Вспоминая соотношение между собственными значениями и нормами матриц, можно сформулировать достаточный признак устойчивости: Для сходимости МПИ достаточно, чтобы какая-либо норма матрицы B была меньше единицы.

  72. Некоторые квадратные матрицы обладают свойством, называемым диагональным преобладанием. Это означает, что диагональные элементы по модулю больше суммы модулей всех остальных элемнтов в данной строке:

  73. Для изложенного способа преобразования системы к итерационному виду справедливо утверждение: в случае диагонального преобладания в исходной матрице A метод простой итерации сходится.

  74. 35.Оценки погрешности метода простой итерации для решения систем линейных алгебраических уравнений.

  75. Теорема о погрешностях. Пусть q 1, тогда справедливы оценки(1) - апостериорная («после»). (2) – априорная («до»). Док-во: =B+f

  76. = B+f вычитаем нижнее из верхнего -=B - B = B(-);=*q*;q*(**); так как q<1, то разности приближений и 0.=+…++(заменим каждую норму разности, используя(**)) q*+*+…+*=q*(1+q+…+)* =q* .Устремим m к , фиксируя «k». Тогда ,0, в результате чего получится соотношение(1). По соотношению (**) q*;.

  77. 36.Метод Зейделя для решения систем линейных алгебраических уравнений.

  78. При вычислении очередного (k+1)-го приближения в МПИ в правую часть расчетной формулы (13) подставляется предыдущее, k-ое приближение, т.е. вектор x(k), все компоненты которого имеют одинаковый итерационный индекс: (x1(k), x2(k),…, xn(k)). Однако элементы вектора вычисляются последовательно, поэтому , например, при вычислении x2(k+1) уже вычислен x1(k+1) в новом приближении. Метод, в котором для подсчета i-ой компоненты (k+1)-ого приближения используются уже найденные на этом, т.е. (k+1)-м шаге, новые значения первых i-1 компонент, называется методом Зейделя. Если приведение системы к итерационному виду сделано как это описано в предыдущем параграфе, то расчетная формула для элементов решения

  79. , i=1,2,…, n.

  80. В развернутом виде метод Зейделя определяется системой равенств:

  81. x1(k+1) = (b1-a12x2(k)-a13x3(k)-…-a1nxn(k))/a11,

  82. x2(k+1 )= (b2-a21x1(k+1)-a23x3(k)-…-a2nxn(k))/a22,

  83. ……………………………………………

  84. xn(k+1) = (bn-an1x1(k+1)-an2x2(k+1)-…-an,n-1xn-1(k+21))/ann.

  85. В сравнении с МПИ метод Зейделя сходится быстрее. Кроме того, при его реализации на компьютере не нужен отдельный массив для хранения нового приближения. Вычисленные компоненты нового вектора x(k+1) заносятся на место соответствующих компонент старого вектора x(k), в этой связи метод Зейделя называют методом последовательных смещений. В МПИ нужно целиком сохранять массив значений x(k), подставляемый в правую часть расчетной формулы (13), до тех пор, пока не сформирован полностью новый массив x(k+1) – результат текущего итерационного шага. Поэтому МПИ называют методом одновременных смещений.

  86. Достаточные условия метода Зейделя такие же как и для МПИ.

  87. Процесс итераций продолжаем до тех пор, пока значения xi(k+1) (i=1,2,…,n) не станут близким к значениям xi(k) с заданной погрешностью .

  88. 37. Приведение метода Зейделя к методу простой итерации.

  89. Дана СЛАУ:

  90. Матричная форма:

  91. Смотрим на первый этап итерационных методов – он предполагает преобразование исходной системы, а именно матрицы А и вектора b к итерационной форме, где С и d – итерационные формы исходных данных.

  92. Переход к итерационному виду осуществляется по следующим формулам:

  93. cij = -aij/aii     di= bi/aii , где i, j = 1,2,3…

  94. Также следует отметить, что, несмотря на эти формулы, диагональные элементы новой матрицы обнуляются, хотя должны быть равны -1.

  95. В итоге для нашей системы должно получиться:

  96. Это "НО" заключается в следующем. Если мы будем преобразовывать исходную систему к итерационной форме, то она не удовлетворит условию сходимости:

  97. Некоторые элементы матрицы C будут больше единицы. А глядя на условие сходимости, становится понятно, что, если хотя бы один будет больше единицы, то условие не выполнится, и решение системы путем простых итераций не будет найдено.

  98. Поэтому открываем учебник по линейной алгебре и вспоминаем элементарные матричные преобразования! Прежде чем следовать этапам итерационных методов, нужно привести исходную систему к виду, в котором все диагональные элементы были бы максимальными по модулю в своих строках. Только при таком виде матрицы коэффициентов можно надеется на выполнение условия сходимости.

  99. Смотрим нашу начальную систему. Видим, что третий элемент третьей строки по модулю больше других. Оставим его неизменным. Меняем местами первую и вторую строки. Теперь умножаем строку, ставшую первой, на -1 и складываем с новой второй. В итоге получаем:

  100. Теперь при подстановке в формулы мы получим итерационную форму верно. К сожалению, это преобразование начальной системы к "благоприятному" виду - чистая аналитика, поэтому записать его в программный код очень сложно, а если даже и попытаться, то в некоторых случаях вероятно возникновение ошибок.

  101. Переходим ко второму этапу: "Проверка условия сходимости" (формулу смотрите выше). Если система не проходит проверку, то приближения не будут сходиться к реальному решению, и ответ получен не будет. В этом случае можно попытаться получить другую "благоприятную" форму. Если условие сходимости выполнено, то стратегия метода простых итераций применима и осуществляется переход к третьему этапу.

  102. В конечном счете, мы получили систему линейных алгебраических уравнений в итерационной форме:

  103. где x1, x2, x3 – приближения, получаемые на текущей итерации за счет приближений полученных на предыдущей итерации - x01, x02, x03.

  104. Итерационный процесс в методе простых итераций идет до тех пор, пока вектор приближений не достигнет заданной точности, т.е. пока не выполнится условие выхода:

  105. Max|xi-x0i|<ε, где ε – требуемая точность.

  106. 38. Метод последовательной внешней (верхней) релаксации

  107. Рассмотрим одно обобщение метода Зейделя, позволяющее иногда в несколько раз ускорить сходимость итерационной последовательности. Пусть zi(k) – обозначение i-й компоненты k-го приближения к решению системы (1) по методу Зейделя, а обозначение xi(k) будем использовать для i-й компоненты k-го приближения новым методом. Этот метод определим равенством

  108. xi(k+1)=xi(k)+ω(zi(k+1)- xi(k)), (17)

  109. где i=1,2,…,n; k=0,1,2,…; xi(0) – задаваемые начальные значения; ω – числовой параметр, называемый параметром релаксации. Очевидно, при ω=1 метод (3), называемый методом релаксации (ослабления) совпадает с методом Зейделя.

  110. Пользуясь ведёнными здесь обозначениями, запишем на основе метода Зейделя дополнительное к (17) равенство для выражения компонент векторов z(k)=(zi(k))ni=1 через компоненты векторов x(k)= (xi(k))ni=1:

  111. , i=1,2,…, n. (18)

  112. Таким образом, метод релаксации можно понимать как поочерёдное применение формул (3) и (4) при каждом k=0,1,2,…. Действительно, задав начальные значения x1(0), x2(0),…,xn(0) и параметр ω, при k=0, полагая i=1,2,…,n, вычислим z1(1),x1(1); z2(1),x2(1); …; zn(1),xn(1). Далее вычисляем при k=1, также полагая i=1,2,…,n: z1(2),x1(2); z2(2),x2(2); …; zn(2),xn(2), т.д.

  113. Теорема о сходимости метода релаксации (теорема Островского-Рейча).

  114. Для нормальной системы Ax=b метод релаксации, определяемый формулами (17), (18), сходится при любом х(0) и любом ωε(0;2).

  115. Система Ax=b называется нормальной, если матрица А – симметричная (A=A) и положительно определённая ((Ax,x)>0 для любого x0). Поскольку итерационный процесс (17), (18) содержит параметр, естественно распорядится им так, чтобы сходимость последовательности (х(k)) была наиболее быстрой. Исследование показывает, что оптимальное значение параметра релаксации лежит в интервале ωε(1;2). При этом метод (17),(18) называют методом последовательной верхней релаксации (ПВР). Ввиду неэффективности метода при ωε(0;1), называемого в этом случае методом нижней релаксации, название метод ПВР в последнее время относят ко всему семейству методов (17),(18), т.е. для любых ωε(0;2). При этом случай ωε(1;2) называют сверхрелаксацией.

  116. 39.Постановка задачи интерполирования.

  117. Точки совпадений-узлы интерполяций.(Xo,X1,Xn) Условия интерполяции )=f, i=0,1…n(бесконечное множество решений, узлы совпадают)

  118. Класс интерполяционной функции должен быть сужен.

  119. Класс ):ɸ, f(x)єF

  120. Чтоб сузить:

  121. 1.Вводим базисные функции-

  122. 2. Составляем линейную сумму- )==(ее ищем)

  123. 3.Ищем и тд, спользуя уловие интерполяции.

  124. Подставим в У.И.:

  125. …………………………………………………..

  126. Система совместна(неоднородная). правые не все нулевые. det ненулевой.

  127. 4.Составим определитель :

  128. …………………………

  129. Узлы должны быть разными.

  130. Свойствабазисных функций:

  131. 1.Система бызисных функций является системой Чебышева.

  132. 2.Условие на класс фи: условие полноты(в это классе нет дырок). Это означает, что для любой f(x) найдутся такие коэффициентыи такое «n», что для любогоƐ>0, вып. условие |f(x)-< Ɛ для сущ. иксов, принадлежащих промежутку.

  133. 40.Алгебраическое интерполирование

  134. Начнем с рассмотрения задачи интерполяции в наиболее простом и хорошо исследованном случае интерполирования алгебраическими многочленами. Для заданной таблицы (1) многочлен Pn(x)=a0+a1x+a2x2+… +anxn степени n называется интерполяционным многочленом, если он удовлетворяет условиям (2):

  135. Pn(xi)=yi, i= 0, 1, …, n. (7)

  136. Равенства (7) можно записать в виде системы уравнений:

  137. a0+a1x0+a2x02+… +anx0n= y0,

  138. a0+a1x1+a2x12+… +anx1n= y1, (8)

  139. ……………………………………………….

  140. a0+a1xn+a2xn2+… +anxnn= yn

  141. относительно коэффициентов многочлена. Эта система однозначно разрешима, так как система функций 1, x, x2,…,xn линейно независима. Однозначная разрешимость системы следует и из того хорошо известного факта, что определитель этой системы - определитель Вандермонда:

  142. 1 x0 x02 … x0n

  143. 1 x1 x12 … x1n

  144. Dn(x0, x1,…, xn) = ………….…

  145. 1 xn xn2 … xnn

  146. отличен от нуля, если узлы интерполяции попарно различны. Таким образом, существует единственный интерполяционный многочлен степени n, удовлетворяющий условиям (7). В курсе математического анализа доказывается теорема Вейерштрасса: если функция f непрерывна на конечном замкнутом отрезке [a,b], то для всякого >0 существует многочлен Pm некоторой степени m, для которого при любых x[a,b] выполняется неравенство f(x)-Pm(x).

  147. Иначе говоря, для любого конечного замкнутого отрезка семейство алгебраических многочленов является полным в классе непрерывных на этом отрезке функций. Этот факт позволяет ожидать, что при надлежащем выборе узлов и их числа n непрерывную на [a,b] функцию можно на этом отрезке интерполировать сколь угодно точно алгебраическим многочленом.

  148. На практике система (8) редко используется для вычисления коэффициентов интерполяционного многочлена ak, так как в большинстве приложений они просто не нужны. Кроме того, при n>4 система (8) становится плохо обусловленной. Существуют различные удобные явные формы записи интерполяционного многочлена, которые и применяются на практике.

  149. 41.Интерполяционный полином в форме Лагранжа.

  150. Ln(xi) = l0(x)*f(x0) + l1(x)*f(x1) +…+ ln(x)*f(xn). l0(x0) = 1; l0(x1) = 0 li() =

  151. li(x) = C*(x-x0)(x-x1)*…*(x-(x-)*…*(x-xn); где С=const - находится из условия x = xi.

  152. li(xi) = 1; li(xi) = C(xi – x0)……(xi – xn) = 1; C =

  153. li(x) = =- развернутая форма полинома Лагранжа. .

  154. 42.Свернутая форма полинома Лагранжа.

  155. Введем в рассмотрение полином w(x)=(x-x0) (x-x1)…(x-xn) полином (n+1) –ой степени. Числитель в i: w(x)/(x-xi)

  156. w(x) = (x-x1)…(x-xn)+(x-x0)(x-x2)…(x-xn)+…(x-x­i+1)(x-x­i-1)…(x-x­0) +(x-x0)…(x-x­n-1­).

  157. Ln(x)=

  158. 43. Погрешность алгебраического интерполирования.

  159. Оценку погрешности интерполяции функции f(x) дифференцируемой n+1 раз на отрезке [a,b], содержащем узлы интерполяции xi (i= 0,1, n) удобно выполнить, используя выражение:

  160. R n(x)=f(x)-Pn(x)[M n+1/n+1!]n+1(x) (12)

  161. как следствие из теореме о погрешности

  162. Обратим внимание на одну из интерполяционных задач, связанных с построенными представлениями Rn. Пусть нужно выполнить интерполирование функции во всех точках отрезка [a,b]. Погрешность его зависит от выбора узлов xi, точки х и свойств функции f. Если интерполируется одна определенная функция f, то точность интерполирования характеризуется величиной maxRn(x). Когда мы интерполируем не одну функцию f, а некоторое множество функций f, то точность может быть оценена величиной sup maxRn(x)=m=m (x0, x1, …, xn). (13)

  163. Эта величина зависит только от выбора узлов хi (i=0,1, …, n).

  164. Поставим задачу о выборе узлов xi, которые можно было бы считать наилучшими при интерполировании всех функций f на [a,b] из взятого множества. Такими узлами естественно считать те, для которых величина m(x0, x1,…,x n) достигает наименьшего значения. Найдем такие узлы для множества всех функций с непрерывной производной порядка n+1 на [а,b]. Изменим на время эту задачу и рассмотрим функции f, для которых при некотором произвольно взятом положительном M выполняется неравенство

  165. f(n+1)(x) M. (14)

  166. Для таких функций погрешность Rn(x) может быть оценена следующим неравенством, которое сразу вытекает из (11):

  167. maxRn(x) [M/(n+1!)]max(x).

  168. Эта оценка является не улучшаемой, так как в ней имеет место знак равенства, когда f есть следующий многочлен степени n+1:

  169. f=[M/(n+1)!](x n+1+c1xn+…)

  170. и, следовательно,

  171. sup maxRn(x)=[M/(n+1)!]max(x). (15)

  172. Первый множитель правой части (15) не зависит от выбора узлов хi, и поэтому наилучшими узлами при интерполировании функций f, удовлетворяющих условию (14), нужно признать те хi, для которых

  173. max(x)=min. (16)

  174. Это заключение верно при всяких М в неравенстве (14). Можно поэтому утверждать, что такие узлы будут наилучшими при интерполировании всяких функций f с непрерывной производной порядка n+1 на [а,b].

  175. 44.Интерполирование сплайнами

  176. Интерполяционные формулы Лагранжа, Ньютона и Стирлинга и др. при использовании большого числа узлов интерполяции на всем отрезке [a, b] часто приводят к плохому приближению из-за накопления погрешностей в процессе вычислений [2]. Кроме того, из-за расходимости процесса интерполяции увеличение числа узлов не обязательно приводит к повышению точности. Для снижения погрешностей весь отрезок [a, b] разбивается на частичные отрезки и на каждом из них функцию f(x) заменяют приближенно полиномом невысокой степени. Это называется кусочно-полиномиальной интерполяцией.

  177. Один из способов интерполирования на всем отрезке [a, b] является интерполирование сплайнами.

  178. Сплайном называется кусочно-полиномиальная функция, определенная на отрезке [a, b] и имеющая на этом отрезке некоторое количество непрерывных производных. Преимущества интерполяции сплайнами по сравнению с обычными методами интерполяции – в сходимости и устойчивости вычислительного процесса.

  179. На практике предпочитают для получения сходящегося интерполяционного процесса использовать кусочно-полиноминальную интерполяцию. Для этого отрезок [а,b] разделяют на части точками и интерполируют не при помощи одного многочлена на всем отрезке [а,b] а для каждого частичного отрезка избирают свои узлы и строят свой интерполирующий многочлен невысокой степени. Однако этот способ приближения имеет недостаток: в точках «стыка» двух соседних многочленов производная, как правило, имеет разрыв. Часто это обстоятельство не играет большой роли. Вместе с тем нередко требуется, чтобы аппроксимирующая функция была гладкой и тогда простейшая кусочно-гладкая интерполяция становиться неприемлемой. Естественна потребность в наличии аппроксимирующих функций, которые сочетали бы в себе локальную простоту многочлена невысокой степени и глобальную на всем отрезке [а,b] гладкость, привела к появлению так называемых гладких сплайн-функций или сплайнов – специальным образом построенных гладких кусочно-многочленных функций.

  180. Дадим строгое определение сплайна. Пусть отрезок [а,b] разбит точками a=x0x1xn=b на n частичных отрезков [xi-1,xi]. Сплайном Sm(x) степени m называется определенная на [a,b] функция, принадлежащая классу Cp[a,b] p

  181. раз непрерывно дифференцируемых функций, такая, что на каждом частичном промежутке [xi-1,xi] i=1,…, n – это многочлен m-ой степени.

  182. Разность d=m-p между степенью сплайна и наивысшим порядком непрерывной на отрезке [а,b] производной называется дефектом сплайна.

  183. Пусть функция y=f(x) задана таблицей своих значений (1). Сплайн Sm(x) называется интерполяционным, если Sm(xi)= y(xi) для всех i= 0, 1,…, n. Значение si= Sm(xi) называется наклоном сплайна в точке xi.

  184. Простейший пример сплайна дает непрерывная кусочно-линейная функция, являющаяся сплайном первой степени (линейным сплайном) с дефектом, равным единице. Действительно на отрезке [а,b] сама функция (нулевая производная) непрерывна. В то же время на каждом частичном отрезке S1(x) совпадает с некоторым многочленом первой степени.

  185. Наиболее широкое распространение на практике получили сплайны S3(x) третьей степени (кубические сплайны) с дефектом, равным 1 или 2. Такие сплайны на каждом из частичных отрезков [xi-1,xi] совпадают с кубическим многочленом. Дадим определение кубического сплайна.

  186. Кубическим сплайном дефекта 1, интерполирующим на отрезке [а,b] данную функцию f(x), называется функция

  187. g(x)={gi(x)=ai+bi(x-xi-1)+ci(x-xi-1)2+d i(x-xi-1)3 при x[xi-1,xi] и i=1, …, n},

  188. удовлетворяющая следующим условиям:

  1. условиям интерполяции - g(xi)=fi, i=0, …, n;

  2. двойной непрерывной дифференцируемостью - g(x)C2[a,b];

  3. краевым условиям.

  1. Краевые условия могут быть весьма разнообразными. Можно задавать в граничных точках конкретные наклоны графика сплайна:

  2. g(x0) = f (a), g(xn) = f (b)

  3. или конкретную кривизну:

  4. g(x0) = f (a), g(xn) = f (b).

  5. Часто задают условия “свободного провисания”:

  6. g(x0) = 0, g(xn) = 0.

  7. Эти условия определяют так называемый естественный кубический сплайн (или чертежный сплайн).

  8. Рассмотрим построение естественного кубического сплайна. Для этого надо найти 4n его коэффициентов { ai, bi, ci, di; i=1,…, n}. Для нахождения этих коэффициентов имеем следующие соотношения:

  1. из условий интерполяции g1(x0)=f0, gi(xi)=fi, i=1,2,…, n; (уравнений (n+1))

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]