- •Е.А. Михайлова, в.А. Михайлова Лабораторный практикум по курсу «вычислительная математика»
- •Предисловие
- •Лабораторная работа № 1 нахождение корня нелинейного уравнения
- •1. Постановка задачи
- •2. Методы решения задачи
- •2.1. Метод деления отpезка пополам
- •2.2. Метод простой итерации.
- •2.3. Метод Ньютона
- •Задание
- •Варианты заданий
- •2. Методы решения системы нелинейных уравнений
- •2.1.Метод простой итерации
- •2.2. Метод Ньютона
- •2. Формулы Ньютона – Котесса
- •2.1. Формулы метода прямоугольников
- •2.2. Формула трапеций
- •2.3. Формула Симпсона (формула парабол)
- •Несобственные интегралы 2-го рода
- •3. Пример
- •2. Методы решения
- •Задание
- •Варианты заданий
- •2. Решить уравнения:
- •Лабораторная работа № 6 краевая задача. Метод стрельбы
- •1. Постановка задачи
- •2. Метод стрельбы
- •Задание
- •Варианты заданий
- •Лабораторная работа № 7 метод наименьших квадратов
- •1. Постановка задачи
- •2. Метод наименьших квадратов
- •3. Пример
- •Задание
- •Варианты заданий
- •Лабораторная работа № 8 системы линейных уравнений
- •1. Постановка задачи
- •Метод прогонки
- •Задание
- •Список рекомендуемой литературы
- •Содержание
- •Лабораторный практикум по курсу «вычислительная математика»
- •4 00062, Г. Волгоград, просп. Университетский, 100.
Задание
Решить краевую задачу методом стрельбы и полученное решение сравнить с аналитическим (если последнее можно найти). Результаты численного интегрирования представьте в виде графиков, которые необходимо строить для всех параметров .
Варианты заданий
1. 2.
3. 4.
5. 6.
7. 8.
9. 10.
11. 12.
13. 14.
Лабораторная работа № 7 метод наименьших квадратов
1. Постановка задачи
Пусть физические величины x и y связаны закономерностью вида
|
|
(1) |
где - известные линейно независимые функции, аk - неизвестные постоянные коэффициенты. Пусть имеется возможность непосредственно измерять прибором величину y при любом x. Задача заключается в определении неизвестных постоянных a1, a2, …, ap. Подобная ситуация часто возникает при косвенных измерениях, когда искомые величины не могут быть измерены прибором непосредственно. Тогда результаты измерений приходится подвергать математической обработке.
2. Метод наименьших квадратов
Один из методов такой обработки — метод наименьших квадратов (МНК). Этот метод позволяет найти не только косвенно измеряемые параметры аk, но и погрешности , как если бы аk измерялись непосредственно. Кроме того, можно строго доказать, что МНК является «лучшим» методом обработки для зависимостей вида (1). Точнее, оценка по МНК оказывается несмещенной и обладает наименьшей дисперсией в классе линейных оценок. Ограничением на применимость МНК является линейность зависимости y от неизвестных коэффициентов аk, при атом зависимость от х может быть нелинейной. Тем не менее, даже при нелинейной зависимости y от аk, МНК применяется. В этом случае можно попытаться найти линеаризующее преобразование. Например, зависимость y = A ехр (bx + сх2) приводится к виду (1), если вместо y рассматривать величину Y = lnу = lnA + bx + сx2. Если же подходящее преобразование найти не удаётся, то задача сводится к нелинейной системе уравнений, которую в принципе можно решить. Однако существование и единственность решения не гарантированы заранее. Кроме того, теряют силу результаты линейного МНК об оценке погрешностей.
Рассмотрим сначала простой случай, когда величина у измеряется абсолютно точно, и каждое измерение дает одну точку на плоскости (x,y) принадлежащую кривой (1). Тогда достаточно проделать p измерений при различных значениях x. Подставляя результаты измерений в (1), получим систему линейных уравнений для аk, решая которую мы определим коэффициенты аk абсолютно точно.
Однако, в большинстве случаев измерения не точны, и точки плоскости (x,y), соответствующие отдельным измерениям, отклоняются от кривой (1) (см. рис. 8). Очевидно, что p измерений здесь будет недостаточно, поскольку через p различных точек на плоскости проходит только одна кривая вида (1), и ее коэффициенты будут отличаться от истинных. Ясно, что, увеличивая количество измерений n (n > p), мы можем получить более точные результаты.
Идея МНК принадлежит, вероятно, Гауссу и заключается в минимизации суммы квадратов отклонений экспериментальных точек от предполагаемой кривой. Пусть при n различных аргументах х1, x2, ...,хn измерения дали значения y1, у2, ..., уn соответственно.
Рассмотрим функцию
|
R(z1 ,z2, ..., zp)= wi (yi - zk fk(xi))2, |
(2) |
где wi > 0 — вес i-го измерения.
Веса необходимо использовать в том случае, когда заранее известно, что случайные отклонения i = yi – f(xi) в среднем различны для разных xi. Такая ситуация возникает, когда объединяются измерения, выполненные приборами разного класса точности. Более точному измерению y, следует приписать больший вес, а именно: wi ~ 1/i2. Знак ~ указывает, что конкретное значение веса произвольно, существенно лишь соотношение между весами. Действительно, одновременное умножение всех весов на любое число приведет к умножению функции R на то же число, при этом положение минимума R не изменится. Поскольку отклонения i, неизвестны, выбор весов wi не может зависеть от yi и должен быть сделан на основе априорной информации 0 точности измерений. При отсутствии априорной информации полагают все wi = 1.
|
Рис.8. Результат обработки экспериментальных данных методом МНК. Сплошная линия - точная зависимость f(х), крестики - экспериментальные точки, пунктирная линия — восстановленная зависимость f(х). |
Положение минимума функции R определяет искомые коэффициенты зависимости (1). Обозначим через b1, b2, ... bр значения переменных {zk}, при которых R минимальна.
В точке минимума выполняются условия:
R/ zm ( b1, b2,...,bP)=0,
m=1,2,... p.
Дифференцируя (2), получаем для bk систему линейных уравнений:
|
Cmk bk = Fm, m=1, 2,..., p |
(3) |
где
|
Cm k = wi fm(xi) fk (xi) , Fm = wi fm(xi) yi, m,k=1, 2,..., p |
(4) |
Решение системы (3) всегда существует и единственно, поскольку ее детерминант отличен от нуля в силу линейной независимости fk(x). Если измерения точны, то i = 0, bk = ak и Rmin = 0. В общем случае bk ak и можно сказать, что оценка bk = аk + Dk состоит из «плавной составляющей» ak и случайной ошибки Dk (сравните: yi = f(xi) + i ). Средние величины погрешностей Dk и i неизвестны, но их также можно оценить через Rmin - остаточную сумму квадратов. Важно понять, что речь идет не о конкретных случайных отклонениях Dk и i, а о средних, наиболее вероятных значениях этих ошибок (строго говоря - о дисперсиях отклонений), которые мы обозначим через Пк и i. Можно показать, что в пределе n>>1
|
D2k=Rmin(C-1) kk /(n-p), k = 1, 2, ..., p, |
(5) |
|
i2 =Rmin/(n-p)щi, i = 1, 2, ..., n, |
(6) |
где (C-1)kk – диагональные элементы матрицы C-1, обратной к матрице Сmk, определенной в (4), и
|
Rmin = R(b1,b2,…,bp )= wi ( yi- bk fk(xi) )2. |
|
Выражения (5-6) определяют 68% доверительные интервалы для аk и f(xi) соответственно. Умножением Dк и i на коэффициент t из таблицы 1.1 можно получить доверительные интервалы с вероятностью :
Таблица 1.1.
|
0.500 |
0.680 |
0.900 |
0.950 |
0.990 |
0.999 |
|
|
|||
t |
0.67 |
1.00 |
1.64 |
1.96 |
2.56 |
3.39 |
|
|
|||
|
|
|
|
|
|
|
|
|
|||
|
|
ak= bk ± t Dk, f(xi) = F(xi) ± t i , |
(7) |
а для произвольного значения x имеем: f(x) = F(x) ± t i (x), где
|
F(x)= bk fk(x), Ei2= Rmin / (n-p) (C-1)km fk(x) fm(x). |
|
Строго говоря, при малом числе измерений n надежность приведенных выше оценок уменьшается. В таких ситуациях вместо таблицы 1.1, отвечающей предельному гауссовскому распределению (n=8), следует пользоваться таблицами распределения Стьюдента, в которых коэффициенты t зависят также от n (точнее, от n-p) и отличаются от приведенных в табл. 1.1 в большую сторону. Это значит, что формулы (5-7) дают при малых n заниженную погрешность. Однако уже при значениях n>20 до 30 различие становится малым, поэтому в дальнейшем будем пользоваться табл. 1.1.