Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЛАБОРАТОРНЫЙ ПРАКТИКУМ.docx
Скачиваний:
7
Добавлен:
09.11.2019
Размер:
1.16 Mб
Скачать

Задание

Решить краевую задачу методом стрельбы и полученное решение сравнить с аналитическим (если последнее можно найти). Результаты численного интегрирования представьте в виде графиков, которые необходимо строить для всех параметров .

Варианты заданий

1. 2.

3. 4.

5. 6.

7. 8.

9. 10.

11. 12.

13. 14.

Лабораторная работа № 7 метод наименьших квадратов

1. Постановка задачи

Пусть физические величины x и y связаны закономерностью вида

(1)

где - известные линейно независимые функции, аk - неизвестные постоянные коэффициенты. Пусть имеется возможность непосредственно измерять прибором величину y при любом x. Задача заключается в определении неизвестных постоянных a1, a2, …, ap. Подобная ситуация часто возникает при косвенных измерениях, когда искомые величины не могут быть измерены прибором непосредственно. Тогда результаты измерений приходится подвергать математической обработке.

2. Метод наименьших квадратов

Один из методов та­кой обработки — метод наименьших квадратов (МНК). Этот метод позволяет найти не только косвенно измеряемые параметры аk, но и погрешно­сти , как если бы аk измерялись непосредственно. Кроме того, можно строго доказать, что МНК является «лучшим» методом обработки для зависимостей вида (1). Точнее, оценка по МНК оказывается несмещенной и обладает наименьшей дисперсией в классе линейных оценок. Ограничением на применимость МНК является линейность зависимости y от неизвестных коэффициентов аk, при атом зависимость от х может быть нелинейной. Тем не менее, даже при нелинейной зависимости y от аk, МНК применяется. В этом случае можно попытаться найти линеаризующее преобразование. Например, зависимость y = A ехр (bx + сх2) приводится к виду (1), если вместо y рассматривать величину Y = lnу = lnA + bx + сx2. Если же подходящее преобразование найти не удаётся, то задача сводится к нелинейной системе уравнений, которую в принципе можно решить. Од­нако существование и единственность решения не гарантированы заранее. Кроме того, теряют силу результаты линейного МНК об оценке погрешностей.

Рассмотрим сначала простой случай, когда величина у измеряется абсолютно точно, и каждое измерение дает одну точку на плоскости (x,y) принадлежащую кривой (1). Тогда достаточно проделать p измерений при различных значениях x. Подставляя результаты измерений в (1), получим систему линейных уравнений для аk, решая которую мы определим коэффициенты аk абсолютно точно.

Однако, в большинстве случаев измерения не точны, и точки плоскости (x,y), соответствующие отдельным измерениям, отклоняются от кривой (1) (см. рис. 8). Очевидно, что p измерений здесь будет недостаточно, поскольку через p различных точек на плоскости проходит только одна кривая вида (1), и ее коэффициенты будут отличаться от истинных. Ясно, что, увеличивая количество измерений n (n > p), мы можем получить более точные результаты.

Идея МНК принадлежит, вероятно, Гауссу и заключается в минимиза­ции суммы квадратов отклонений экспериментальных точек от предполагаемой кривой. Пусть при n различных аргументах х1, x2, ...,хn измере­ния дали значения y1, у2, ..., уn соответственно.

Рассмотрим функцию

R(z1 ,z2, ..., zp)= wi (yi - zk fk(xi))2,

(2)

где wi > 0 — вес i-го измерения.

Веса необходимо использовать в том случае, когда заранее известно, что случайные отклонения i = yif(xi) в среднем различны для разных xi. Такая ситуация возникает, когда объединяются измерения, выполненные приборами разного класса точности. Более точному измерению y, следует приписать больший вес, а именно: wi ~ 1/i2. Знак ~ указывает, что конкретное значение веса произвольно, существенно лишь соотношение между весами. Действительно, одновре­менное умножение всех весов на любое число приведет к умножению функ­ции R на то же число, при этом положение минимума R не изменится. Поскольку отклонения i, неизвестны, выбор весов wi не может зависеть от yi и должен быть сделан на основе априорной информации 0 точности измерений. При отсутствии априорной информации полагают все wi = 1.

Рис.8. Результат обработки экспериментальных данных ме­тодом МНК. Сплошная линия - точная зависимость f(х), кре­стики - экспериментальные точки, пунктирная линия — восстановленная зависимость f(х).


Положение минимума функции R определяет искомые коэффициенты зависимости (1). Обозначим через b1, b2, ... bр значения переменных {zk}, при которых R минимальна.

В точке минимума выполняются условия:

R/ zm ( b1, b2,...,bP)=0,

m=1,2,... p.

Дифференцируя (2), получаем для bk систему линейных уравнений:

Cmk bk = Fm, m=1, 2,..., p

(3)

где

Cm k = wi fm(xi) fk (xi) , Fm = wi fm(xi) yi, m,k=1, 2,..., p

(4)

Решение системы (3) всегда существует и единственно, поскольку ее детерминант отличен от нуля в силу линейной независимости fk(x). Если измерения точны, то i = 0, bk = ak и Rmin = 0. В общем случае bk ak и можно сказать, что оценка bk = аk + Dk состоит из «плавной составляющей» ak и случайной ошибки Dk (сравните: yi = f(xi) + i ). Средние величины погрешностей Dk и i неизвестны, но их также можно оценить через Rmin - остаточную сумму квадратов. Важно понять, что речь идет не о конкретных случайных отклонениях Dk и i, а о средних, наиболее вероятных значениях этих ошибок (строго говоря - о дисперсиях отклонений), которые мы обозначим через Пк и i. Можно показать, что в пределе n>>1

D2k=Rmin(C-1) kk /(n-p), k = 1, 2, ..., p,

(5)

i2 =Rmin/(n-p)щi, i = 1, 2, ..., n,

(6)

где (C-1)kk – диагональные элементы матрицы C-1, обратной к матрице Сmk, определенной в (4), и

Rmin = R(b1,b2,…,bp )= wi ( yi- bk fk(xi) )2.

Выражения (5-6) определяют 68% доверительные интервалы для аk и f(xi) соответственно. Умножением Dк и i на коэффициент t из таблицы 1.1 можно получить доверительные интервалы с вероятностью :

Таблица 1.1.

0.500

0.680

0.900

0.950

0.990

0.999

t

0.67

1.00

1.64

1.96

2.56

3.39

ak= bk ± t Dk, f(xi) = F(xi) ± t i ,

(7)

а для произвольного значения x имеем: f(x) = F(x) ± t i (x), где

F(x)= bk fk(x), Ei2= Rmin / (n-p)  (C-1)km fk(x) fm(x).

Строго говоря, при малом числе измерений n надежность приведенных выше оценок уменьшается. В таких ситуациях вместо таблицы 1.1, отвечающей предельному гауссовскому распределению (n=8), следует пользоваться таблицами распределения Стьюдента, в которых коэффициенты t зависят также от n (точнее, от n-p) и отличаются от приведенных в табл. 1.1 в большую сторону. Это значит, что формулы (5-7) дают при малых n заниженную погрешность. Однако уже при значениях n>20 до 30 различие становится малым, поэтому в дальнейшем будем пользоваться табл. 1.1.