Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Downloads / pdf_in_archive (2) / 1_obrabotka.pdf
Скачиваний:
38
Добавлен:
02.04.2015
Размер:
1.05 Mб
Скачать

Доверительный интервал в котором с доверительной вероятностью P заключено значение Z N равен:

P = tP S

 

N ,

(2.84)

Z

где tP находится из таблиц распределения Стьюдента по вероятности P и числу степеней свободы:

 

 

l

 

 

 

 

f

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

( j)

S nj

 

 

 

 

 

 

x

 

 

 

 

k =

j=1

 

 

 

 

 

 

 

 

 

 

.

(2.85)

 

 

 

 

 

 

f

2

 

 

 

l

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S n4

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

j=1 nj

x ( j)

 

 

j

 

Рассмотрим как пример случай, когда искомая величина пропорциональна произведению измеряемых величин в некоторой

степени:

 

Z = Cx α yβ ,

(2.86)

Smn2 = (αC xmα1 ynβ )2 Sm2 + (β C xmα ynβ 1 )2 Sn2 .

= (Cx mα x nβ )2 ,

Разделив полученную величину на выборочное среднее:

 

mn2

Z

получим для квадрата относительной ошибки величины Z mn :

S mn2

 

2 S m2

2 S n2

 

Z mn2

=α

x m2 + β

yn2 .

(2.87)

2.2.6. Взвешенное среднее значение

На практике часто приходится рассчитывать величины по нескольким выборочным средним, определенным с разной точностью (полученных в разных сериях измерений или с помощью разных методик). Если соответствующие выборочные средние равны x a, x b,, а

выборочные дисперсии соответственно Sa2 , Sb2 ,, то по этим величинам

можно определить так называемое взвешенное среднее, если каждое выборочное среднее умножить на множитель w (называемый весом):

x = wa x a + wb x b +…. (2.88) wa + wb +…

Вес определяет точность каждого выборочного среднего: чем он выше, тем меньше выборочное СТО. Закон сложения ошибок позволяет получить для x дисперсию выборочного среднего. Используя (2.79), найдем:

S

2

=

wa2Sa2

+ wb2Sb2 +…

.

(2.89)

 

(

w

a

b

)

2

 

 

 

 

 

 

 

 

 

 

 

 

+ w

+…

 

 

 

Значения весов должны быть выбраны так, чтобы величина S2 была минимальной. Рассмотрим для простоты два значения wi. Пусть сумма w = wa + wb будет постоянной, тогда можно записать дисперсию в виде:

S 2

 

w2S 2

+ (w w

a

)2 S 2

 

=

 

a

a

 

b

.

(2.90)

 

S 2

w2

 

 

 

 

 

 

 

 

 

 

 

Из условия

 

= 0 следует:

 

 

 

 

 

 

S 2

 

wa

 

 

 

 

 

w

a

 

 

 

 

 

 

 

 

 

 

=

 

b

,

 

 

 

 

(2.91)

 

wb

S a2

 

 

 

 

 

 

 

 

 

 

 

 

 

т. е. веса обратно пропорциональны выборочным дисперсиям. Этот результат справедлив и для случая нескольких выборок. Обычно полагают:

wa :wb: wc:…=

1

:

1

 

:

1

:

Sa2

Sb2

 

Sc2

 

 

 

 

 

 

 

 

 

 

и (2.89) приводится к виду:

 

 

S 2 =

1

 

,

 

 

 

 

 

 

(2.92)

m

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j=1 S 2j

 

 

 

 

 

 

 

где m – число серий; S 2j

– дисперсия выборочного среднего в j-й серии.

Доверительный интервал равен:

P = tP S ,

 

 

 

 

 

 

(2.93)

где tP находится из таблиц распределения Стьюдента при доверительной вероятности P и числе степеней свободы

k =

 

m2

 

 

 

,

(2.94)

m

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

j=1 nj 1

 

где nj – число измерений в j-й серии.

2.3. Сглаживание экспериментальных зависимостей.

 

Метод наименьших квадратов

 

2.3.1. Линейная регрессия

 

 

Важной

задачей

является

нахождение

функциональных

зависимостей между величинами. При этом стараются обычно так

сформулировать задачу, чтобы изучать только две величины, в то время

как остальные переменные остаются постоянными. В эксперименте

получаются пары значений: (x1, y1),(x2 , y2 ),,(x n, yn ) , которые образуют

выборку мощности n из двумерной генеральной совокупности. В общем

случае обе измеряемые величины характеризуются ошибками измерений.

Прежде всего изобразим полученные пары значений в прямоугольной

системе координат. Тогда через экспериментальные точки, как правило,

можно провести гладкую кривую, которая приближенно описывает

результаты. На рис. 15 показаны экспериментальные точки,

группирующиеся вдоль прямой линии. В случае подобных линейных

зависимостей обычно можно достаточно точно провести прямую “на

глаз”. Однако наилучшая из возможных прямых (прямая регрессии)

получается, если использовать объективный метод – так называемый

метод наименьших квадратов Гаусса (МНК).

 

Для простоты будем считать величины x независимыми

переменными, значения которых измерены с пренебрежимо малой

ошибкой. Пусть величина yi, соответствующая значению xi, отклоняется

от истинной величины y(xi) на yi y(x i ) = εi .

 

 

y

 

 

 

 

 

 

 

x

 

Рис. 15. Экспериментальные значения и линия регрессия.

Наилучшей прямой:

y = ax + b

(2.95)

является такая, на которой достигается минимум суммы квадратов отклонений εi:

n

n

 

ε 2i

= ( yi ax i b)2 = S(a, b, n) min .

(2.96)

i=1

i=1

 

Условием минимума является равенство нулю первых частных производных: S a = 0 и S b = 0. Отсюда получим:

n

 

bxi ) = 0,

(xi yi axi2

 

 

 

i=1 n

 

 

( yi axi

b) = 0

 

i=1

 

Решая эту систему уравнений для неизвестных a и b, найдем:

 

n

n

 

n

 

 

 

 

x i yi nx i yi

a =

1

1

 

1

 

,

 

n

2

 

n

 

 

 

 

 

 

 

x i

nx i2

 

1

 

 

1

 

 

 

 

n

n

 

n

n

 

x i x i yi yi x i2

a =

1

1

 

1

1

.

 

 

 

2

 

 

n

 

n

 

x i

 

nx i2

 

1

 

 

1

 

 

Построим среднее арифметическое всех значений xi и yi:

 

1

n

1

n

x =

x i и y =

yi .

 

 

 

n 1

n 1

(2.97)

(2.98)

(2.99)

(2.100)

Тогда уравнение (2.98) будет иметь вид:

 

y = ax + b.

(2.101)

Полученная прямая идет через эти средние значения, поэтому можно

записать:

 

y y = a(x x ) .

(2.102)

Наклон прямой называют коэффициентом регрессии. Мерой разброса значений yi возле прямой регрессии является дисперсия Sn2 :

 

n

[yi y(x i )]2

 

S(a, b, n)

 

min

 

 

 

 

 

 

 

S n2

=

 

=

 

 

 

.

(2.103)

n 2

n 2

 

1