Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Downloads / pdf_in_archive (2) / 1_obrabotka.pdf
Скачиваний:
38
Добавлен:
02.04.2015
Размер:
1.05 Mб
Скачать

2.2.Основы теории ошибок

2.2.1.Частота, вероятность, среднее значение, дисперсия

Теория ошибок справедлива только для случайных ошибок. Рассмотрим простой случай, когда одна и та же величина измеряется n раз. Если измеряемая величина x изменяется непрерывно, то область полученных n значений разделяют на некоторое количество интервалов (классов) одинаковой ширины x и определяют количество измерений,

попавших в каждый из интервалов (xi ± x 2). Такое частотное

распределение можно представить с помощью диаграммы, которую называют гистограммой (рис. 1). Она позволяет наглядно показать исход серии измерений. Хотя результат каждого измерения определяется случайными причинами, из рис. 1 видно, что эта случайность подчиняется определенным законам.

частота, ni

x

xi

Рис. 1. Гистограмма для серии измерений.

Для описания серий измерений удобно ввести вместо абсолютных частот ni (где ni – количество результатов, попавших в класс xi) относительные частоты hi=ni/n , которые нормированы на единицу: hi=1. При увеличении числа измерений n это распределение стремится к

теоретическому распределению вероятностей, которое характеризует результаты бесконечного числа опытов. Существование теоретического распределения вероятностей является основополагающим предположением теории ошибок, которое, строго говоря, нельзя

проверить экспериментально. Математически предел при

n→∞ для

каждого класса xi выражается в виде:

 

P(x i ) = lim hi ;

P(x i ) =1,

(2.4)

n→∞

i

 

 

 

где P вероятность попадания измеряемого значения в интервал (i) при одном измерении.

Теоретическое распределение вероятностей переходит при x→0 в гладкую кривую. Вероятность попадания исхода одного измерения x в интервал x равна p(xx. Функцию p(x) называют плотностью вероятности. Вероятность P попадания результата измерения в интервал [x1,x2] равна:

x2

 

P(x1 x x 2 ) =

p(x) dx .

(2.5)

x1

 

 

Справедливо условие нормировки

 

 

 

p(x) dx =1

 

(2.6)

−∞

Вероятность попадания исхода одного измерения в область от – до x называют в математической статистике функцией распределения F(x). Она определяется так:

x

 

F(x) = p(z) dz ,

(2.7)

−∞

где p(z) – плотность распределения.

Функция распределения содержит в сжатой форме всю информацию, которую можно получить из опыта, в том числе и истинное значение измеряемой величины x0. Эту величину для дискретного распределения значений x называют арифметическим средним (E):

x0 = x = E(x) = x i p(x i ) ,

(2.8)

i

 

а в случае непрерывного распределения – математическим ожиданием величины x, которое рассчитывается из функции распределения:

x 0 = x = E(x) =

x p(x) dx = x dF(x) ,

(2.9)

−∞

−∞

 

Очевидно, что если сравнивать результаты нескольких серий измерений одной и той же величины, то наиболее точное значение будет получаться в той серии, в которой кривая распределения самая узкая. Чем она уже, тем меньше ошибка e = x x отдельного измерения, поэтому целесообразно характеризовать распределение вероятностей не только

средним значением, но и

шириной кривой распределения.

Арифметическое значение ошибки e

для этого не подходит, т.к. оно равно

0.

 

Поэтому выбирают для этой цели математическое ожидание квадрата ошибки σ2 , которое называют дисперсией:

σ 2 = E(e2 ) =

e2 p(x) dx = (x x )2 p(x) dx .

(2.10)

−∞

−∞

 

(Для дискретных распределений тоже можно записать соответствующее

выражение).

σ2 называют

средним квадратичным отклонением

(стандартным

отклонением) σ

распределения. Оно непосредственно

характеризует ширину распределения вероятностей, т.е. разброс измеряемых значений. Решая (2.10) с учетом (2.6), (2.9) получим:

 

2

 

 

 

= x 2 (x )2 = E(x 2 ) [E(x)]2 .

(2.11)

σ2 = x 2 p(x) dx x p(x) dx

−∞

−∞

 

 

 

 

 

Это выражение справедливо для всех распределений и имеет большое практическое значение.

Совокупность всех возможных исходов измерения в данных условиях называют в математической статистике генеральной совокупностью. В нашем случае эта совокупность бесконечно велика, и поэтому теоретическое распределение вероятностей никогда не реализуется.

Мы всегда имеем дело с конечным числом n измерений, которые называют выборкой объема (мощности) n . Эти значения представляют собой случайную выборку величин из генеральной совокупности. По результатам выборки мы должны как можно точнее узнать характеристики генеральной совокупности. Поэтому нужно определить соответствующие величины выборки, причем следует постоянно помнить, что величины в выборке случайным образом “извлечены” из генеральной совокупности.

Наилучшим приближением истинной величины x является так называемое выборочное среднее значение:

 

 

1

n

 

x n

=

x i .

(2.12)

 

 

 

n i=1

 

(Этот факт можно обосновать с помощью метода наименьших квадратов

(МНК))

По аналогии с (2.10) введем выборочную дисперсию Sn2 , которая

определяется как среднее значение квадрата отклонения (x i x n )2 (Здесь

не идет речь об истинной ei , т.к. не известно истинное значение величины x).