- •Введение
- •Глава 1. Основные положения теории измерений
- •1.1 Взаимосвязь понятий измерения и числа
- •1.2. Физические величины и их единицы
- •1.3. Измерительные шкалы
- •Глава 2. Обработка результатов измерений
- •2.1. Классификация ошибок
- •2.2. Основы теории ошибок
- •2.2.1. Частота, вероятность, среднее значение, дисперсия
- •2.2.2. Распределение вероятностей
- •2.2.2.1. Гауссово, или нормальное, распределение (н.р.)
- •2.2.2.3. Распределение Пуассона
- •2.2.2.4. Другие распределения
- •2.2.3. Доверительный интервал
- •2.2.4. Критерий Пирсона (хи-квадрат)
- •2.2.5. Сложение ошибок
- •2.2.6. Взвешенное среднее значение
- •2.3.1. Линейная регрессия
- •2.3.2. Нелинейная регрессия
- •2.4. Методы оценки числа измерений
- •2.4.2. Оценка числа измерений, необходимого для получения СКО среднего с требуемой точностью
- •2.4.3. Оценка числа измерений для определения допустимых границ
- •Таблица 2
- •2.5. Статистическая проверка гипотез
- •2.5.1. Проверка гипотезы о среднем значении нормально распределенной случайной величины х с известной дисперсией
- •2.5.2. Проверка гипотезы о значении дисперсии нормально распределенной случайной величины х при неизвестном среднем
- •2.5.4. Проверка гипотез о положении (сдвиге), симметрии распределения, однородности данных
- •2.6. Определение вида закона распределения значений измеряемой величины
- •2.6.1. Аналитические методы
- •2.6.1.3. Определение энтропийного коэффициента
- •Таблица 9
- •2.6.2. Графические методы
- •Таблица 10
- •2.6.3. Проверка гипотезы о согласовании эмпирического и теоретического распределения по критериям согласия
- •2.6.4. Оценка истинного значения и ошибки измерения
- •Глава 3. Измерительные устройства
- •3.1. Основные блоки измерительных устройств
- •3.2. Передаточные характеристики
- •3.3 Динамические свойства измерительных устройств
- •3.3.1 Передача непериодического сигнала
- •3.3.2. Передача периодического сигнала
- •3.4. Принцип обратной связи
- •Приложения
- •1. Примеры решения задач
- •2. Совместная обработка количественных и качественных данных
- •3. Таблицы наиболее часто используемых распределений [2,3]
- •3.1. Интегральная функция нормированного нормального распределения
- •3.2. Распределение Стьюдента
- •3.4. F-распределение Фишера
- •Список литературы
- •Оглавление
Нас интересует оценка доверительной вероятности, при которой истинное значение величины x будет отличаться от E(x) не более чем на ε, т. е.
|
|
x − E(x) |
|
≤ ε . Заменяя x − E(x) на ε, получим: |
||||||||||||||||
|
|
|
||||||||||||||||||
|
|
|
|
|
|
( |
|
|
|
|
{ |
|
|
|
|
|
|
|
}) |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
σ2 ≥ ε 2 1 − P |
|
|
x − E(x) |
|
≤ ε |
|
, |
|||||||||||
|
|
|
|
|
|
|||||||||||||||
откуда и следует неравенство Чебышева: |
||||||||||||||||||||
|
|
P{ |
x − E(x) |
|
≤ ε}>1−σ 2 |
, |
|
(2.68а) |
||||||||||||
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ε 2 |
|
|
|
|||
или в другой форме: |
|
|
|
|||||||||||||||||
|
|
2 |
|
|
|
|
|
|||||||||||||
|
|
P{ |
|
x − E(x) |
|
> ε }≤ |
σ |
. |
|
|
(2.68б) |
|||||||||
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
ε |
2 |
|
|
|||||||||||||
|
|
|
|
|
|
|
Неравенство Чебышева дает слабую оценку, что не удивительно, так как не делается никаких предположений о законе распределения случайной величины x. Например, если ε = 3σ , то из (2.68б) найдем вероятность того, что результат измерения отличается от истинного значения на величину, большую 3σ:
P{x − E(x) > 3σ}<11% .
2.2.4. Критерий Пирсона (хи-квадрат)
Рассмотрим распределение вероятности для результатов измерений выборки мощности n и попробуем оценить, с какой вероятностью мы можем судить по этому распределению о распределении вероятности для генеральной совокупности. Для этого нужно либо сравнить оба этих распределения, либо оценить их сходство со всеми возможными типами распределения вероятности. Рассмотрим эмпирическое распределение вида, представленного на рис. 1. Разделим затем область полученных значений x на k независимых классов так, чтобы каждый содержал в среднем 5 отдельных событий. Число классов в данном случае тоже будет близко к 5. Мерой согласия эмпирического и теоретического распределений будет сумма квадратов отклонений эмпирической частоты ni класса i и теоретически рассчитанной частоты nPi , где Pi – вероятность, предсказанная гипотетическим распределением для данного класса, рассчитываемая по (2.5). Тогда можно определить величину:
|
k |
(ni − nPi )2 |
k |
|
n2 |
|
|
|
χ2 |
= ∑ |
nP |
= ∑ |
|
i |
|
− n. |
(2.69) |
nP |
||||||||
|
i=1 |
i |
i=1 |
|
i |
|
|
|
Если χ2 = 0 , то наблюдаемая и ожидаемая частоты в точности совпадают;
если χ2 ≠ 0 , то нет; причем, чем больше χ2 , тем больше отклонение наблюдаемого распределения от ожидаемого. Поскольку эти отклонения имеют также статистическую природу, то для χ2 существует свое
распределение, которое для выборок большой мощности совпадает с так называемым хи-квадрат распределением с k −1 степенями свободы. Оно было введено Хелмертом. Плотность распределения имеет вид:
|
P(χ 2; f )= P |
(χ 2 ) |
2 |
exp − |
χ |
2 |
, |
|||||
|
|
|
|
|
|
|
|
f −2 |
|
|
|
|
|
|
|
|
|
f |
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
−1 |
f |
2 |
|
f |
|
2 |
|
|
|
||
где Pf |
= 2 |
|
|
|
для χ > 0. |
|
(2.70) |
|||||
|
Γ |
2 |
|
|||||||||
Математическое ожидание и дисперсия равны: |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
||
|
χ 2 |
= f , |
|
|
|
|
|
|
|
|
(2.71а) |
|
σ2 |
= 2 f |
, |
|
|
|
|
|
|
|
(2.71б) |
где f=k–1 – число степеней свободы. Если определить по экспериментальным данным еще r параметров гипотетического распределения, то отклонения ожидаемой частоты от наблюдаемой налагают еще r условий. Тогда число степеней свободы распределения равно:
f = k − r −1. |
(2.72) |
На рис. 13 показано χ 2 -распределение для разных f. При f=1 и f=2 кривые монотонно понижаются с увеличением χ 2 , при f>2 наблюдается максимум вблизи значения χ 2 = f −2 . Функция распределения имеет вид:
χ 2 |
f −2 |
|
|
|
|
F(χ 2 )= Pf ∫ ϑ |
|
|
− |
ϑ |
(2.73) |
|
|||||
2 exp |
dϑ . |
||||
0 |
|
|
|
2 |
|
Она табулирована, причем для больших f вместо нее можно приближенно использовать н.р.
F(χ 2) ≈ Φ( 2χ 2 − 2 f −1). |
(2.74) |
P(χ2 ; f ) |
|
|
|
|
|
|
|
0,6 |
|
f =1 |
|
|
|
|
|
0,5 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0,4 |
|
f =2 |
|
|
|
|
|
0,3 |
|
f =4 |
|
|
|
||
|
|
|
|
|
|
||
0,2 |
|
|
|
|
|
f =6 |
|
|
|
|
|
|
|
||
0,1 |
|
|
|
|
|
|
χ2 |
0 |
|
|
|
|
|
|
|
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
Рис. 13. Плотность вероятности хи-квадрат распределения при числе степеней свободы f=1; f=2; f=4; f=6 [2,11].
Для χ 2 эта величина соответствует верхней границе χ 2p , ниже которой еще можно считать, что гипотетическое распределение совпадает с истинным распределением генеральной совокупности. При χ 2> χ 2p эта гипотеза несправедлива. Величина χ 2p определяет допустимую
вероятность всех возможных отклонений. Величина α =1− P определяет вероятность того, что отклонена истинная гипотеза:
P(0 < χ 2≤ χ 2p )= F(χ 2p ). |
|
|
|
(2.75) |
На практике чаще всего выбирают вероятность P=0,95; 0,99. На рис. |
||||
14 показаны некоторые границы χ 2 |
. Значение |
χ 2 |
|
представлено как |
p |
f |
|||
p |
|
|
|
функция числа степеней свободы f. Выше каждой из кривых гипотеза о согласии неверна.
В основе χ 2 -критерия лежит предположение о гипотетическом
распределении для генеральной совокупности. В то же время параметры этого распределения обычно определяются по экспериментальным значениям. Так, например, выборочное среднее является наилучшей оценкой для математического ожидания генеральной совокупности (см. п. 2.2.1.). В настоящее время с помощью ЭВМ можно относительно легко варьировать параметры гипотетического распределения, чтобы достичь
минимальной величины χ 2 согласно (2.69). Полученное распределение будет наиболее вероятным.
|
4 |
|
|
|
|
|
|
|
|
|
|
|
3 |
|
|
P=99,9 |
|
P=99 |
|
|
|
||
χ2 |
2 |
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
||
f |
1 |
|
|
|
P=95 |
|
P=90 |
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
10 |
20 |
30 |
40 |
50 |
60 |
70 |
80 |
90 |
100 |
|
|
|
|
|
|
|
f |
|
|
|
|
Рис. 14. Верхнее предельное значение χ 2 - распределения в зависимости от числа степеней свободы при разных вероятностях P [2,11].
2.2.5. Сложение ошибок
Во многих случаях не удается непосредственно измерить интересующую величину, и ее приходится рассчитывать на основе значений других измеряемых величин (такие измерения называются косвенными). Рассмотрим пример, в котором искомая величина Z является известной функцией независимых друг от друга измеряемых величин x и
у:
Z = f (x, y) |
(2.76) |
Величины x и y измеряются соответственно m и n раз. Выборочные средние равны x m и yn , выборочные дисперсии S m2 , Sn2 . Для каждой пары
значений xi и yk получим величину Zik, а выборочное среднее определим по выборке мощностью m n :
|
|
|
1 |
|
|
|
|
1 |
m |
n |
|
|
|
|
|
|
|
mn = |
|
|
∑Z ik = |
|
∑∑ f (x i , yk ) . |
|
(2.77) |
||||||
Z |
|
||||||||||||||
|
mn |
|
|
||||||||||||
|
|
|
|
|
|
|
mn i=1 k =1 |
|
|
|
|
f (x m , yn ) : |
|||
Разложим величину Zik в ряд Тейлора в окрестности значения |
|||||||||||||||
Z ik = f (x m , yn ) + ∂ f (x i |
− x m )+ |
∂ f (yk − yn )+ … |
|
||||||||||||
|
|
|
|
|
|
∂x |
|
∂ y |
|
|
|||||
Здесь вместо |
|
|
x = x m |
|
и |
y = yn |
следует |
подставить |
парциальные |
||||||
отклонения. |
Тогда выборочное среднее |
|
mn |
искомой величины будет |
|||||||||||
Z |
|||||||||||||||
равно (если пренебречь членами высоких порядков): |
|
||||||||||||||
Z mn = |
1 ∑∑ f |
(x m , yn )+ ∂ f (x i − x m )+ ∂ f (yk − yn ) , |
|||||||||||||
|
|
|
|
|
|
m n |
|
|
|
|
|
|
|
|
|
|
|
|
|
i=1 k =1 |
|
|
|
∂x |
|
|
|
∂ y |
|
||
|
|
|
mn |
|
|
|
|
|
|
|
|
||||
|
|
mn = |
1 |
|
|
mn f (x m , yn ) |
+ n ∂ f ∑(x i − x m )+ m ∂ f ∑(yk − yn ) . |
||||||||
Z |
|
||||||||||||||
|
|
|
|
||||||||||||
|
|
|
mn |
|
|
|
∂x |
|
|
|
∂ y |
|
так как ∑(x i − x m ) = 0 и ∑(yk − yn )= 0, то получим:
Z mn = f (x m , yn )
(2.78)
Таким образом, искомое выборочное среднее равно (с точностью до членов 2го порядка) величине Z, рассчитанной по средним значениям x m и
yn . Дисперсия выборочного среднего в том же приближении равна:
Smn2 = |
1 ∑∑(Z ik − Z mn )2 |
≈ |
1 ∑∑ |
∂ f |
(xi − x m )+ ∂ f (yk |
||||
|
|
m n |
|
|
|
|
m n |
|
|
|
|
i=1 k =1 |
|
|
i=1 k =1 ∂x |
∂ y |
|||
|
mn −1 |
|
mn |
Перекрестный член равен нулю, поэтому получаем:
2 |
|
∂ f |
2 |
2 |
|
∂ f |
2 |
2 |
S mn |
= |
|
|
S m |
+ |
|
|
S n . |
|
|
∂x |
|
|
|
∂ y |
|
|
− yn ) 2 .
(2.79)
Это выражение называется гауссовым законом сложения ошибок. Его можно обобщить и на случай многих переменных. Пусть функция Z
зависит от l величин: x (1) , x (2) ,…, x (l) , которые измеряются соответственно
n1, n2,…, nl раз. Тогда выборочное среднее: |
|
|
|
|
|||||||||||||||||||||||||||
|
|
N = f |
(x n(11 ) ,…, x n(ll) ), |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
Z |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
а дисперсия: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
2 |
l |
|
∂ f |
|
|
2 |
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
SZN |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Sn j |
, |
|
|
|
|
|
|
|
|
|
|
|||||
= ∑ |
∂ x |
( j) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
j=1 |
|
|
|
|
|
x( j) =x( j) |
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n j |
|
|
|
|
|
|
|
|
|
|
|
где S 2 |
– дисперсия |
x |
( j) . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
n j |
|
|
|
|
|
|
|
|
|
|
nj |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
Соотношение (2.81) справедливо, если |
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
f (xn(1) ,…, xn(l ) )>> |
1 |
|
∂ |
2 |
f |
|
|
|
|
|
∂ |
2 |
f |
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
x |
(1) |
(1) +… |
+ |
|
|
|
x |
(l ) |
(l ) |
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
∂ x |
|
|
|
|
|||||||||||||||||
1 |
|
l |
|
2 |
∂ x |
(1)2 |
|
|
|
=xn1 |
|
(l )2 |
|
|
=xnl |
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(2.80)
(2.81)
Если же оно не выполняется, то
|
|
|
|
|
N |
|
|
|
N |
= |
1 |
∑ f (x i(1) ,…, x l(l) ), |
|
Z |
||||||
|
|
|||||
|
|
|
|
N i=1 |
где N = n1 n2 …nl .
Дисперсия равна:
|
|
|
N |
2 |
||
SZ2 N |
= |
1 |
∑[f (x i(1) ,…, x i(l) )− |
|
N ] . |
|
Z |
||||||
N (N −1) |
||||||
|
|
i=1 |
|
|
(2.82)
(2.83)