- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
3.3. Обработка результатов прямых равноточных измерений
Предположим, что истинное значение измеряемой величины равно а и выполнено п аналогичных измерений, результаты которых равны x1, х2, ...,хп. Каждый из результатов хi подлежащих совместной обработке для получения результата измерения, называют результатом наблюдения.
Результатом измерения является оценка значения измеряемой величины, вычисленная на основании всей совокупности результатов наблюдений Предположим, что:
1) погрешность является случайной величиной с нормальным законом распределения;
2) математическое ожидание погрешности М[ ] = 0, т.е. отсутствует систематическая погрешность;
3) погрешность имеет дисперсию , одинаковую для всех измерений, т.е. измерения равноточные;
4) погрешности отдельных наблюдений независимы.
Допущение о нормальности закона распределения погрешности основано на том, что случайная погрешность обычно вызывается целым рядом различных причин, а, следовательно, какие бы законы распределения ни имели отдельные ее составляющие, при одинаковом порядке их малости закон распределения результирующей погрешности будет близок к нормальному.
Тогда плотность распределения любого результата xi запишется в виде
. (3.3.1)
Так как результаты отдельных наблюдений независимы, то плотность распределения системы случайных величин x1, х2, ...,хп
(3.3.2)
Плотность распределения (3.3.2) системы случайных величин представляет собой функцию правдоподобия, которую обозначим
(3.3.3)
Использовав метод максимального правдоподобия, найдем оценку таким образом, чтобы при а = достигалось
(3.3.4)
Из (3.3.3) следует, что для выполнения (3.3.4) необходимо, чтобы
(3.3.5)
Условие (3.3.5) является формулировкой критерия наименьших квадратов. Отсюда следует, что при нормальном законе распределения случайной величины оценки по методам максимального правдоподобия и наименьших квадратов совпадают. Обозначим . Тогда оценка будет найдена из условия
(3.3.6)
Отсюда получим
, (3.3.7)
т.е. наилучшей оценкой является среднее значение результатов наблюдений.
Из (3.3.7) следует, что оценка является случайной величиной с нормальным законом распределения, причем
. (3.3.8)
Таким образом, оценка имеет более высокую точность, так как ее дисперсия в п раз меньше дисперсии отдельных измерений. Неопределенность результатов измерений характеризуется значением среднего квадратического отклонения погрешности, поэтому из (3.3.8) следует, что при усреднении результатов п наблюдений случайную погрешность уменьшают раз.
Следует отметить, что эффект уменьшения случайной погрешности при усреднении результатов п наблюдений снижается при наличии корреляции между этими результатами. Дисперсия оценки для коррелированных результатов наблюдений
,
где – коэффициент корреляции между результатами i-го и j-го наблюдений.
Полученная оценка является состоятельной, несмещенной и эффективной.
Для оценки неопределенности величины необходимо, используя те же экспериментальные данные, оценить значение дисперсии (или среднего квадратического отклонения) погрешности измерений. Для этого воспользуемся функцией правдоподобия (3.3.4), представив ее в виде
(3.3.9)
На основе метода максимального правдоподобия найдем оценку 2 из условия
(3.3.10)
Для упрощения вычислений прологарифмируем (3.3.9):
(3.3.11)
Так как логарифм является монотонной функцией, то значения 2, при которых функции (3.3.9) и (3.3.11) достигают экстремума, совпадают. Поэтому оценку дисперсии найдем из условия
. (3.3.12)
Продифференцировав (3.3.11) по 2, получим
(3.3.13)
Отсюда найдем оценку, которую обозначим 2:
. (3.3.14)
Так как истинное значение а неизвестно, то воспользуемся его оценкой а соответствующую оценку дисперсии обозначим S2:
. (3.3.15)
Преобразуем (3.3.15):
. (3.3.16)
Математическое ожидание оценки
(3.3.17)
Таким образом, оценка является смещенной оценкой дисперсии 2, однако
Такая оценка называется асимптотически несмещенной.
Из (3.3.17) следует, что для ликвидации смещенности оценки достаточно ввести поправочный множитель . Полученную несмещенную оценку обозначим :
(3.3.18)
Используя (3.3.16), можно записать другую более удобную для вычислений формулу для расчета оценки , равносильную (3.3.18):
(3.3.19)
Полученные оценки значений измеряемой величины и дисперсии погрешности являются точечными оценками. Оценим эти величины с помощью доверительных интервалов. Для этого сформируем общий подход к интервальному оцениванию параметров.
Пусть необходимо получить доверительный интервал для некоторого параметра , для которого вычислена точечная оценка и известна плотность распределения этой оценки f ( ) (рис. 3.3.1).
Рис. 3.3.1. Плотность распределения оценки
Пусть задана доверительная вероятность Р. Построить доверительный интервал – значит найти его границы и , причем такие, что
(3.3.20)
Границы доверительного интервала зависят не только от оценки измеряемой величины, но и от оценки среднего квадратического отклонения погрешности. Поэтому для построения доверительного интервала необходимо воспользоваться распределением случайной величины
. (3.3.21)
При нормальном распределении погрешности величина распределена по закону Стьюдента с п–1 степенями свободы (t-распределение). Распределение Стьюдента зависит от числа опытов п и при п асимптотически приближается к нормальному. В таблице «Процентные точки распределения Стьюдента» приведены значения t для величины t, имеющей распределение Стьюдента с k = n–1 степенями свободы, определяемые из условия
, (3.3.22)
где – плотность t-распределения. Полагая (где – доверительная вероятность) и зная , по таблице находят границу .
Подставив в (3.3.21) граничные значения , получим границы доверительного интервала для измеряемой величины:
(3.3.23)
или
(3.3.24)
Построим доверительный интервал для дисперсии 2 случайной погрешности. Доказано, что при нормальном законе распределения случайной погрешности величина
(3.3.25)
распределена по закону с n–1 степенями свободы. В таблице «Процентные точки хи-квадрат распределения» приведены значения для величины , имеющей 2-распределение с k = n–1 степенями свободы, определяемые из условия
(3.3.26)
где – плотность 2-распределения. Так как это распределение несимметрично, то по таблице необходимо найти значения верхней и нижней границ интервала, соответствующие вероятностям и , где Р – доверительная вероятность.
Подставив в (3.3.26) вместо и найденные граничные значения и , получим границы доверительного интервала для дисперсии:
(3.3.27)
или
. (3.3.28)
Пример 3.3.1. Произведено 15 измерений емкости конденсатора с номинальным значением 1000 пФ.
i |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
Сi |
1001,3 |
1001,0 |
1001,2 |
1001,1 |
1001,4 |
1001,1 |
1001,5 |
1001,2 |
i |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
|
Сi |
1001,3 |
1001,1 |
1000,8 |
1001,2 |
1001,0 |
1001,2 |
1000,3 |
Предположим, что систематическая погрешность измерений пренебрежимо мала, а случайная распределена нормально.
Точечная оценка значения емкости конденсатора
Точечная несмещенная оценка дисперсии
Точечная оценка среднего квадратического отклонения
Определим интервальные оценки для истинного значения емкости С и дисперсии 2 при доверительной вероятности Р = 0,95,
По таблице t-распределения для вероятности и числа степеней свободы k = n – 1 = 15 – 1 = 14 находим t =2,145.
Доверительный интервал для С равен:
или
1000,961 < C < 1001,265.
Построим доверительный интервал для 2. Для этого по таблице 2-распределения для вероятностей
,
и числа степеней свободы k = n – 1 = 14 находим
,
.
Доверительный интервал для 2 равен
или
0,0399 < 2 < 0,1853.
Соответственно доверительный интервал для равен
0,200< <0,4305 пФ.
Округлив вычисленные значения, получим: оценка С емкости конденсатора равна 1001,1 пФ; с доверительной вероятностью Р = 0,95 истинное значение емкости конденсатора лежит в пределах
1001,0 < C < 1001,3 пФ,
или в более компактной записи
С = (1001,15 ±0,15) пФ.
Случайная погрешность измерений характеризуется оценкой среднего квадратического отклонения , а его истинное значение с вероятностью Р = 0,95 лежит в пределах от 0,2 до 0,4 пФ.
Полученные выше оценки значений измеряемой величины и дисперсии случайной погрешности оптимальны при нормальном распределении погрешности. Эти же формулы используют и в тех случаях, когда закон распределения погрешности близок к нормальному. В то же время в практике встречаются ситуации, когда закон распределения погрешности существенно отличается от нормального. Если этот закон известен, то, применив описанную методику, можно получить необходимые оценки, оптимальные по критерию максимального правдоподобия.
Однако чаще всего, если распределение существенно отличается от нормального, закон распределения с достаточной точностью установить не удается. В этом случае точечные оценки обычно вычисляют по формулам (3.3.7), (3.3.15) с учетом того, что их эффективность несколько хуже эффективности оптимальных оценок.
Для грубой оценки снизу доверительной вероятности Р при заданном симметричном доверительном интервале можно воспользоваться неравенством Чебышева
(3.3.29)
Тогда для истинного значения измеряемой величины можно построить доверительный интервал в виде
(3.3.30)
где
.
При этом следует учитывать, что по (3.3.30) определяется верхняя граница для размера доверительного интервала.