
- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
6.5.2. Эффективное значение погрешности
Энтропийным значением погрешности считается значение погрешности с равномерным законом распределения, которое вносит такое же дезинформационное действие, что и погрешность с данным законом распределения вероятностей. Математически это выглядит так.
Если погрешность с произвольным законом распределения вероятностей имеет энтропию , то эффективный интервал неопределенности вне зависимости от вида закона распределения будет равен
, (6.5.6)
а энтропийное значение погрешности, определяемое как половина от интервала неопределенности, будет равно
.
(6.5.7)
В результате введения понятия энтропийного значения погрешности появляется возможность любую погрешность с произвольным законом распределения всегда заменить погрешностью с резко ограниченным равномерным распределением с тем же значением энтропии. Это позволяет заменить реальную полосу погрешностей с плавными спадами плотности вероятности полностью эквивалентной ей в информационном смысле резко ограниченной полосой погрешностей с равномерным распределением вероятностей.
6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
Зависимость
между энтропийным и среднеквадратическим
значениями погрешности может быть
представлена как
,
где коэффициент
подобен
коэффициенту формы, связывающему
действующее и среднее значения
электрического тока.
Коэффициент
зависит от вида закона распределения
вероятностей погрешности, так как
погрешности с одним и тем же
среднеквадратическим значением
,
но с разными распределениями вероятностей
оказывают различное дезинформационное
действие. Поэтому действие помехи удобно
охарактеризовать не ее действительной
мощностью
,
а энтропийной мощностью, т.е. той частью
мощности, которая вызывает потерю
информации. Исходя из этого, можно дать
определение коэффициента
.
Коэффициент , равный отношению энтропийной погрешности к значению среднеквадратической погрешности для данного закона распределения, называется энтропийным коэффициентом данного закона распределения вероятностей.
Наибольшей энтропией при заданном значении мощности, т.е. наибольшим помехосодержанием, из всех возможных в природе законов распределения вероятностей обладает нормальное распределение. Поэтому оно имеет наибольший, предельно возможный энтропийный коэффициент, равный, согласно выражению (6.5.5),
. (6.6.1)
Любое другое распределение, отличное от нормального, может иметь энтропийный коэффициент, только меньший этого значения. Так, например, для равномерного закона распределения среднеквадратическое значение погрешности равно . Отсюда энтропийный коэффициент равномерного распределения
. (6.6.2)
Связь энтропийного коэффициента энтропийной мощности помехи РЭ определяется соотношением
, (6.6.3)
где
– энтропийный коэффициент нормального
распределения,
–
полная мощность помехи.
Так как соотношение между энтропийным и среднеквадратическим значениями погрешности определяется величиной энтропийного коэффициента , то сравнение этих значений погрешности сводится к исследованию величины энтропийного коэффициента для различных законов распределения вероятности погрешностей.
Распределения погрешности у различных приборов могут отличаться только своей островершинностью или плосковершинностью.
Как
было указано выше, энтропийный коэффициент
является функцией отношения энтропийной
мощности РЭ
помехи
(погрешности) к ее полной мощности Р.
Поэтому при
исследовании значения этого коэффициента
представляется целесообразным и за
параметр характеризующий законы
распределения, принять не значение
четвертого момента или эксцесса законов,
а их относительную энергетическую
характеристику. Поэтому примем для
характеристики островершинности
распределения не величину эксцесса, а
величину, обратную корню квадратному
из относительного четвертого момента
,
изменяющуюся в пределах от 0 до +1.
Для исследования характера изменения энтропийного коэффициента при эволюции закона распределения погрешности от нормального до островершинного с бесконечно большим эксцессом в качестве закона распределения плотности вероятности удобно использовать выражение
(6.6.4)
При изменении а от 2 до 0 это выражение поочередно описывает различные законы распределения. При а = 2 оно дает нормальный закон распределения, а при а 0 – распределение с бесконечно возрастающим положительным эксцессом. Поэтому определение энтропии , среднеквадратического отклонения а и четвертого момента 4 для этих распределений при различных значениях а позволит найти и проследить все изменения энтропийного коэффициента при эволюции закона распределения от островершинного до нормального.
При
эволюции закона распределения вида
с изменением
а
будет меняться
и нормирующий множитель А
как функция
от a.
Найдем эту функцию.
Условием нормирования является
.
Тогда имеем
Учитывая,
что
,
где
– гамма-функция, получаем
и
(6.6.5)
Определим энтропию этого распределения
(6.6.6)
Отсюда
. (6.6.7)
Определим дисперсию этого распределения
(6.6.8)
Отсюда
(6.6.9)
Определим четвертый центральный момент этого распределения:
(6.6.10)
Таким образом, энтропийный коэффициент для эволюции закона распределения вероятностей от нормального до распределения с большим значением положительного эксцесса выражается соотношением
(6.6.11)
а значение – равенством
(6.6.12)
Результаты вычисления значений и представлены в табл. 6.6.1.
Таблица 6.6.1
|
|
|
|
|
0,00 |
0,000 |
0,30 |
1,677 |
|
0,01 |
0,157 |
0,31 |
1,703 |
|
0,02 |
0,269 |
0,32 |
1,728 |
|
0,03 |
0,366 |
0,33 |
1,753 |
|
0,04 |
0,457 |
0,34 |
1,778 |
|
0,05 |
0,535 |
0,35 |
1,803 |
|
0,06 |
0,610 |
0,36 |
1,826 |
|
0,07 |
0,681 |
0,37 |
1,847 |
|
0,08 |
0,749 |
0,38 |
1,868 |
|
0,09 |
0,811 |
0,39 |
1,889 |
|
0,10 |
0,870 |
0,40 |
1,907 |
|
0,11 |
0,928 |
0,41 |
1,925 |
|
0,12 |
0,982 |
0,42 |
1,940 |
|
0,13 |
1,035 |
0,43 |
1,955 |
|
0,14 |
1,086 |
0,44 |
1,969 |
|
0,15 |
1,135 |
0,45 |
1,983 |
|
0,16 |
1,183 |
0,46 |
1,995 |
|
0,17 |
1,229 |
0,47 |
2,006 |
|
0,18 |
1,273 |
0,48 |
2,015 |
|
0,19 |
1,315 |
0,49 |
2,024 |
|
0,20 |
1,355 |
0,50 |
2,032 |
|
0,21 |
1,393 |
0,51 |
2,039 |
|
0,22 |
1,431 |
0,52 |
2,045 |
|
0,23 |
1,466 |
0,53 |
2,051 |
|
0,24 |
1,500 |
0,54 |
2,060 |
|
0,25 |
1,532 |
0,55 |
2,060 |
|
0,26 |
1,563 |
0,56 |
2,063 |
|
0,27 |
1,593 |
0,57 |
2,065 |
|
0,28 |
1,622 |
0,575 |
2,066 |
|
0,29 |
1,650 |
|
|