Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции по метрологии.doc
Скачиваний:
3
Добавлен:
01.05.2025
Размер:
2.22 Mб
Скачать

2.6.2. Энтропийный интервал неопределенности.

Соотношения , где справедливы при любом законе распределения погрешности, если интервал неопределенности d будет найден через условную энтропию . Поэтому N будем именовать числом различимых градаций измеряемой величины, а d – энтропийным интервалом неопределенности результата измерений. Этот энтропийный интервал неопределенности может быть вычислен для любого закона распределения погрешности как величина, стоящая под знаком логарифма в выражении для условной энтропии . В уже рассмотренном случае при равномерном законе распределения он равен 2.

Для нормального закона распределения погрешностей

;

.

Условная энтропия (энтропия погрешности) будет равна

,

т.к. , .

Следовательно, интервал неопределенности при нормальном законе распределения . Соответственно . Подобным же образом энтропийный интервал неопределенности результата измерения может быть однозначно найден для любого выраженного аналитически закона распределения погрешности.

2.6.3 Энтропийное значение случайной погрешности

При практическом использовании информационного подхода для оценки точности результатов измерений привычнее использовать не энтропийный интервал неопределенности d, а половину этого интервала, присвоив ей наименование энтропийного значения погрешностиэ.

Формально это можно сделать так:

откуда

и

Соотношение между энтропийным э и средним квадратическим  значениями погрешности различно для разных законов распределения, и его удобно характеризовать значением энтропийного коэффициента данного закона распределения.

Д

1.20

ля равномерного закона распределения (рис.1.20.) интервал неопределенности , следовательно, энтропийная погрешность равна . Т.к. , то , а энтропийный коэффициент k=1.73. Для нормального распределения и k=2.066.

Е

Рис.1.20

ще К.Шеннон доказал, что максимальное значение энтропийного коэффициента k=2.066 имеет нормальное распределение, а минимальное значение k=1.11 – арксинусоидальное распределение. Остальные законы распределения имеют значение энтропийного коэффициента в этих пределах, т.е. от 1.11 до 2.066.

2.6.4 О единицах количества информации

Единицы количества информации зависят от основания используемых логарифмов. При теоретическом анализе, интегрировании и дифференцировании математических выражений наиболее удобно использовать натуральные логарифмы. Тогда количество информации получается в нитах. При анализе цифровых устройств, работающих в двоичном коде, удобнее использовать двоичные логарифмы и тогда количество информации получается в битах. При анализе измерительных устройств, работающих в десятичном коде, удобнее использовать десятичные логарифмы и тогда количество информации получается в дитах.

Соотношения между этими единицами следующее:

1 дит = 2.3 нит = 3.3. бит.

Количество информации в битах, нитах или дитах не зависит от единиц измерения  или Х, но эти величины должны подставляться безразлично в каких, но обязательно одних единицах. Например

где Х и  должны быть подставлены в одних и тех же единицах (например, в вольтах, миллиамперах и т.д.).