Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Метрология конспект лекций.DOC
Скачиваний:
19
Добавлен:
24.11.2019
Размер:
893.44 Кб
Скачать

3 Информационная характеристика процесса измерения

Любое измерение представляет собой передачу информации об измеряемой величине по цепи преобразования от объекта измерения до получателя измерительной информации. При этом могут неоднократно меняться как виды энергии, так и технические носители информации. Главным вопросом теории информации является установление меры количества и качества информации. Используется три различных подхода к оценке информации: структурный, семантический и статический.

Структурная теория информации рассматривает дискретное строение массивов информации и их измерение подсчетом элементарных объемов или комбинаторным методом, предполагающим кодирование информации. Так оценивают потоки информации в вычислительной технике, в телемеханике и других направлениях, занимающихся обработкой потоков информации. Здесь основным параметром является информационная емкость – число квантов в полном массиве информации.

Семантическая теория информации учитывает такие параметры как ценность, полезность или существенность информации. Это направление используется для оценки логического опыта.

Статическая теория рассматривается информацию как сообщение об исходе случайных событий. Количество информации ставится в зависимость от вероятности событий.

Измерение представляет собой процесс приема и преобразования информации об измеряемой величине с целью получения ее количественной оценки путем сравнения с принятой единицей или шкалой. Результат может быть представлен в явном визуальном виде (в показывающих приборах) или в неявном виде (в измерительных преобразователях). Качество измерения определяется его точностью. Для установления связи между точностью измерения и количеством полученной информации можно привлечь аппарат статической теории информации, разработанной К. Шенноном в 1948-1950 г.г.

Задачей получения информации, в том числе измерения, является устранение неопределенности в наших представлениях о состоянии некоторой физической системы.

Пусть вероятность некоторого события xi до получения сообщения о нем будет P(xi), а после получения сообщения Рс(xi). При числе событий соответственно n и nc и при равновероятности этих событий справедливы выражения:

Мерой количества информации, полученной в результате сообщения, является логарифм:

Если после получения сообщения неопределенность исчезла, т.е. Рс(xi) = 1, то:

Единицей измерения информации является бит (от английского binary digit). Одна единица информации соответствует сообщению о том, что произошло одно из двух возможных событий. Сообщение содержит тем большее количество информации, чем меньше вероятность этого события Р(xi).

Среднее количество информации, приходящееся на одно достоверное сообщение, представляет собой математическое ожидание величины I и называется энтропией источника сообщения.

Энтропия является мерой неопределенности системы. При полной достоверности (определенности) системы Н=0; во всех остальных случаях Н>0.

Применительно к измерениям Н(х) является энтропией измеряемой величины. В результате измерения получаем значение измеряемой величины, равное хn с какой-то погрешностью ± δ, поэтому ее энтропия станет другой (меньшей). Она называется условной энтропией и обозначается как Н(х/хn). Следовательно, информация, полученная в результате измерения, может быть выражена разностью:

т.е. количество информации определяется уменьшением энтропии от исходного значения Н(х), характеризующей неопределенность искомой величины перед измерением, до значения Н(х/хn), которое остается после измерения из-за наличия недостоверности (погрешности) измерения δ. Таким образом, измерение с точки зрения теории информации представляет собой выбор одного узкого интервала хn ± δ из всего множества интервалов шкалы.

На рис. 3.1 представлены графики плотности вероятности измеряемой величины вдоль шкалы х до и после измерения для случая равномерной плотности. До измерения вероятность знания измеряемой величины находилась на низком уровне; при этом доверительный интервал, т.е. диапазон возможных значений величины был очень широк: от х1 до х2 (этот интервал может быть равен всему диапазону шкалы измерения). После измерения область неопределенности сократилась до 2δ, т.е. до уровня погрешностей, а вероятность резко возросла. При этом, чем меньше погрешность измерения, тем больше информативность процесса измерения.

Р(х)

Р(х) =

Р(х) =

х1 хn х2 х

Рис. 3.1. Распределение плотности вероятности измеряемой величины

до и после измерения