Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
18. Лекции.doc
Скачиваний:
40
Добавлен:
18.04.2019
Размер:
5.83 Mб
Скачать

6.2. Энтропия и информация.

Рассмотрим некоторую систему X, над которой производится измерение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным (погрешность измерений равна нулю). До проведения измерений априорная энтропия системы была Н(Х), после измерений энтропия стала равной нулю, если в результате измерения мы нашли истинное значение величины. Обозначим Ix информацию, получаемую в результате измерений. Она равна уменьшению энтропии IХ = H(X) – H(X/xи) = 0 или IX = H(X), т. е. количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы.

С учетом формулы (1.24)

(1.26)

где рi= р(Х xi). Формула (1.26) означает, что информация Ix есть осредненное по всем состояниям системы значение логарифма вероятности состояния с обратным знаком.

Действительно, для получения Ix каждое значение log pi,- (логарифм вероятности i-го значения) со знаком минус множится на вероятность этого состояния и все такие произведения складываются. Естественно каждое отдельное слагаемое - log рi следует рассматривать как частную информацию, получаемую от отдельного измерения, состоящего в том, что система X находится в состоянии Хi. Обозначим эту информацию Ixi.

Ixi = - log pi (1.27)

Тогда информация Ix представится как средняя (или полная) информация, получаемая от всех возможных отдельных измерений с учетом их вероятностей.

Так как все числа рi не больше единицы, то, как частная информация Ixi, так и полная Ix не могут быть отрицательными.

Если все возможные состояния системы одинаково вероятны (p1 = Р2= … п=1/п), то частная информация от каждого отдельного измерения Ixi = - log p = log n равна средней (полной) информации

(1.28)

6.3. Применение основных положений теории информации для характеристики процесса измерения

Точность измерений обычно характеризуется числовым значением полученных при измерении или априорно известных погрешностей измерений.

Пусть в результате однократного измерения значения измеряемой величины X результат измерения равен хи. Если известно, но, что средство измерения имеет случайную абсолютную погрешность в пределах ± , то не следует утверждать, что действительное значение измеряемой величины равно хи. Можно лишь утверждать, что это значение лежит в полосе xи ± . Незнание истинного значения измеряемой величины сохраняется после получения результата измерения хи, но теперь оно характеризуется не исходной энтропией Н(Х), а лишь энтропией разброса действительного значения X величины относительно полученного результата xи. Эта условная энтропия Н(Х/хи) определяется погрешностью данного средства измерения.

В теории информации факт проведения измерений в диапазоне от Хн до Хв означает, что при использовании данного средства измерения может быть получен результат измерений xи только в пределах от Хн до Хв. Другими словами, вероятность получения значений хи, меньших Хн и больших Хв, равна нулю. Вероятность же получения результата хи в пределах от Хн до Хв равна единице.

Если предположить, что плотность распределения различных значений измеряемой величины вдоль всей шкалы средства измерения одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть представлено графиком р аспределения плотности f1(x) вдоль шкалы значений (рис. 16).

Рис. 16. Плотность распределения данного средства измерения

Поскольку вероятность получения результата измерений xи в пределах от Хн до Хв равна единице, то площадь под кривой f1 (x) должна быть равна единице. При равномерном распределении плотности вероятности

После проведения измерения из-за наличия погрешности средства измерения (± ) действительное значение измеряемой величины X лежит в пределах от Хи -  до Хи + , т. е. в пределах участка 2.

С информационной точки зрения интерпретация результата измерения состоит в том, чтобы область неопределенности простиралась от Хн до Xв и характеризовалась сравнительно небольшой плотностью распределения f1(x). После измерения неопределенность уменьшилась до величины 2, а плотность распределения увеличилась до величины f2(x) с учетом того, что   (XвXн), что и отражено на рис. 16.

Получение какой-либо информации об интересующей нас величине заключается в конечном счете в уменьшении неопределенности ее значения.

Определим количество информации в общем случае как

Ix=H(Х)-Н(Х/хи), (1.29)

где Н(Х) - априорная энтропия; Н(Х/хи) - условная энтропия.

В нашем примере с равномерным законом распределения

Полученное количество информации

(1.30)

Данная операция, которая обычно используется при определении относительной погрешности измерения, характеризует один из основных приемов анализа информационных свойств измерений.