Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
№3 оценка энтропийных характерисик .doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
147.46 Кб
Скачать

Энтропия

Поскольку сообщения случайные, то и количество инф,ормации получаемой вкаждом наблюдении, является случайной величиной. Для интегральной оценки источника используют среднюю меру, называемую энтропией.

Определение. Математическое ожидание H(X) случайной величины I(xi), определенной на ансамбле {X,P(x)} называется энтропией этого ансамбля:

H(X) = Σ I(xi) P(xi) = -Σ P(xi) log2P(xi) бит/выход источника

Энтропия источника – среднее количество информации в одном сообщении. Не следует путать энтропию источника с количеством информации в одном конкретном сообщении I(xi).

Свойства энтропии источника дискретных сообщений:

  1. Энтропия ограничена, неотрицательна, вещественна. Это вытекает из свойства вероятности:

0 P(xi) 1

  1. Энтропия детерминированного сообщения равна нулю.

Запишем формулу энтропии в виде:

H(X) = -P1 log2Pi - Σ Pi log2Pi = 0 , где P1log2Pi=0 (2)

Если P1=1, то сумма всех остальных вероятностей равна 0. Первый член в выражении (2) равен нулю. Рассмотрим одно слагаемое в сумме, устремив Pi→0.

lim(-Pi log2Pi)=lim P log21/Pi= lim log2ß/ ßi

Pi→0 Pi→0 ß

Раскрыв неопределённость по Лопиталю, получим:

lim (1/ ß) ·ln2 = 0

Энтропия детерминированного сообщения равна нулю. Иными словами, сообщения, содержание которого известно, информации не несёт.

  1. Энтропия альтернативного сообщения.

Альтернативный источник имеет только два выходных значения с вероятностями p и q, где q=(1-p), выражение для энтропии имеет вид:

H=-p log2(p-q) log2q

Это функция двух переменных p и q. Учитывая, что q=(1-p), получим:

H=-p log2(p-(1-p)) log2(1-p)

Изменяя p от 0 до 1 можно построить график рис. 2.

ХХХХХХХХХХХХХХХХХХХХХХХХХХХХХХХХ

  1. Энтропия дискретного источника со многими состояния максимальна, если состояния равновероятны.

Термин «энтропия» имеет несколько неопределённый смысл, что вызвано использованием его в термодинамике и статистической механике для выражения несколько иных понятий.

Результатом рассмотрения информационных моделей сигналов являлась оценка информации для каждого символа:

I(xi) = -log2P(xi)

И формула энтропии источника дискретных сообщений:

H(x) = M[I(xi)] = -Σ Pi log2Pi

Из свойств энтропии следует, что количество информации в битах на символ лежит в пределах:

0 H(X) log2N

Нижний предел соответствует отсутствию неопределённости, а верхний максимальной неопределённости или равновероятности исходов наблюдений. Если распределение алфавита неравномерно информационное содержание алфавита меньше максимального и может быть найдено по формуле Шеннона:

H(x) = - Σ Pi log2Pi

В формуле предполагается, что символы источника является статистически независимыми, т.е. для двух символов (xjxk):

P(xj,xk) = P(xj/xk) P(xk) = P(xj) P(xk)

Если такое утверждение справедливо для источника, то такой источник называется источником без памяти. Энтропия источника без памяти называется безусловной энтропией.

Между максимальной энтропией Hmax(x) и безусловной Hбез(x) должно соблюдаться очевидное условие:

Hбез(x) Hmax(x)

Уменьшение безусловной энтропии обусловлено различием вероятностей сообщений.

Энтропия, учитывающая статистическую зависимость между сообщениями, называется условной и находится по формуле:

Hусл(x) = Σ P(xi) Hусл(x/xi), бит/сообщение.

Где Hусл(x/xi) = - Σ P(xj/xi) log2P(xj/xi)

Условная частная энтропия, вычисляемая для каждого сообщения xi . Между услновной энтропией и безусловной соблюдается неравенство:

Hусл (x) ≤ Hбез(x)

По сравнению с безусловной энтропией условная энтропия учитывает более тонкую структуру вероятностных свойств источника, поэтому является более точной характеристикой источника.

Если элементы источника, образующие последовательность не являются независимыми, то такой источник называется источником с памятью.

Зависимость символов означает, что для последовательности К символов неопределённость относительно К-го символа уменьшается, если известны (K-1) предыдущие. В слове СТУДЕН_ неопределённость относительно последней буквы уменьшается, если известны предшествующие.

Энтропия системы зависимых случайных величин

или , (1.4)

где H(X)  безусловная энтропия величины Х;

H(Y)  безусловная энтропия величины Y;

H(Y/X)  условная энтропия величины Y относительно величины Х;

H(X/Y)  условная энтропия величины X относительно Y.

Для независимых величин и .

Условная энтропия X относительно Y

, (1.5)

где P(xi/yj)  вероятность значения xi величины X при условии, что величина Y приняла значение yj (условная вероятность).

Условная энтропия величины X относительно значения yj величины Y

. (1.6)