
- •Лабораторная работа №3 По теме: «Информационные модели сигналов» оценка энтропийных характеристик
- •Сведения из теории
- •Общая характеристика источников
- •Количество информации в сообщении. Формула Хартли
- •Закон аддитивности информации
- •Энтропия
- •Непрерывные случайные величины
- •Избыточность
- •Роль избыточности при передаче информации
- •Среднее количество информации в русском языке
Энтропия
Поскольку сообщения случайные, то и количество инф,ормации получаемой вкаждом наблюдении, является случайной величиной. Для интегральной оценки источника используют среднюю меру, называемую энтропией.
Определение. Математическое ожидание H(X) случайной величины I(xi), определенной на ансамбле {X,P(x)} называется энтропией этого ансамбля:
H(X) = Σ I(xi) P(xi) = -Σ P(xi) log2P(xi) бит/выход источника
Энтропия источника – среднее количество информации в одном сообщении. Не следует путать энтропию источника с количеством информации в одном конкретном сообщении I(xi).
Свойства энтропии источника дискретных сообщений:
Энтропия ограничена, неотрицательна, вещественна. Это вытекает из свойства вероятности:
0 ≤ P(xi) ≤ 1
Энтропия детерминированного сообщения равна нулю.
Запишем формулу энтропии в виде:
H(X) = -P1 log2Pi - Σ Pi log2Pi = 0 , где P1log2Pi=0 (2)
Если P1=1, то сумма всех остальных вероятностей равна 0. Первый член в выражении (2) равен нулю. Рассмотрим одно слагаемое в сумме, устремив Pi→0.
lim(-Pi log2Pi)=lim P log21/Pi= lim log2ß/ ßi
Pi→0 Pi→0 ß → ∞
Раскрыв неопределённость по Лопиталю, получим:
lim (1/ ß) ·ln2 = 0
Энтропия детерминированного сообщения равна нулю. Иными словами, сообщения, содержание которого известно, информации не несёт.
Энтропия альтернативного сообщения.
Альтернативный источник имеет только два выходных значения с вероятностями p и q, где q=(1-p), выражение для энтропии имеет вид:
H=-p log2(p-q) log2q
Это функция двух переменных p и q. Учитывая, что q=(1-p), получим:
H=-p log2(p-(1-p)) log2(1-p)
Изменяя p от 0 до 1 можно построить график рис. 2.
ХХХХХХХХХХХХХХХХХХХХХХХХХХХХХХХХ
Энтропия дискретного источника со многими состояния максимальна, если состояния равновероятны.
Термин «энтропия» имеет несколько неопределённый смысл, что вызвано использованием его в термодинамике и статистической механике для выражения несколько иных понятий.
Результатом рассмотрения информационных моделей сигналов являлась оценка информации для каждого символа:
I(xi) = -log2P(xi)
И формула энтропии источника дискретных сообщений:
H(x) = M[I(xi)] = -Σ Pi log2Pi
Из свойств энтропии следует, что количество информации в битах на символ лежит в пределах:
0 ≤ H(X) ≤ log2N
Нижний предел соответствует отсутствию неопределённости, а верхний максимальной неопределённости или равновероятности исходов наблюдений. Если распределение алфавита неравномерно информационное содержание алфавита меньше максимального и может быть найдено по формуле Шеннона:
H(x) = - Σ Pi log2Pi
В формуле предполагается, что символы источника является статистически независимыми, т.е. для двух символов (xjxk):
P(xj,xk) = P(xj/xk) P(xk) = P(xj) P(xk)
Если такое утверждение справедливо для источника, то такой источник называется источником без памяти. Энтропия источника без памяти называется безусловной энтропией.
Между максимальной энтропией Hmax(x) и безусловной Hбез(x) должно соблюдаться очевидное условие:
Hбез(x) ≤ Hmax(x)
Уменьшение безусловной энтропии обусловлено различием вероятностей сообщений.
Энтропия, учитывающая статистическую зависимость между сообщениями, называется условной и находится по формуле:
Hусл(x) = Σ P(xi) Hусл(x/xi), бит/сообщение.
Где Hусл(x/xi) = - Σ P(xj/xi) log2P(xj/xi)
Условная частная энтропия, вычисляемая для каждого сообщения xi . Между услновной энтропией и безусловной соблюдается неравенство:
Hусл (x) ≤ Hбез(x)
По сравнению с безусловной энтропией условная энтропия учитывает более тонкую структуру вероятностных свойств источника, поэтому является более точной характеристикой источника.
Если элементы источника, образующие последовательность не являются независимыми, то такой источник называется источником с памятью.
Зависимость символов означает, что для последовательности К символов неопределённость относительно К-го символа уменьшается, если известны (K-1) предыдущие. В слове СТУДЕН_ неопределённость относительно последней буквы уменьшается, если известны предшествующие.
Энтропия системы зависимых случайных величин
или
, (1.4)
где H(X) безусловная энтропия величины Х;
H(Y) безусловная энтропия величины Y;
H(Y/X) условная энтропия величины Y относительно величины Х;
H(X/Y) условная энтропия величины X относительно Y.
Для независимых
величин
и
.
Условная энтропия X относительно Y
, (1.5)
где P(xi/yj) вероятность значения xi величины X при условии, что величина Y приняла значение yj (условная вероятность).
Условная энтропия величины X относительно значения yj величины Y
. (1.6)