![](/user_photo/1334_ivfwg.png)
- •Д. В. Ломакин прикладная теория информации
- •Предисловие
- •Модели, используемые в статистической теории информации
- •Установление количественной меры информации комбинаторное определение количества информации
- •Определение количества информации по к. Шеннону
- •Прологарифмировав последнее равенство, получим
- •Свойства энтропии Энтропия
- •При равномерном распределении энтропия
- •Ценность информации
- •Собственная информация и энтропия
- •Взаимная информация
- •Условную энтропию можно представить в виде
- •3. Дискретные источники сообщений и их описание эргодические источники
- •Производительность дискретного источника сообщений
- •Марковские источники сообщений
- •4. Кодирование сообщений при передаче по каналу без помех возможность оптимального (эффективного) кодирования
- •Префиксные коды
- •Неравенство крафта
- •Предельные возможности оптимального кодирования
- •Пропускная способность дискретного канала связи
- •Вычисление пропускной способности симметричных каналов
- •Сумма не зависит от номера столбцаj и в общем
Производительность дискретного источника сообщений
Кодовое слово,
которое вырабатывает источник, будем
записывать в виде
ÿ
буква
(символ)
алфавита сk
порядковым номером в слове. Например,
пусть k=5, a
i5==3.
Это значит, что пятой буквой в слове
является третья буква алфавита. Обозначим
через Хk
множество
букв (алфавит), из которых выбирается
k-ÿ
буква
слова. В нашем случае все множества Xk(k=1,n) состоят из одних и тех же тx букв. Когда не требуется указывать место буквы в слове, i-þ букву алфавита будем обозначать через xi.
Количество информации, которое в среднем несет отдельное слово, равно энтропии
,
где суммирование ведется по всему множеству слов. Определим производительность источника НИ как предел отношения
количества информации, которое в среднем несет отдельно слово, к числу букв в слове п при неограниченном возраста нии п:
(6)
Если буквы в слове статистически независимы (вероят- ность выбора очередной буквы не зависит от состава пред шествующих ей букв), то
где
.
Источник со
статистически независимыми буквами
сообщений будет стационарным, если
вероятность выбора 1-й
буквы алфавита не зависит от того,
какое место в слове она занимает
.
В этом случае
H(X1,...,Xn)=nH(x)
н производительность источника (бит/символ)
.
Часто
производительность источника измеряется
количеством информации
,
которое он вырабатывает за одну секунду
(
—количество
букв за одну секунду). Максимальная
производительность источника достигается,
когда все буквы алфавита появляются
с равными вероятностями. В этом случае
.
Марковские источники сообщений
Рассмотренная
модель дискретного источника сообщений
имеет сравнительно узкую область
применения, поскольку реальные
источники вырабатывают слова при наличии
статистической зависимости между
буквами. В реальных источниках вероятность
выбора какой-либо очередной буквы
зависит от всех предшествующих букв.
Многие реальные источники достаточно
хорошо описываются марковскими моделями
источника сообщений. Согласно
указанной модели условная вероятность
выбора источником очередной
,
буквы зависит
только от
предшествующих. Математической моделью
сообщений, вырабатываемых таким
источником, являются цепи Маркова
-ãî
порядка. В рамках указанной модели
условная вероятность выбора ik
-й буквы
.
Если последнее
равенство не зависит от времени, то есть
справедливо при любом значении k,
источник называется однородным.
Однородный марковский источник называется
стационарным, если безусловная вероятность
выбора очередной буквы не зависит
от
k
.
В дальнейшем
будем иметь дело только со стационарными
источниками. Вычислим производительность
источника для простой цепи Маркова
(
=l).
В этом случае вероятность
.
Прологарифмировав последнее равенство, получим
.
Это равенство показывает, что индивидуальное количество информации, которое несет слово, равно количеству информации, которое неcет первая буква, плюс количество информации, которое несет вторая буква при условии, что первая буква уже принята, и т. д.
Усредняя равенство по всем словам, получим количество информации, которое в среднем несет каждое слово:
.
Поскольку источник стационарный, то энтропия не зависит от k и равна
.
Подставляя
полученный результат в
(6) и учитывая,
что всегда
,
имеем
.
В случае марковской
цепи
-ãî
порядка Hи
вычисляется
аналогично и равна НИ=Н(Х
+1|X
,...,
X1).
Таким образом, производительность марковского источника равна неопределенности выбора очередной буквы при условии, что известны v предшествующих.
Для производительности марковского источника всегда справедливо неравенство
.
Максимального значения, равного logmX, производительность источника достигает, когда отсутствует статистическая зависимость между буквами в слове и когда все буквы алфавита вырабатываются с равными вероятностями. Очевидно, максимальная производительность источника полностью определяется размером алфавита тX .
Для того чтобы характеризовать, насколько полно использует источник возможности алфавита, вводится параметр
называемый и з б ы т о ч н о с т ь ю.
Для передачи заданного количества информации, равного I, требуется п=I/HИ букв, если производительность источника равна HИ. В случае, когда производительность источника достигает своего максимального значения, равного Hmax (X)= =logmX, для передачи того же количества информации I требуется минимальное количество букв, равное п0=I/Нmax(X).
Отсюда I=пНИ=п0Нmax
или
.
Учитывая
пос-леднее равенство, выражение для.
избыточности можно записать в виде
.
Таким образом, избыточность показывает, какая часть букв в слове не загружена информацией.
Пример 1. Определить избыточность источника, если он вырабатывает статистически независимую последовательность из единиц и нулей соответственно с вероятностями, равными р=0,3 и q=0,7.
Решение. Поскольку символы в последовательности статистически независимы, то производительность источника
.
Максимально
возможная производительность источника
,
посколькуmX=2.
При этом символы
1 и 0 должны
вырабатываться с равными вероятностями
(p=q=
=0,5).
Отсюда
.
Пример 2. Определить избыточность стационарного марковского источника, алфавит которого состоит из двух символов: 0 и 1. Вырабатываемая источником последо-вательность представляет собой простую цепь Маркова. Заданы следующие значения условных вероятностей
Решение. Безусловную вероятность того, что (k+1)-м символом последовательности будет нуль, по формуле полной вероятности можно представить в виде
.
В правую часть
неравенства входит вероятность pk(0)
того, что
k-ì
символом последовательности будет
нуль. В силу стационарности источника
.
Подставив в равенство значения
p(0|0)
и р(0|1),
получим
р(0)=0,125 , р(1)=1— р(0)=0,875.
Производительность источника
а избыточность источника
,
где Hmax(X)=1.
Когда отношение
v/n
стремится к нулю, при неограниченном
возрастании п
марковский источник вырабатывает
типичные последовательности, количество
которых
или более приближенно
.