Teoria_informatsii_i_kodirovania
.pdfТеория информации и
кодирования
Читает доц.шеховцов clarahena@mail.ru
Модель системы передачи информации
Источник |
|
Кодирование |
|
Канал связи |
|
|
Неизбыточный избыточный |
|
|||
сообщений |
|
|
Модуляция, НКС, ДКС |
||
|
Код |
код |
|
||
|
|
|
|
||
|
|
|
|
|
|
Декодирование Избыточного кода неизбыточного кода
Кодирование источника сообщений
•Два вида сообщений:
•Дискретные, непрерывные
•Математической моделью дискретного
сообщения является X = {xi}, здесь xi – (элементарное) сообщение; X – множество сообщений.
•На X задано распределение вероятностей P(xi), такое, что сообщению xi соответствует
вероятность p(xi)> 0 и |
|
= 1 |
=1 |
Кодирование источника сообщений
•Конечное множество сообщений X с заданным на нем распределением вероятностей P(x) называется ансамюлем сообщений и обозначается {X, P(x)}. Таким образом , источник сообщений характеризуется составом X и заданным на нем распределение вероятностей появления сообщений на его выходе P(x)=
•{p(xi)}.
Кодирование источника сообщений
•1.2 Понятие кода
•Кодом называется система (T, q, n, M), где T – алфавит кода – множество элементов кода, q – основание кода – число символов в алфавите, n – длина кодовой комбинации, M – количество последовательностей длины n (кодовых комбинаций), которые можно составить из
элементов алфавита объемом q. Пусть q = 2, T=(0,1). Тогда M=2 .
•Использование распределения вероятностей P(x) позволяет строить коды минимальной длины, так называемые, неравномерные коды.
Кодирование источника сообщений
•1.3 Количество собственной информации. Энтропия ансамбля сообщений
•Количество собственной информации в сообщении xϵ X определяется величиной
J(x)=-log p(x).ю Основание, по которому берется логарифм, определяет единицу измерения количества информации. Если это 2, то единица измерения – «бит».. Если это e, то «нат».
Кодирование источника сообщений
• Свойства собственной информации:
1. J(x)≥ 0. Равенство достигается если p(x)=1.
2. Если p(xi)>p(xj), то J(xi)< J(xj).
3. Пусть имеется пара сообщений (x, y)ϵ X. Если они независимы, т.е. P(xy)= p(x)•p(y).
Тогда J(xy)= - log (xy)= -logp(x) –log p(y) = J(x)+ J(y). Распространяя эту ситуацию на
ансамбль сообщений, получим |
|
J(x1,x2,…xn)= - log(x1x2…xn)= - |
|
|
|
=1 = |
=1 . |
Кодирование источника сообщений
•Энтропия ДАС
•Энтропией дискретного ансамбля сообщений H(x) называется математическое ожиданиесобственного
количества информации ансамбля сообщений H(x) E
J(X)= = − |
( ) |
Кодирование источника сообщений
Свойства энтропии
1.H(x)≥0. H(x)=0 если существует такое xiϵ X,
что p(xi)=1 и p(xj)=0 для всех j‡I xjϵX.
2.Если ансамбль X содержит N сообщений, то H(x)≤ log N. Если для всех xiϵX p(xi)=1/N, то есть раcпределение вероятностей на множестве X равномерно, то H(x)= log N.
Кодирование источника сообщений
•Оптимальное кодирование – кодирование сообщений неравномерным кодом.
•В общем случае кодирование можно представить как отображение δ: X→M.
•Простой способ построения неизбыточного равномерного кода:
•Построение графа типа двоичного дерева.