TEOR_inform_19-12-10_2014_01_06_12_12_03_442
.pdfРассмотрим ансамбль Y { y1 , y2 } {1, 0}. По формуле полной вероятности
9 |
|
получим p 1 p ( xi ) p (1/ xi ) = 0.5303, |
p 0 1 p (1) = 0.4697. |
i 1 |
|
Количество информации, содержащееся в каждом символе ансамбля Y равно соответственно
|
( y1) 0.915119 áèò , |
( y2 ) 1.09019 |
áèò . |
|
|
|||||||
Энтропия ансамбля Y равна |
áèò / ñèì â. . |
|
|
|
|
|||||||
|
|
H Y |
0.997349 |
|
|
|
|
|||||
|
|
Соответственно коэффициент сжатия и коэффициент избыточности |
||||||||||
будут равны |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y 0.997349, |
|
rY 0.00265 |
|
|
|
|
||||
|
Таблица 3.4 |
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
2 |
|
3 |
|
|
4 |
5 |
|
6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Вер. |
|
|
|
|
|
|
|
Условн. |
|
|
|
|
|
не |
префикс- |
префиксный |
ni |
|
вер. |
|
||
|
X |
|
|
|
|
|
||||||
|
|
p ( xi ) |
|
|
|
|
|
|
|
|||
|
|
|
ный код |
|
код |
|
p 1/ xi |
|
||||
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
0.2 |
|
11 |
|
|
11 |
2 |
|
1 |
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
0.2 |
|
01 |
|
|
10 |
1 |
|
1/2 |
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
0.19 |
|
100 |
|
|
001 |
1 |
|
1/3 |
|
|
3 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
0.15 |
|
110 |
|
|
011 |
2 |
|
2/3 |
|
|
4 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
0.10 |
|
010 |
|
|
010 |
1 |
|
1/3 |
|
|
5 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
0.08 |
|
1000 |
|
|
0001 |
1 |
|
1/4 |
|
|
6 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
0.06 |
|
10000 |
|
00001 |
1 |
|
1/5 |
|
|
|
7 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
0.01 |
|
100000 |
|
000001 |
1 |
|
1/6 |
|
|
|
8 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
0.01 |
|
000000 |
|
000000 |
0 |
|
0 |
|
|
|
9 |
|
|
|
|
|
|
|
|
|
|
|
На рисунке 3.5 приведено кодовое дерево, полученное при кодировании по методу Хафмена ансамбля X.
31
1 |
|
|
|
|
2 |
|
|
10 |
11 |
|
|
|
|
|
3 |
001 |
010 |
|
011 |
|
|
|||
4 |
0001 |
|
|
|
|
|
|
|
|
5 |
00001 |
|
|
|
6 |
|
|
|
|
000000 |
000001 |
|
|
|
Рис. 3.5 Кодовое дерево кода Фано
Сравнивая коэффициенты сжатия и коэффициенты избыточности ансамблей X и Y видно при кодировании по методу Хафмана, произошло увеличение коэффициента сжатия и уменьшение избыточности ансамбля Y по сравнению с равномерным кодом.
Средняя длина кода при кодировании по методу Хафмана уменьшилась также и равна
|
|
=1.34 |
|
ñèì â |
|
|
n |
|
|
. |
|
|
ñî î áù |
||||
|
|
|
|
|
Как видно из рисунка 3.5, ни одна кодовая комбинация не является началом другой кодовой комбинации, т.е. код является префиксным. Свойство префиксности кода позволяет однозначно декодировать последовательность кодовых комбинаций, что видно из таблицы 3.4 и рисунка 3.5.
Следует отметить, метод кодирования Хафмана позволяет получить показатели p 1 , H Y , Y , rY более высокие, чем при кодировании по методу Шеннона. Это
объясняется тем, что в методе кодирования по Шеннону допускается некоторый произвол при делении множества событий на группы.
3.4 Теорема оптимального кодирования источника
независимых сообщений.
При заданном ансамбле X из N независимых сообщений с энтропией H X возможно так закодировать сообщения ансамбля посредством
32
последовательности символов, что среднее число символов на сообщение удовлетворяет неравенству
|
|
|
|
|
|
|
|
|
|
|
|
|
H X |
|
|
|
|
|
|
|
H X |
1 |
|
|
|
|
|
|
|
|
|
|
(3.1) |
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
, |
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
log D |
|
log D |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
где log D - основание кода. Среднее число символов на сообщение n |
|||||||||||||||||||||||||||||||||||||||||||||||
|
не может быть сделано меньше, чем H X |
log D . |
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
áèò |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
Величина log D |
|
|
|
|
|
|
- количество информации, приходящееся на один сим- |
||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
ñèì â |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
вол при кодировании кодом с основанием D. (При кодировании двоичным кодом |
||||||||||||||||||||||||||||||||||||||||||||||||
log D =1) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
Доказательство. Рассмотрим левую часть неравенства, составим разность |
|
|
|||||||||||||||||||||||||||||||||||||||||||||
|
H X |
|
|
|
и используем неравенство log z |
|
z 1 log e , где знак равенства реа- |
|||||||||||||||||||||||||||||||||||||||||
|
n |
|||||||||||||||||||||||||||||||||||||||||||||||
|
|
|||||||||||||||||||||||||||||||||||||||||||||||
|
log D |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
лизуется при z = 1. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
H X |
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
n |
|
|
|
|
H X n log D |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
log D |
log D |
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
1 |
|
|
N |
|
|
ði log ði |
N |
|
ði |
ni log D |
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
log D |
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
1 |
|
|
|
|
|
N |
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
log e |
|
|
|
N |
|
|
|
1 |
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
ð log |
|
|
|
|
|
|
|
|
|
|
|
ð |
|
|
|
|
1 |
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
i 1 |
|
|
|
|
|
|
|
n i |
|
|
|
|
|
|
|
|
i 1 |
|
|
|
ni |
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
ði D |
|
|
|
log D |
i |
|
ði D |
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
log D |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
log e |
|
|
|
N |
|
|
|
|
|
|
|
|
|
|
|
|
log e |
|
N |
|
|
n |
|
|
. |
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
i 1 |
D n i ði |
|
|
|
|
|
|
i 1 D |
|
i 1 |
(3.2) |
|||||||||||||||||||||||||
|
|
|
|
|
|
|
log D |
log D |
|
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
Рассмотрим разность N |
D ni 1 . |
Пусть |
ni |
- количество символов, |
упот- |
||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
ребляемых для кодирования xi -го сообщения, |
|
|
n* |
- наибольшее количество симво- |
||||||||||||||||||||||||||||||||||||||||||||
лов, употребляемых для кодирования сообщения в ансамбле X. Число кодов, со- |
держащих n* символов, которое можно было бы создать, исходя из узла, состоящего из ni символов, равно D n* ni . (Для иллюстрации этого предложения на рисунке 3.4 выделено сообщение x3 , имеющий код 100, т. е. n3 3 . Наибольшее число символов n* 5 на пятом уровне. На рисунке показаны ветви, исходящие из ко-
33
да 100 на третьем уровне и останавливающиеся на пятом уровне. Число неиспользуемых кодов равно 25 3 4 .)
Сумма всех неиспользуемых кодов не превышает числа кодов, образованных
n* разрядными кодами, т.е N |
D n* ni |
D n* или |
|
|||||||||||
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
N |
|
D n i |
1 |
|
|
|
(3.3) |
||||
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
|
Неравенство (3.3) называется неравенством Крафта. Используя неравенство |
||||||||||||||
Крафта, из (3.1) получим |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
H X |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n . |
|
|
|
|
(3.4) |
||||||
|
|
|
|
|
|
|
|
|||||||
|
|
|
log D |
|
|
|
|
|||||||
Знак равенства в (3.2) достигается тогда, когда |
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
1 |
|
|
1 . |
(3.5) |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
ð D |
ni |
||||
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
Из выражения (3.5) получим |
|
|
|
|
|
|
|
|
|
|
|
|||
ð |
1 |
, |
|
n |
|
|
log ði . |
(3.6) |
||||||
|
|
0i |
||||||||||||
i |
D ni |
|
|
|
|
|
|
log D |
|
|||||
|
|
|
|
|
|
|
|
|
|
|||||
Как видно из (3.6), |
чем меньше вероятность реализации события |
xi , тем |
больше требуется символов для кодирования этого сообщения. Число символов ni
- величина целая, но на практике при произвольной вероятности pi получим дроб-
ную величину. Поэтому величину n |
0i |
log ði |
округляют до ближайшего целого |
|
log D |
|
|
|
|
|
|
числа |
|
|
|
ni n0i i |
, |
(3.7) |
где 0 i 1.
Умножим левую и правую части равенства (6) на pi и просуммируем полученное выражение
N |
pi ni |
N |
pi n0i N |
pi i . |
(3.8) |
|||||
i=1 |
|
|
|
i=1 |
|
|
i=1 |
|
|
|
Положим, * sup , , |
N |
.Тогда после соответствующих подстановок получим |
||||||||
1 |
|
|
|
|
|
|
|
|
|
|
правую часть неравенства (3.1) |
|
|
|
|
|
|||||
|
|
|
|
|
|
|
H X |
1 . |
|
|
|
|
|
n |
|
(3.9) |
|||||
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
log D |
|
|
Как видно из неравенства (1) среде число символов, применяемое при кодировании, зависит от метода кодирования и распределения вероятностей реализации сообщений. Теорема не отвечает на вопрос, как оптимально кодировать сообщения, она показывает границы среднего числа символов.
n log D H X - шум кодирования ???
34
|
Нет |
|
понятия |
|
|
скорости |
кодирования |
источника |
сообщений, |
|||||||||||||||
|
Log M |
|
áèò |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
áèò |
|
ñî î á |
|
áèò |
|
|
áèò |
||||||||
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
ñî î á |
|
|
Log M |
|
|||||||||||||||
R |
|
|
|
|
|
|
|
|
|
|
|
|
|
V |
|
|
Log M |
|
|
V Log M |
|
|
||
ñåê |
|
|
ñèì â |
|
T n |
|
|
|
|
|||||||||||||||
|
|
|
|
ñåê |
|
ñåê |
|
ñî î á |
|
|
ñåê |
|||||||||||||
T |
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
ñèì â |
|
ñî î á |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
нет понятия ошибки кодирования и декодирования, нет понятия скорости создания информации Все это есть у Колесника (≈ Стр 36)
4 Канал связи
Под каналом связи понимается среда, в которой перемещается сигнал. В зависимости от типа сигнала каналы разделяются на непрерывные и дискретные.
Предполагается, что сигнал, передаваемый по каналу связи, дискретный как по времени, так и по своим состояниям, и сообщения, генерируемые источником, сжаты одним из методов кодирования, (хотя это не обязательно). Модель передачи информации изображена на рисунке 1.1.
|
|
|
|
|
|
|
|
|
|
|
|
|
Дискретный |
канал |
связи |
|
t1 , , tn |
|
|
|
|
|
|
|
|
t1 , , tn |
|||||
|
|
|
|
|
|
|
|
|
описывается |
ансамблем |
|||||
|
|
|
|
|
Канал |
|
|
|
|
|
|
|
входных |
символов |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
Y y1 , , yD с распреде- |
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
шум |
|
|
|
|
|
|
|
лением |
вероятностей |
|
|
|
|
|
|
|
|
|
|
|
|
|
p yi , ансамблем |
|
||
|
Рис. 4.1. Модель канала передачи информации |
выход- |
|||||||||||||
|
ных |
символов |
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
Z z1 , ,zD и условны- |
||
ми вероятностями p z j yi = p ji |
перехода одного символа в другой. Условные |
||||||||||||||
вероятности составляют матрицу переходов |
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
p |
|
p |
|
|
|
|
||
|
|
|
|
|
P |
|
11 |
|
1D |
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
(4.1) |
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
pD1 |
pDD |
|
|
|
|||||
|
Символы i |
ti , поступающие в канал связи в моменты времени ti |
выбра- |
ны из ансамбля Y, т.е. ti Y . Обычно в канале связи действуют шумы, искажающие физические свойства сигналов, несущих информацию. В результате на
35
выходе канала получают последовательность символов t1 , , tn таких, что
i ti Z . По своим свойствам канала связи классифицируется как 1) неоднородный канал с памятью - условная вероятность
p tk tk , , t0 получить символ tk в момент времени tk зависит от
некоторого множества символов поступивших на вход канала до момента времени tk . Неоднородность проявляется в том, что сохраняется зависимость условной вероятности от времени.
2) Неоднородный канал без памяти - условная вероятность p tk tk не
зависит от всех предыдущих символов на входе канала, но зависимость от времени остается
3) Однородный канал без памяти (стационарный канал) - условная вероятность
p tk tk не |
зависит от |
времени. |
В этом случае можно запи- |
||
сать p tk tk |
= p z j |
yi . |
|
|
|
В дальнейшем рассматривается стационарный канал. |
|||||
Канал называется симметричным, если |
|
|
|||
|
p z j |
p, |
åñëè |
j i, |
|
|
yi |
D 1 p, |
åñëè |
j i. |
|
|
|
1 |
|||
|
|
|
|
|
|
На рисунке 4.2 представлена модель симметричного канала с основанием кода D = 3. На рисунке 4.3 изображена модель канала со стиранием.
На практике при больших шумах часто нельзя отдать предпочтение тому или ино-
q 1 |
p |
y1 |
z1 |
2 |
|
|
y1 |
z |
|
|||||
|
|
|
|
|
|
1 |
z2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
y2 |
y2 |
|
|
|
|
|
z2 |
z3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
y3 |
y3 |
|
|
|
|
|
z |
|
|
|
|
|
|
|
||
|
|
q 1 |
p |
|
|
3 |
z0 |
|
|
|
|
|
|||
|
|
|
|
|
|||
|
2 |
|
|
|
|
||
|
|
|
|
|
|
|
Рис.4. 3 Модель канала со |
|
Рис.4. 2 Модель симметрич- |
|
|||||
|
ного канала связи |
|
стиранием |
му состоянию ансамбля Z. В этом слу-
чае в ансамбль Z вносится новое состояние
36
z0 . При переходе любого yi в состояние z0 должны быть предусмотрены какие-то
действия, исключающие эту ошибку: стереть полученный символ, продублировать информацию и т. д. В этом случае имеем канал со стиранием.
4.1 Скорость передачи информации и
пропускная способность канала связи
Ввиду того, что канал связи считается стационарным, на вход канала поступает последовательность символов n 1 , , n , где каждый символ i Y , образует n-разрядный код. Количество комбинаций, которое можно образовать с использованием кода с основанием D, равно Dn . Множество этих комбинаций образует пространство значений кодовых комбинаций Y n Y1 Y2 Yn . Символы при ансамбле Y обозначают моменты времени реализации величины . Например, для двумерного ансамбля c основанием кода, равным D=3, имеем
|
y1 y1 |
y1 y2 |
|||
Y 2 Y Y y y y |
2 |
y |
2 |
||
1 2 |
2 1 |
|
|
||
|
|
y3 y2 |
|||
|
y3 y1 |
y1 y3 y2 y3 . y3 y3
На выходе канала имеем последовательность символов n 1 , , n , где каждый символ i Z . Точно так же можно образовать множество кодовых ком-
бинаций, составляющих пространство |
Z n Z |
1 |
Z |
2 |
Z |
n |
. |
|
|||
|
|
|
|
|
|
|
|
|
|||
Последовательность символов n поступает в канал в течение TÍ |
ñåê . |
||||||||||
Количество информации, которое передается по каналу связи, за время на- |
|||||||||||
блюдения TÍ согласно (1.18) равно |
|
|
|
|
|
|
|
|
|
|
|
J Y n ; Z n H Z n H Z n / Y n =H Y n H Y n / Z n . |
(4.2) |
||||||||||
Скоростью передачи информации по каналу связи называется величина |
|||||||||||
Rêàí lim |
J Y n ; Z n áèò |
|
|
|
|
|
|
||||
|
|
|
|
|
. |
|
|
|
(4.3) |
||
TÍ |
|
|
|
|
|
|
|||||
TÍ |
|
ñåê |
|
|
|
|
|
|
Скорость передачи информации R отражает среднюю скорость передачи информации в единицу времени.
Максимальная скорость передачи информации Rêàí называется пропускной способностью канала связи
37
C max |
|
J Y n ; Z n |
áèò |
|
||
lim |
|
|
|
. |
(4.4) |
|
|
|
|||||
p Y |
TÍ |
TÍ |
|
ñåê |
|
Рассмотрим в выражении (1.18) разность H Y H Y / Z . Чем больше энтропия H Y , тем больше пропускная способность канала связи. Величина
H Y определяет среднюю неопределѐнность, содержащуюся в ансамбле Y, кото-
рая зависит от распределения вероятности элементов ансамбля Y. Поэтому максимизация скорости передачи информации происходит по распределению вероятности элементов ансамбля Y.
Упростим выражение (4.2).
H Z n H Z 1 Z 2 Z n H Z 1 H Z 2 Z 1 H Z n Z n 1 Z 1 . В
силу того, что канал - стационарный и реализации элементов ансамблей Zk и Zm в моменты времени tk и tm независимы. Тогда
H Z n H Z 1 H Z 2 H Z n n |
H Z i . |
i 1 |
|
Но ансамбли Z 1 ,Z 2 , ,Z n за время передачи информации неизменны, т.е. |
|
Z 1 Z 2 Z n Z . Тогда имеем |
|
H Z n n H Z |
(4.5) |
Условная энтропия в (4.2) представляется как
HZ n / Y n = H Z1 Z 2 Z n Y1 Y2 Yn =
=p 1 , 1 , , n , n log p 1 , , n 1 , , n .
Y1 Z1 |
Yn Zn |
Воспользуемся условием независимости символов попарно на входе и выходе канала связи, а также стационарностью канала. Тогда соответствующие вероятности и условная энтропия будут равны
p 1 1 , , n n = p 1 1 p n n ,
p 1 , , n 1 , , n = p 1 1 p n n ,
H Z n / Y n = n |
p i i log p i |
i = |
|
||||||||
|
|
i 1 |
Yi Zi |
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
||
= n |
H Zi Yi = n H Z Y . |
|
|
|
|
|
(4.6) |
||||
i 1 |
|
|
|
|
|
|
|
|
|
|
|
Если отсчѐты во времени эквидистантны, то TÍ |
n T , где T - интервал дис- |
||||||||||
кретизации по времени. Подставив (4.5), (4.6) и TÍ |
в (4.4), получим |
|
|||||||||
C max |
J Y; Z |
max |
H Z H Z / Y |
áèò |
|
||||||
|
|
|
|
|
|
. |
(4.7) |
||||
|
|
|
|
|
|||||||
p Y |
|
T |
|
p Y |
|
T |
|
|
ñåê |
|
38
Введѐм скорость передачи символов
V |
|
ñèì â |
|
|
|
1 |
|
. |
|
|
|
|
|
|
|
|
|||
k |
|
|
|
|
ñåê |
|
|
||
|
|
ñåê |
|
T |
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
ñèì â |
|
Тогда пропускную способность можно записать как |
|
C maxVk H Z H Z / Y |
(4.8) |
p Y |
|
В таблице 4.1 представлены характеристики источника сообщений, кодера источника и канала связи.
Таблица 4.1
|
|
|
Кодер |
|
|
|
|
Источник |
|
|
Канал |
|
|
|
|
источника |
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
X x1, x2 , , xN |
|
Y y1 , y2 , yD |
Z z1 , zD |
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P X |
|
|
|
|
|
|
|
P Y |
|
|
|
|
|
|
|
|
|
|
|
P Z |
|
|
|
|
|
|
|
|
|
||
p x1 , , p xN |
p y1 , , p yD |
p z1 , , p zD |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
N |
|
p xi 1 |
|
D |
|
p yi 1 |
D |
|
p |
zi 1 |
|||||||||||||||||||||
i 1 |
|
|
|
|
|
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
ñî î á |
|
|
|
|
ñèì â |
|
|
ñèì â |
|
|||||||||||||||||||||
Vè |
|
|
|
|
|
Vêî ä |
|
|
|
|
|
|
|
Vêàí |
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
ñåê |
|
|
|
|
|
ñåê |
|
|
|
ñåê |
|
||||||||||||||||||
H X |
|
áèò |
|
H Y |
áèò |
H Z Y |
áèò |
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
ñî î á |
|
|
|
|
|
ñèì â |
|
|
|
|
|
ñèì â |
|
|||||||||||||
|
|
|
áèò |
|
|
|
|
áèò |
|
|
|
|
áèò |
|
|||||||||||||||||
Rè |
|
|
|
|
|
|
Rêî ä |
|
|
|
|
|
Rêàí |
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
ñåê |
|
|
|
|
|
ñåê |
|
|
|
|
ñåê |
|
||||||||||||||||
R V |
|
H X |
|
R |
V |
|
|
H Y |
C |
áèò |
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||
è |
|
è |
|
|
|
êî ä |
|
|
êî ä |
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ñåê |
|
|||||||
|
|
|
|
|
|
|
|
|
H X |
|
|
|
|
|
|
|
ñèì â |
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
log D |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ñî î á |
|
|
|
|
|
|
|
|
|
|
4.2 Канал без шумов
Шум в канале связи искажает физические параметры сигнала, что в свою очередь приводит к искажению символов. Вероятностная характеристика искажений –
39
это условная вероятность p z j yi . Будем считать, сигнал в канале не искажается,
если zi yi . Тогда для канала без шумов справедливо выражение
p z j |
1 |
åñëè |
j i, |
|
yi |
|
j i. |
(4.9) |
|
|
0 |
åñëè |
|
|
Из выражения (**.9) следует, H Z Y 0 , т.е. пропускная способность кана- |
||||
ла связи равна |
|
|
|
|
C maxV |
H Z |
= maxV H Y |
(4.10) |
|
p Y k |
|
p Y |
k |
|
Если используется код с основанием D ,то энтропия ансамбля Y достигает наибольшего значения при p yi 1 / D . Тогда пропускная способность канала равна
C Vk log D . |
(4.11) |
Теорема Шеннона о кодирование источника независимых сообщений для канала без шумов. (Шеннон, стр. 270)
Пусть источник имеет энтропию H X , а канал имеет пропускную
способность C . Тогда можно закодировать сообщения таким обра-
зом, что можно передавать их со средней скоростью
V |
C |
1 |
ñî î á |
, |
где 0 1. |
|
|
|
|
||||
è |
H X |
|
|
|
|
|
|
|
ñåê |
|
|
C
Передавать сообщения со скоростью большей, чем H X , невозможно.
Доказательство. Будем считать источник сообщений согласованным с каналом по скорости передачи информации, если Rè Rk . Тогда
|
|
|
|
V |
V |
|
H Y |
. |
|
|
|
|
(4.12) |
||
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
è |
êàí |
|
H X |
|
|
|
|
|
||||
Энтропия H Y не превышает Hmax Y log D . Запишем |
|
||||||||||||||
|
|
|
|
|
H Y = log D ,. |
|
|
(4.13) |
|||||||
где 0 log D . |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Подстановка (4.13) в (4.12) позволяет получить |
|
|
|
|
|
||||||||||
V |
V |
log D |
|
Vêàí |
log D |
1 |
|
|
|
C |
1 , |
(4.14) |
|||
|
|
|
|
|
|
|
|
||||||||
è |
êàí |
H X |
|
H X |
|
|
|
|
H X |
|
|
||||
|
|
|
|
log D |
|
|
|
где 0 1.
Если принять 1, тоVè 0 , т.е. не имеет смысла передавать сообщения.
40