Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Корольов / Теория связи

.pdf
Скачиваний:
229
Добавлен:
10.02.2016
Размер:
8.73 Mб
Скачать

Условная энтропия характеризует среднюю степень неопределенности

принимаемых сигналов, обусловленную действием помех.

 

 

 

 

 

 

 

При сопряжении входа канала с любым источ-

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p

 

1

x1

 

 

ником двоичной информации на вход могут поступать

x1

 

 

 

 

y1

y

2

 

 

 

двоичные символы x1 и

x2 с вероятностями p(x1 )

и

 

p

 

 

 

 

 

 

 

x1

 

 

(1 p(x1 ))

соответственно (рис.4.3). На выходе канала

 

 

 

 

 

 

 

появляются двоичные символы

y1

и

y2 . Обозначим

 

y

 

 

 

 

вероятность

ошибки при

передаче

любого символа

 

p

1

 

 

 

 

x2

 

 

x2

 

y2

через

pош .

Тогда,

y

 

 

y

2

 

 

 

а

y2

 

 

 

 

 

 

 

p 1

x

 

= p

 

x

 

=1pош ,

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

x2

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

p y1 x2 = p y2 x1 = pош . В общем случае, для m -ичного дискретного канала [5]:

y j

 

p

 

 

i j,

 

 

 

 

 

ош

при

.

p

 

=

m

1

 

 

 

xi

 

 

 

 

 

 

 

pош

при i = j.

 

 

 

1

 

Тогда «шумовая» энтропия будет определяться выражением [5]:

 

 

m

 

m

y

 

 

 

 

1

 

 

 

 

H (Y X )= p(xi )p

 

j

x

log2

 

 

 

 

 

=

 

 

y j

 

 

 

 

i=1

 

j=1

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p

xi

 

(4.6)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= −(1p

 

) log

 

(1p

 

)p

 

log

 

pош

.

 

 

 

 

 

 

 

 

 

 

 

ош

 

2

 

ош

 

 

ош

 

2 m 1

 

 

Из полученного выражения следует, что энтропия определяемая только помехой не зависит от вероятности p(xi ) появления символов на входе канала.

Если символы на входе канала выбираются независимо от предыдущих символов с одинаковыми вероятностями, то энтропия выходных символов достигает своего максимального значения, равного: H (Y )= log2 m .

Таким образом, количество информации, переданной по каналу, это разность между энтропией на выходе и энтропией шума:

I (Y , X )= H (Y )H (Y

X

)= log2 m +(1pош ) log2 (1pош )+ pош log2

pош

.

(4.7)

 

 

 

m 1

 

Количество информации, переданной по каналу связи, обладает следующими основными свойствами:

151

I (Y , X )0 , причем I (Y , X )= 0 тогда и только тогда, когда входные и вы-

ходные сообщения в канале взаимно независимы;

I (Y , X )H (X ), причем I (Y , X )= H (X ) тогда и только тогда, когда входная последовательность определяется однозначно по выходной последовательности, например, когда в канале нет помех;

I (Y , X )= I (X ,Y )= H (Y )H (Y X ) следует из того, что количество информа-

ции не изменится, если входную и выходную последовательность поменять местами.

4.2.2. Пропускная способность дискретного канала

Пропускной способностью канала, рассчитанной на один входной символ, называется максимальное количество информации, которое может быть передано по каналу, причем максимум ищется по всем возможным источникам X , имеющим различные (произвольные) вероятностные характеристики:

C′ = max I (Y , X ) [бит/символ].

X

Часто более удобно пользоваться пропускной способностью канала, рассчитанной не на один входной символ, а на единицу времени:

C = T1 C[бит/с].

Величину C называют пропускной способностью канала в единицу времени или просто пропускной способностью.

Пропускная способность канала обладает следующими основными свойствами:

C 0 , C = 0 тогда и только тогда, когда вход и выход канала статистически независимы;

C T1 log2 m для канала без помех.

Из определения пропускной способности следует, что характеристика описывает свойства канала, по которому передается информация от определенного источника. Очевидно, никакой источник не способен передать по каналу

152

количество информации большее пропускной способности и данная характери-

стика описывает потенциальные возможности канала по передаче информации.

 

4.2.3. Пропускная способность симметричного дискретного

канала без памяти

 

 

 

 

 

 

 

 

Пропускная способность дискретного канала, по которому передается m

дискретных сигналов с учетом (4.7) вычисляется по формуле [6]:

 

 

 

 

 

 

 

 

 

p

 

(4.8)

 

 

C =VИ log2 m +(1pош ) log2 (1pош )+ pош log2

m

ош ,

 

 

 

 

 

 

 

 

1

 

где

VИ = 1

– скорость модуляции, бод; T – длительность сигнала; pош

– веро-

 

T

 

 

 

 

 

 

 

 

 

ятность ошибки в канале. Заметим, что пропускная способность дискретного

канала без помех при ( pош = 0 ):

 

 

 

 

 

 

 

 

 

 

CДК =VИ [log2 m].

 

 

 

 

 

В частности пропускная способность двоичного канала ( m = 2 ):

 

 

 

CДК =VИ [1+(1pош ) log2 (1pош )+ pош log2

pош ].

(4.9)

 

Зависимость отношения C V

от вероятности ошибки pош , рассчитанная

 

 

 

 

И

 

 

 

 

 

 

по формуле (4.9), показана на рис. 4.4.

 

 

 

 

 

 

Как

следует

из

графика,

при

C

VИ

 

 

 

pош = 0,5 пропускная способность двоич-

 

 

 

 

 

 

 

 

 

ного

канала равна

нулю

( C = 0 ).

Этот

 

 

 

 

 

случай называют обрывом канала. Дей-

 

 

 

 

 

ствительно вероятность ошибки pош = 0,5

 

 

 

 

 

можно получить и без передачи инфор-

 

 

 

 

 

мации по каналу связи. А при

pош =1

 

 

 

 

pош

пропускная способность такая же, как и

 

 

 

 

 

при

pош = 0

(канал без помех). Это объ-

 

 

 

 

 

ясняется тем, что при pош =1 достаточно заменить нули на единицы и единицы

на нули, чтобы абсолютно правильно восстановить переданный сигнал.

 

153

Определим пропускную способность двоичного телеграфного канала, если скорость передачи в нем 1000 бит/с и вероятность ошибки 10-3 и сделаем вывод о том насколько отличается пропускная способность этого канала от идеального. Согласно формуле (4.9), при заданных параметрах

СДК =1000 [1+0,001 log2 0,001+(10,001) log2 (10,001)]= 989 [бит/с].

Для идеального канала при pош = 0 получаем СДК =VИ =1000 бит/с. Срав-

нение этих величин показывает, что ошибки в канале привели к уменьшению пропускной способности на 11 бит/с (т.е. потери составили 1,1%).

4.3. Методы сжатия дискретных сообщений 4.3.1. Условия существования оптимального неравномерного

кода

При передаче сообщения осуществляется его преобразование в сигнал, пригодный для передачи по каналу связи. При этом необходимо согласовывать источник с каналом путем определения правила, по которому каждому элементу сообщения ставится в соответствие некоторый код, преобразуемый далее в сигнал.

В настоящее время существует два основных направления развития теории кодирования. В одном из них рассматриваются задачи повышения достоверности передачи в каналах с помехами, решаемые применением помехоустойчивых кодов, которые позволяют обнаруживать или исправлять ошибки. Такое кодирование называется помехоустойчивым. При этом избыточность кодовой последовательности выше, чем избыточность источника сообщений. Благодаря этому и оказывается возможным обнаружение и исправление ошибок передачи.

Другое направление теории кодирования связано с вопросами устранения избыточности при передаче сообщений в каналах без помех. Цель кодирования при этом состоит в таком преобразовании сообщения, при котором избыточность кодовой последовательности должна стать меньше, чем избыточность сообщений источника. В результате появляется возможность увеличения скоро-

154

сти передачи информации или снижаются требования к пропускной способности канала. Это особенно важно в случае, когда источники сообщений имеют большую избыточность, например, источники речевых сообщений, изображений и т.д.

Процесс кодирования с целью уменьшения избыточности источника сообщений носит название согласования источника с каналом или сжатия источника (экономного кодирования, энтропийного кодирования).

Избыточность (4.5) равна нулю только в том случае, когда элементы со-

общения появляются на выходе источника с равными вероятностями p(xi

)=

1

 

m

 

 

( i =1,2,3,..., m ) и независимо друг от друга p(xi , xj )= p(xi ) p(xj ). Если

же

H (X )< log2 m , то оказывается возможным построение кодов, имеющих меньшую избыточность, чем источник сообщений.

Покажем это на простейшем примере.

Пусть источник имеет алфавит из четырех символов А, Б, В, Г с вероятно-

стями p(А)= 0,5 ; p(Б)= 0,25 ; p(В)= p(Г)= 0,125 .

Энтропия такого источника:

4

H (X )= −p(xi ) log2 p(xi )= −0,5 log2 0,5 0,25 log2 0,25

i=1

0,125 log2 0,125 0,125 log2 0,125 =1,75.

Для передачи по каналу будем использовать равномерное кодирование, например, А00 , Б 01 , В 10 , Г 11. Тогда среднее число двоичных символов в сообщении, приходящихся на один символ источника, равно двум. Поскольку это на 12,5% больше энтропии источника, то используемый код не является оптимальным.

Рассмотрим теперь неравномерный код: А0 ; Б 10 ; В 110 ; Г 111. В этом случае среднее число двоичных символов, приходящихся на один символ источника в сообщении,

4

nср = p(xi ) ni = 0,5 1+0,25 2 +0,125 3 +0,125 3 =1,75 .

i=1

Таким образом, среднее число двоичных символов, приходящихся на

155

один символ источника, равно энтропии источника, т.е. для указанного источника неравномерный код оказывается более экономичным, чем равномерный.

Важно отметить, что при кодировании неравномерным кодом должна обеспечиваться возможность однозначного декодирования символов сообщения. Например, для рассмотренного источника, нецелесообразно применять код: А0 ; Б 1; В 10 ; Г 11, поскольку прием последовательности 10 может означать передачу символа В, или двух символов Б и А. Неоднозначно также декодирование символов 11. Для однозначного декодирования неравномерные коды должны удовлетворять условию префиксности: никакое более короткое слово не должно являться началом более длинного слова. Неравномерные коды, удовлетворяющие этому условию, называют префиксными.

Неравномерные коды позволяют в среднем уменьшить число двоичных символов на единичное информационное сообщение. Однако им присущ существенный недостаток: при возникновении ошибки она распространяется на все последующие элементы сообщения. Возникает ошибка синхронизации, приводящая к резкому ухудшению достоверности приема. Этот недостаток отсутствует в равномерных кодах. При кодировании равномерными кодами используется одно и то же число двоичных символов – блок; поэтому такие коды называют блоковыми.

4.3.2. Прямая и обратная теоремы кодирования источника неравномерными кодами

Прямая теорема кодирования состоит в том, что для любого однозначно декодируемого кода среднее число символов в двоичном кодовом слове всегда не меньше энтропии источника сообщений ncp H (X ), и существует однозначно декодируемый код, для которого выполняется неравенство ncp < H (X )+1.

Обратная теорема кодирования утверждает, что невозможно построить однозначно декодируемый код, для которого выполнялось бы неравенство ncp < H (X ).

156

Из этих теорем следует, что невозможно закодировать сообщение таким образом, чтобы средняя длина кодовых слов была меньше энтропии сообщения. Кроме того, существует кодирование, при котором средняя длина кодового слова незначительно отличается от энтропии источника сообщений. Среднее число символов кода на сообщение можно уменьшить, если кодировать не каждый символ сообщения, а блоки по n символов из алфавита X . Используя кодирование блоков, можно получить среднее число символов на сообщение, сколь угодно мало отличающееся от энтропии источника, но при этом возрастает сложность кодирования.

4.3.3. Показатели эффективности сжатия

Наряду с коэффициентом избыточности (4.5), часто используется коэффициент сжатия источника:

Kсж.и =

Hmax (X )

=

1

.

H (X )

 

 

1χ

Коэффициент сжатия источника показывает, во сколько раз можно уменьшить количество двоичных символов для представления единичного символа источника с энтропией H (X ) по сравнению со случаем, когда все со-

общения источника передаются равновероятно.

Например, для источника, рассмотренного в п. 4.3.1, коэффициент сжатия

Kсж.и =

log2 m

=

log2 4

=

2

=1,14 ,

H (X )

1,75

 

 

1,75

т.е. скорость передачи информации по каналу связи при использовании экономичного кодирования может быть в 1,14 раза больше, чем при равномерном кодировании.

4.3.4. Кодирование источника дискретных сообщений методом Шеннона-Фано

Кодирование методом Шеннона – Фано рассмотрим на примере. Пусть алфавит источника содержит шесть элементов {А, Б, В, Г, Д, Е}, появляющихся

157

с вероятностями p(А)= 0,15 , p(Б)= 0,25 , p(В)= 0,1, p(Г)= 0,13 , p(Д)= 0,25 , p(Е)= 0,12 . Энтропия такого источника:

H (X )= −0,15 log2 0,15 0,25 log2 0,25 0,1 log2 0,1− −0,13 log2 0,13 0,25 log2 0,25 0,12 log2 0,12 = 2,492.

Алгоритм построения сжимающего кода Шеннона – Фано заключается в следующем.

1. Все m символов дискретного источника располагаются в порядке убывания вероятностей их появления (табл. 4.2).

Таблица 4.2

Построение кода Шеннона-Фано

2.Образованный столбец символов делится на две группы таким образом, чтобы суммарные вероятности каждой группы мало отличались друг от друга.

3.Верхняя группа кодируется символом «1», а нижняя – «0».

4.Каждая группа делится на две подгруппы с близкими суммарными вероятностями; верхняя подгруппа кодируется символом «1», а нижняя – «0».

5.Процесс деления и кодирования продолжается до тех пор, пока в каждой подгруппе не окажется по одному символу сообщения источника.

6.Записывается код для каждого символа источника; считывание кода осуществляется слева направо.

При использовании простейшего равномерного кода для кодирования шести элементов алфавита источника потребуется по три двоичных символа на каждую букву сообщения. Если же используется код Шеннона – Фано, то сред-

158

нее число символов на одну букву

6

nср = p(xi ) ni = 0,25 2 +0,25 2 +0,15 3 +0,13 3 +0,12 3 +0,1 3 = 2,5 ,

i=1

что меньше, чем при простейшем равномерном коде и незначительно отличается от энтропии источника.

4.3.5. Кодирование источника дискретных сообщений методом Хаффмена

Рассмотрим еще один подход к кодированию, предложенный Хаффменом [6], на примере источника сообщений, заданного в табл. 4.3.

Таблица 4.3

Построение кода Хаффмена

Алгоритм построения сжимающего кода Хаффмена включает в себя следующие действия.

1.Все m символов дискретного источника располагаются в таблице в порядке убывания вероятностей.

2.Два символа, имеющих наименьшие вероятности, объединяются в один блок, а их вероятности суммируются.

3.Ветви скобки, идущей к большей вероятности, присваивается символ «1», а идущей к меньшей – символ «0».

4.Операции 2 и 3 повторяются до тех пор, пока не сформируется один

159

x(t).

блок с вероятностью единица.

5. Записывается код для каждого символа источника; при этом считывание кода осуществляется справа налево.

Среднее число символов на одну букву для полученного кода

6

nср = p(xi ) ni = 0,25 2 +0,25 2 +0,15 3 +0,13 3 +0,12 3 +0,1 3 = 2,5 .

i=1

Таким образом, для данного примера кодирование методами Хаффмена и Шеннона–Фано приводит к одинаковой эффективности. Однако опыт кодирования показывает, что код Хаффмена часто оказывается экономичнее кода Шеннона–Фано.

Рассмотренные методы построения сжимающих кодов широко известны и имеют практическое применение. Длина кодовой комбинации таких кодов зависит от вероятности выбора соответствующей буквы алфавита: наиболее вероятным буквам сопоставляются короткие кодовые комбинации, а менее вероятным – более длинные.

4.4. Пропускная способность непрерывного канала 4.4.1. Постановка задачи передачи дискретных сообщений в

непрерывном канале

Вместо последовательностей символов для дискретного канала, в непрерывном канале осуществляется передача последовательности непрерывных величин с дискретным или непрерывным временем. В первом случае эти последовательности можно представить в виде импульсов различной величины, появляющихся в определенные моменты времени, а во втором случае как непрерывные функции времени.

Каналы с дискретным или непрерывным временем считаются заданными, если определено множество сигналов x(t), которые можно подавать на вход,

множество сигналов y(t), на выходе, а также условные вероятностные характе-

ристики появления сигнала y(t) на выходе, если на вход был подан сигнал

160

Соседние файлы в папке Корольов