Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Гойхман Э.Ш. Основы теории передачи информации в автоматизированных системах управления

.pdf
Скачиваний:
8
Добавлен:
30.10.2023
Размер:
12.91 Mб
Скачать

ятность сообщения х-„ которое после п разбиений останется единственным в своей группе (и, следовательно, его кодирование будет завершено), окажется

примерно равной отсюда п х —log^pi- Но число знаков в кодовой

комбинации («;,) равно числу разбиений и, следовательно, ее длина равна

m^riiX-logpi,

что соответствует условию (3.27/0 оптимального кодирования.

условия

Следует

иметь

в виду,

что

точное выполнение

л/,; = —log/o

не всегда возможно, поскольку величины mi всегда

выражаются

целыми

числами,

а

числа, полученные из

выраже­

ния — logp; могут представлять собой и дроби (неправильные в представляющем большой практический интерес случае' pt <0,5). Тогда длину каждой кодовой комбинации следует выбирать равной округленному до ближайшего целого числа значению дроби —logp,. При этом фактическая длина кодовой комбинации будет отличаться от оптимальной не более чем на один двоичный сим­ вол. Очевидно, что это отличие не будет играть существенной ро­ ли, если сами кодовые комбинации по длине сравнительно велики (а их вероятности р,- соответственно малы). Поэтому для умень­ шения избыточности и более эффективного использования пропуск­ ной способности капала связи иногда применяют кодирование не отдельных элементарных сообщений (например, букв), а состав­ ленных из них сравнительно длинных последовательностей (блоков|. Это уменьшает также избыточность, обусловленную наличи­ ем статистических связей между буквами, поскольку’подобные свя­ зи между блоками значительно слабее междубуквенных связей. Подобный метод уменьшения междубуквенных статистических свя­

зей (т. е. корреляции между буквами)

часто называют декорреля­

цией укрупнением. Поясним эти соображения примером.

П р и м е р

3.11.

Пусть

сообщение

А появляется с вероятно­

стью рл = 0,6;В — с

вероятностью рв—0,3; С—с

вероятностью

рс= 0,05;

D с вероятностью Pd0,05.

Требуется

построить оп­

тимальный код.

 

 

 

 

 

 

 

 

Р е ш е н и е .

 

 

Для

построения

кода

Шэннона—Фэно составим таблицу.

Сообщения

Вероятность

j Кодовые обозначения

Последовател ь-

 

 

 

 

 

 

ность разбивок

А

 

0,6

0

1

 

 

 

 

 

 

 

В

!

0,3

с

 

:СГ

Ю

 

 

1

о

 

 

!

д0,05

,

'

10Ч

!

о* 111

2

3

70

При гаком кодировании определим

среднюю

длину кодовой

комбинации

• 3= 1,5

Отср = 0,6 • 1 +0,3 • 2+0,1

Энтропия источника сообщений

 

 

Н——(0,6 log2 0,6+0,3 log2 0,3 +0,1 log2 0 . 0 5 ) = 1 , 4 ^ •

В этом случае равенства средней длины кодовой комбинации энтропии источника сообщения не получили. Теперь будем коди­ ровать блоки, состоящие из двух букв.

Составим такую же таблицу.

Сообщения

Вероят­

 

Кодовые

Последовательность

 

ность

 

обозначен.

разбивок

 

 

 

 

АА

'

 

0,36

 

00

 

 

 

 

 

 

 

 

2

ЛВ

 

 

0,18

 

01

V

 

ВА

 

 

0,18

 

100

 

 

 

 

 

 

 

 

О

ВВ

 

 

0,09

 

101 .

 

 

 

 

 

 

 

 

2

АД

 

 

0,03

 

1100

 

 

-

 

0,03-

 

11010

4

СА

 

 

 

 

 

 

 

 

 

5

 

 

 

 

 

 

 

АС

 

 

0,03

 

п о и

 

--------------------

-------- ----------- ------------ ---------

3

 

 

-

0,03

 

11100

ДА

 

 

 

 

 

 

 

 

11101

5

ВС

 

 

0,015

 

 

 

 

 

0,015

 

111100

4

в д

 

 

 

 

------. . -----—. .

----- . .

-

• •

— -----

G

СВ

 

 

0,015

 

111101

 

__ . ,

____

.

------------

.

• —

■ *

5

д в

-

 

0,015

 

111110

6

 

 

 

 

 

 

 

СС

 

 

0,0025

 

11111100

 

71

Продолжение таблицы

 

 

--- --------18

СД

0,0025

11111101

 

 

7

ДП

0,0025

11111110

 

 

8

д л

0,0025

11111111

Определим среднюю длину кодовой комбинации (на два сообщения)

/нСр = 0,36-2+0,18 • 2 + 0,18 ■3 + 0,09 - 3+0,03 • 4+

+ 0,03 • 5 • 3+0,015 • 5+0,015 6 • 3 +0,0025 • 8 • 4=2,885 симв.

На одно сообщение приходится

/лср1=1,442 спив.

Таким образом, благодаря кодированию блоками из двух букв средняя длина каждой буквы стала почти равной энтропии источ­ ника сообщений.

В настоящее время методы уменьшения избыточности путем оптимального кодирования еще не нашли широкого практического использованияПричинами этого являются:

а) сравнительная сложность аппаратуры, реализующей коди­ рование и декодирование сигналов;

б) отсутствие избыточности у оптимального кода делает его мало пригодным к использованию в реальных каналах, подвер­ женных воздействию помех. Как будет показано ниже, в этих ус­ ловиях с целью повышения помехоустойчивости приходится вво­ дить (в определенном порядке) дополнительные символы, т. е. создавать искусственную избыточность;

в) требуемое обычно при реализации оптимального кода укруп­ нение элементарных сообщений в сравнительно длинные блоки вызывает задержку в передаче информации. С одной стороны, определенное время уходит на образование таких блоков; переда­ ча очередного блока не может быть начата до тех пор, пока он полностью нс сформируется. С другой стороны, задержка во вре­ мени возникает и на приемном конце, поскольку1декодирование может быть произведено лишь после приема всего длинного бло­ ка. Между тем в ряде систем (особенно телемеханических) зна­ чительная временная задержка в передаче информации недо­ пустима.

72

§ 3.5. Канал для передачи дискретных сообщений при наличии помех

3.5.1. Воздействие помех

При наличии помех отдельные символы искажаются, что при отсутствии избыточности приводит к нарушению достоверности принятого сообщения в целом. Для повышения достоверности при­ ходится вводить искусственную избыточность. Простейшим (но не всегда наиболее эффективным) методом введения искусственной избыточности является повторная передача сообщений.

Однако вносить излишнюю (сверх необходимой) избыточность нецелесообразно, так как это приводит к неоправданному пониже­ нию скорости передачи информации, т. е. к снижению пропускной способности канала.

Для канала с помехами важнейшей задачей является опреде­ ление оптимальной величины требуемой избыточности, обеспечи­ вающей практически полную достоверность при максимально воз­ можной скорости передачи сообщений.

Рассмотрим процесс прохождения информации в канале связи с помехами, условно показанном на рис- 3.5.

Рис. 3.5

Пусть передаваемые и принимаемые сообщения (буквы) обра­ зуют следующие конечные системы:

 

 

х,;

...

хт

входной алфавит

1

 

/;(*,);

... р{хт)

 

 

Y = \

У' ;

у2;

 

Ут

выходной алфавит

 

• ••

p l y j

:

Р(уi); Р(У-г)\

 

Передаваемые и принимаемые буквы отличаются лишь индек­

сами, например, передаваемая буква

х2 и принятая

у2— идентич­

ны. О том, что передано (т. е. об х)

судим по тому,

что принято

(т. е. по у). При отсутствии помех имеется однозначное соответ­ ствие, т. е.

Х\~+У\> Х2~*У2' Хт т '

73

При наличии помех однозначное соответствие между приняты­ ми и переданными сообщениями нарушается. Так, например, при передаче квантованных по амплитуде сигналов (рис. 3.6) под воз-

\

действием помехи, уровень которой близок к шагу квантования, сигнал, соответствующий сообщению у3, может образоваться не только при передаче сообщения х3, но и при передаче близ­ ких к х3 сообщений х2 и х4.

Аналогично может произойти искажение сообщений, передавае- < мых двоичным кодом.

До получения сообщений (Y) средняя неопределенность пере­ даваемых сообщений характеризуется энтропией источника сооб­ щений Н(Х).

Средняя неопределенность в определении переданных сообще­ ний X, остающаяся после получения принятых сообщений Y, пред­ ставляет собой условную энтропию H(X/Y).

Как показано в п. 3.3.3,

среднее количество информации об

X, содержащееся в одном принятом при наличии помех сообще­

нии Y, равно (рис. 3.7)

 

ix= H ( X ) - H ( X i y ) = H ( X ) - m P(yj) ■pix,!yj)iogp(xi;yJ). (зле)

_ _

<j

 

H(xjсредняя

ffjc - среднее popuveemSo

неопреаеленноотб

offх .оущео/пбующая

инф орм ации offх содер

да получения oaoff- <

эращееоя о одном ооооще

нии У

иренио

Н(*/у)- средняя неопре -

леннвоть off зс оста ющаяцр после получе­

ния сообщении У

Рис. 3.7

74

Для выяснения пределов возможного изменения I х рассмотрим два предельных случая:

а) помехи в канале отсутствуют, т. е. имеется однозначное со­ ответствие между X и Y. При этом в соответствии с (3.10,6) полу­

чим H(X/Y) = 0 и соответственно 1х =Н(Х);

принятому сигналу

б) интенсивность помех столь

велика, что

Y может соответствовать любой

из сигналов

входного алфавита

X. Это означает, что отсутствует корреляция (зависимость) между входными и выходными сигналами. Тогда в соответствии с (3.10,а) имеем

Н(Х Y)=H(X) и IS= H (X ) - H (X /Y )= 0,

т. е. среднее количество передаваемой информации равно нулю. Характер воздействия помех различного уровня на передачу дискретных сигналов показан на рис. 3.8- По оси абсцисс отложе­

ны передаваемые (х,)

сигналы, а по оси ординат — принимаемые

(_у;- ). При отсутствии

помех (рис. 3.8,а) между передаваемыми

и принимаемыми сигналами имеется однозначное соответствие. При помехах среднего уровня (рис. 3.8,6) соответствие перестает

УШ u(jl

»«I »«• ««

» ф • ••

• • • •

 

• • f • •

 

 

 

• « • • •

 

 

 

««•••

 

 

 

• •• •

 

 

 

• • •

хаПГ)

X ( i l

а)

Щ ) Р)

'Рис. 3.8

быть однозначным и хотя чаще всего принятые сигналы соответ­ ствуют переданным (жирные точки), каждому принятому сигналу могут с некоторыми вероятностями, .значения которых условно отображены размерами точек, соответствовать несколько передан­ ных сигналов. По мере увеличения уровня помех уменьшается степень соответствия между принимаемыми и передаваемыми сиг­ налами. При помехах весьма высокого уровня может оказаться (рис. 3.8,в), что принятому сигналу с равной вероятностью будет соответствовать любой переданный. В последнем случае H(X/Y) = Hx, принимаемые сообщения никакой неопределенности не снимают и 0- Иногда удобнее пользоваться выражением для / v, записанным в виде:

Ix= H {Y)-H (YiX ).

(3.17)

75

Здесь энтропия Ну характеризует среднюю неопределенность, при­ ходящуюся на одно ,сообщение (если условно рассматривать вы­ ход канала как источник принятых сообщений). Условная энтро­ пия H(YjX) характеризует среднюю неопределенность принятых: сигналов, остающуюся после того как становится известным, какие сигналы передаются, и обусловленную воздействием помех.

3.5.2. Пропускная способность дискретного канала при наличии помех

Поскольку наличие помех создает неуверенность в правильно­ сти принятого сообщения, на первый взгляд кажется, что можно говорить о пропускной способности канала с помехами лишь при какой-то заданной вероятности ошибок. Однако такая постановка вопроса об оценке пропускной способности капала не является единственно возможной.

Как показал Шэннон, путем надлежащего кодирования, введя соответствующую избыточность, можно обеспечить практически достоверную передачу информации при наличии помех. Правда,- при этом за счет введения избыточности скорость передачи инфор­ мации уменьшится до некоторой величины, которую обозначим CmПредельно достижимое значение этой скорости и характери­ зуйпропускную способность капала при наличии помех.

В соответствии с этим под пропускной способностью канала с помехами (Сп) понимается максимальное количество информации, которое может быть практически достоверно передано по каналу за 1 секунду, т. е. Сп—С\„ иа|;с.

Найдем выражение для С1п.

При наличии помех среднее количество информации, содер­ жащееся в одном элементарном сообщении (букве), равно

Ix= H {X )-H (X !Y ).,

а не Н (Х ), как это имело место в канале без помех. В соответ­

ствии

с этим

 

(3.27,6)

 

С1П= Имакс [ Н ( Х )- Н (Х !К)].

Максимальное количество информации,

передаваемое за 1 се­

кунду

(т.е. пропускная способность канала

с помехами),

равно

 

Cn:==:Cin мак£ Кмакс [ H (X ) - H (X !Y)\ макс .

(3.28)

Индекс «макс» означает, что из всех возможных источников, которые могут быть использованы на входе канала, следует вы­ брать источник с распределением вероятностей сигналов, обеспе­ чивающим максимум выражения в квадратных скобках. Выбор ко­ да осуществляется таким образом, чтобы чаще использовались такие кодовые комбинации, которые меньше подвержены искаже­ ниям.

Напомним, что при оптимальном кодировании в канале без помех статистика источника сообщений была задана и для ее со­ гласования с характеристиками канала наиболее часто встречаю-

76

щимся сообщениям присваивались наиболее короткие кодовые комбииции.

Выражения для пропускной способности С п могут быть запи­ саны в нескольких формах.

Так, принимая во внимание (3.17) и (3.18), можно записать

Сп= ^ макс-[Я (К )-Я (Г /Х )]макс

(3.28,а)

C„=V„KC\H(X) + H (Y )-H (X , Y)} шкс.

(3.28,6)

Учитывая (3.6), можно получить выражение

для Сп в виде

Cn=[Ht( X ) - H t(X ,Y )]„ KC..

- (3.28,в)

Здесь значения энтропий выражены в двоичных единицах в се­ кунду.

Иногда практический интерес может представить задача опре­ деления скорости передачи, информации в канале с помехами ( С \ „ ) при использовании заданного источника сообщений. Она

может быть определена выражением (3.27,6)

либо записана в

виде

 

С,и = Vмакс \и( Y) — H( YjX)\.

(3.27,в)

Принципиальная возможность осуществления кодирования, обеспечивающего практически достоверную передачу информации со скоростью, определяемой выражениями (3.28), была доказана Шэнноном в его 2-й теореме, которую приводим без доказатель­ ства.

Т е о р е м а Ш э н н о н а д л я д и с к р е т н о г о к а н а л а с п о м е х а м и

Пусть дискретный канал обладает при наличии помех пропуск­ ной способностью С„, а, дискретный источник сообщений имеет энтропию в секунду Н ( (т. е. генерирует Н t двоичных единиц ин­ формации в секунду). Если Я < С П, то существует такая система кодирования, что• сообщения источника могут быть переданы по каналу со сколь угодно малой ненадежностью. '

С другой стороны, теорема доказывает, что при Ht<iCu всегда можно т а к 'Закодировать сообщения, чтобы скорость передачи ин­ формации была как угодно близка к Н t.

Теорема Шэннона лишь устанавливает, что имеется принци­ пиальная возможность осуществления оптимального кода, по не указывает способов его построения. Последняя задача является предметом теории кодирования. ' .

Не приводя доказательства второй теоремы Шэннона, рассмот­ рим его основную идею. При передаче последовательности сигна­ лов Xi, соответствующей определенному сообщению, под воздей­ ствием помех на приемном конце может возникнуть одна из не­ скольких возможных последовательностей принятых сигналов уу

77

(см., например, рис. 3.6 и 3.8)- Таким образом, при воздействии помех одной и той же передаваемой последовательности соответ­ ствует уже целая группа принимаемых. Кодирование осуще­ ствляется таким образом, что каждой передаваемой последова­ тельности сигналов х ; ставится в соответствие вся группа после­ довательностей, которые при этом могут появиться на приемном конце (на вйходе канала). Появление на выходе канала любой из входящих в эту группу последовательностей свидетельствует о том, что передано именно сообщение х ^ При этом число возмож­ ных сообщении уменьшается и становится равным числу групп. Шэнпоп показал, что в принципе всегда можно так закодировать сообщения, чтобы число таких групп было достаточным для обе­ спечения .достоверной передачи информации со скоростью, не пре­ вышающей пропускной способности С„, определяемой выражения­ ми (3.28), (3.28,а).

Рассмотренную идею кодирования в дискретном канале с поме­

хами поясним конкретными примерами.

источник,

П р и м е р 3.12. Ко входу капала связи подключен

алфавит которого состоит из восьми сообщений.

 

Да но :

 

 

1.

Каждое сообщение представляет собой кодовую комбина­

цию из трех двоичных символов 0 или 1.

скоростью

2.

Сообщения могут передаваться с максимальной

, ;

,

сообщ

 

ыкс

_

сек

 

3. Воздействие помех проявляется таким образом, что каждая кодовая комбинация с равными вероятностями может быть пере­ дана безошибочно либо с искажением одного символа.

Требуется определить пропускную способность канала и вы­

брать оптимальный код.

равна

Ре ше н и е . Пропускная способность канала

Сп=Кмакс [Н(Х) —Я(А'/К)]макс

(3.28)

Чтобы определить пропускную способность, нужно сначала найти распределение вероятностей для передаваемых сообщений, при котором разность Н (Х )H(X/Y) максимальна. Поскольку в данном примере все кодовые комбинации имеют одинаковые дли­ тельности и в равной мере подвержены влиянию помех, то величи­ на H(X/Y) от распределения вероятностей сигналов не зависит и следует выбрать распределение вероятностей, обеспечивающее максимум Н(X). Таким распределением является равномерное, т. е. следует полагать вероятность каждого из сообщений равной

1/8.*

 

8

 

Тогда

Н(Х) = - £ p(xi) log p(xi) = 3

'

Как видно из условия, в данном примере любому из выходных (принятых) сигналов у с равными вероятностями могут соответ-

78

I

ствовать четыре сообщения на входе каналаТак, например, при­ нятому сообщению уз (рис. 3.9,а) могут равновероятно соответ-

X . - 0 0 0ч

 

0 0 0 - у .

X , - 0 0 0

 

0 0 0 - у I

X j -0 0 I \

\

0 0 1 - у *

X z - Q G 1

 

00 1 - у 2

Х з -0 I 0

|) 0 10 - у з

Хз - 0 i 0

 

0 10 - у з

 

 

Х*-0 I I

/ 0 И - у 4

X 4 - 0 I I

 

01 I - у 4

Ха- - I 0 0 /

 

I O Q - y s

 

 

0 0 “ У s

Х б - 1 0 I j

 

101 - у 6

 

 

о ! - у 4

X ? - I I о

 

И 0 - У 7

х 7 - I I О \ \

I 0 - у 7

Х ь -

 

I П - 9 «

Хй-1 ( |

\

|

У»

а)

 

ю

 

 

 

 

Рис. 3.9

 

 

 

 

ствовать переданные хр, Хз\ хр, х7. Поэтому все частные условные энтропии равны между собой и равны условной энтропии:

Н{Х!у,)~Н {Х!у2)=. ..^H(Xilyj) = Н (Х / Y) —

8

=— 2 p{xiiyj)l°&p(xtiyj)=lo&*=2 сш % ~

/=■1

Пропускная способность канала равна

С„—УМаке \Н(Х) — Н(Х/ К)]ма1(с =1 -[3 -2] = 1 .

Произведем оптимальное кодирование. Каждому переданному сообщению следует поставить в соответствие группу из четырех кодовых комбинаций на приемной стороне, которые могут появить­ ся только при передаче этого сигнала (рис. 3.9,6).

Остальные четыре кодовые комбинации на приемной стороне могут быть поставлены в соответствие другому переданному сиг­ налу. Для обеспечения однозначности линии обоих «вееров» не должны подходить к одним и тем же кодовым комбинациям. Это условие будет выполнено, если второе сообщение закодировать как х6. Таким образом, полная достоверность может быть обеспе­ чена, если передавать не восемь, а только два сообщения, каждо­ му из которых поставлена в соответствие группа из*четырех при­ нятых сообщений.

Очевидно, что при неизменной скорости передачи сообщений

(^макс) уменьшение алфавита передаваемых сообщений вызывает соответствующее уменьшение пропускной способности.

79

Соседние файлы в папке книги из ГПНТБ