Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Вулконский Б.М. Теория автоматического управления учебное пособие

.pdf
Скачиваний:
28
Добавлен:
29.10.2023
Размер:
11.18 Mб
Скачать

В

силу симметрии команд из общего числа вероятностен

Р(Л^,

равного 64, вероятности, расположенные по диагонали таб­

лицы,

встретятся по четыре раза, а остальные — по восемь раз.

Поэтому можно записать:

i = — 4 [0,04 log 0,04 + 0,0225 log 0,0225 + 0,01 log 0,01 -|-

,-)- 0,0025 log 0,0025] — 8 [0,03 log 0,03 -|-

-Ь 0,015 log 0,015 + 0,005 log 0,005 + 0,02 log 0,02 +

-Ь 0,0075 log 0,0075 + 0,01 log 0,011=

= 1,6 -\-45,6 дв. ед.

П р и м е ч а н и е .

При решении

задач, связанных с вычислением энтропии

и информации, мржно

пользоваться

таблицей значений — Р log2 Р (прилож. 1).

4.Телеметрическая аппаратура ракеты наблюдает за состо

нием трех элементов системы управления А\, А2 и А 3. Выход из строя некоторого элемента сопровождается передачей на команд­

ный пункт

сигнала с

указанием номера

неисправного

элемента

«1, а2, аз.

Расшифровка

сигналов телеметрической

станции

на

командном пункте сопровождается ошибками так, что

в среднем

один сигнал

из ста

расшифровывается

неверно:

Я]

вместо

а2,

оI вместо а3,

а2 вместо ci\

и т. д. Причем

ошибкам

в равной

сте­

пени подвержены все сигналы.

Вероятности выхода из строя отдельных Элементов системы управления составляют: Р(А\) =0,5; Р(А2) =0,25; Р(А3) = 0,25. Определить:

— количество информации в сигнале телеметрической станции после расшифровки; v

— то же, в предположении, что ошибки в расшифровке отсут­ ствуют.

Р е ш е н и е .

ш

п

га

 

1 = -г-^Р{А>) log Р ( А ,) + 2 Р ( О

2

Р »kH j) log Рак(А,) .

j = l ■

k = l

j= l

 

Чцсло исходов-схемы А равно трем ( т

=

3). Число исходов схе­

мы а также равно трем

(п = 3).

 

 

- Определим вероятности, входящие в выражение для условной

энтропии схемы А:

>

 

 

Я (ак) = 2

Р И № г (ак);

 

j= i

 

 

РК. (ак) =

| 0»99

приу = ^

 

1

10,005

при j Ф k

20

Тогда

Р (< Z j) — 0,5•

0,99 +

0,25■0,005

+

0,25• 0,005 =

0,498

Р (а,) =

0,5 •

0,005

+

0,25

• 0,99

+

0,25 • 0,005

=

0,251

' Р (а3) =

0,5• 0,005

+

0,25

• 0,005 +

0,25 • 0,99

=

0,251

 

 

 

 

 

 

 

(ак)

 

 

Рак Hj) =

Р{ак) .

 

Составим таблицу вероятностей Р„к(Л+

i = - {0,5 log 0,5 + 0,25 log 0,25 + 0,25 log 0,25) +

+10,498 [0,995 log 0,995 + 0,0025 log 0,0025 +

+0,0025 log 0,0025] + 0,251 [0,0095 log 0,0095 +

+0,986 log 0,986 4- 0,0045 log 0,0045] +

+0,251 [0,0095 log0,0095+ 0,0045 Iog0,0045 +

+ 0,986 log 0,9861) - 1,5 — 0,09 = 1,41 дв/

Если ошибки в расшифровке отсутствуют, то

з

i = — 2 Z3 (>lj) log Z3 (w4j) = 1,5 дв. ед. j=i

§ 2. ПЕРЕДАЧА ИНФОРМАЦИИ ПО КАНАЛУ СВЯЗИ

Во всех случаях информация передается по каналу связи в виде закодированного тем или иным способом сообщения — си­ гнала. Элементами кода являются символы. Полный набор ис­ пользуемых кодом символов составляет алфавит кода. Сигнал представляет определенную последовательность символов.

Так, например, в системе командного телеуправления ракетой, использующей импульсный код, сообщением является команда, пропорциональная величине и знаку отклонения ракеты от тре­ буемой траектории, сигналом — последовательность импульсов (кодовая группа), соответствующая команде, источником сигна-

21

лов (информации)— передатчик команд, символами кода — им­ пульсы, отличающиеся по некоторому параметру (амплитуде, дли­

тельности и т. и.).

При проектировании канала связи априорные вероятности си­ гналов (сообщений) обычно не известны, а если и известны, то они не могут быть изменены по нашему усмотрению. Вместе с тем, эффективность канала, как мы увидим, ниже, зависит именно от распределения вероятностей источника. Поэтому в теории ин­ формации источник рассматривается как генератор символов кода. Алфавит кода с вероятностями появления отдельных симво­

лов образует схему исходов.

символов

зависят от

Алфавит кода

и

вероятности

нашего выбора

и,

следовательно,

могут

быть выбраны

так, чтобы каждый символ содержал максимальное количество • информации. А если это так, то и сигнал, поскольку он представ­ ляет некоторую последовательность символов, будет содержать максимум информации, т. е. канал будет использоваться эффек­ тивно.

Сигналы (символы) источника информации проходят по ка­ налу от входа до выхода и выдаются адресату в виде декодиро­

ванного (восстановленного) сообщения. Если

при прохождении

по каналу на сигнал (символы) воздействуют

помехи, то на вы­

ходе сигнал оказывается искаженным. В этом случае сигналы на выходе канала перестают быть однозначно связанными с сигна­ лами на входе, между ними сохраняется только статистическая связь.

Если рассматривать набор символов кода А\, А2, ... , Ат и вероятности их появления на входе канала Р( АХ), Р(А2),

Р{Ат) как первую схему исходов, а набор символов а|, а2........ а„

ивероятности их появления на выходе канала Р(аi), Р(а2) .........

Р(а„) как вторую схему, то, согласно (26), средняя информация,

передаваемая по каналу одним символом, равна

m

п

m 4

i — — У^Р{Ад Io g P H jH - 2 р (аь) 2

j=l

k=!

j=l

(28),

Тогда, информация, ^переносимая сигналом из G символов,

/ = iG дв. ед./сигнал.

(29)

В отсутствии помех формула (28) превращается в равенство: - '

Ш

 

i = — ^ P (A j) logP(Aj) дв. ед./символ,

(30)

j=i

так как в этом случае каждый символ на входе однозначно опре­ деляется символом на выходе. *

22

Таким образом, условная энтропия в формуле (28) является характеристикой искажающих свойств канала, и, следовательно, при проектировании канала всегда следует стремиться к увеличе­ нию безусловной и уменьшению условной энтропии.

Взаключение отметим, что поскольку

Р(^j) ЯЛ.(ak) = Р (#k) Рак Hj ) ;

Я( Л з ) = 2 ^ К ) Я йк(Л]);

Я (як) = 2

Я И ])Я А](ак),

j

 

то для вычисления информации, наряду с (28)', можно пользо­ ваться формулой

 

II

,

 

Н1

П

' ,

 

 

/ = -

^

Я К )

log/ > ( ^ +

2

2 ^ ( а ) 1 о &Я^. (ак).

(31)

 

к=1

 

 

i= l

к=1

 

 

 

П р и м е р ы .

телеизмерения

работает

кодом

из

четы­

5.

Линия

рех

символов:

Aj, Л2, Л3,

Л4.

Вероятности

появления

символов

кода составляют: Я (Л,) =0,4;

Я(Л2)=0,3;

Р(А3) = 0,2;

Р(А4)= 0,1.

Помехи и искажения при передаче отсутствуют. Определить:

среднюю информацию на символ сигнала;

среднюю информацию на сигнал из '1000 символов.

Чrn

Р е ш е н и е . i = -- ' У Р (А{) log Я (Лj) ; j=i

i = — 0,4 log 0,4 — 0,3 log 0,3 — 0,2 log 0,2 — 0,1 log 0,1 =

= 1,85 дв. ед./симв.

Информация на сигнал из 1000 символов равна:

/= = /•1000= 1850 дв. ед./сигнал.

6. В счетно-решающем комплексе приборов управления стрель­ бой информация передается от блока Т к блоку И кодом из символов: Л], Л2, ... , ЛП). Символы равновероятны. При правиль­ ной передаче, в блоке И, символу А\ соответствует символ аь символу Л2 — а2 и т. д. до Лт — а т . Канал Т И подвержен влиянию помех так, что каждый из символов, будучи искажен­ ным, может перейти в любой из оставшихся. Обозначим вероят­ ности правильной передачи и ошибки р и q, соответственно. Опре­ делить среднюю информацию на символ, передаваемую* от бло­ ка Г к блоку И.

23

Р е ш е н и е : / = Н (Л) — На(А/) ;

1

Н (А) = — V p (/\j) lo g P (/li) = logwt, так как P(/lj) = ---- ; i=1

Ш111

 

На (А) = - v Р (

C h V)

Рак (Ai) log я«к И j);

 

 

р

при

h = j

 

Л ,„ М )> Ч

г,

"Р"

, .

 

1 ~ = i

* * 1

На [А):

p\ogp-\-g\og-

я

,

так как "V Я (ак) = 1;

 

 

HI

1

к-1

 

 

 

 

i ==; log т Р logp + q log - т — 1

дв. ед./символ.

§3. КОДИРОВАНИЕ СООБЩЕНИИ. КОРРЕЛЯЦИЯ

ИИЗБЫТОЧНОСТЬ КОДА

На пути от источника к адресату информация, как правило, проходит различные участки канала и каждый в отличном от дру­ гих физическом алфавите. Так, при радиопередаче сигнал, содер­ жащий информацию, представляет, собой то звуковые колебания, то колебания электрического поля, то колебания электромагнит­ ного поля и т. д.

Преобразование сообщения из одного физического алфавита

вдругой осуществляется на границах отдельных участков канала

вразличных преобразователях. Процесс преобразования сооб­

щений заключается в сопоставлении*символов первого

алфавита

с символами второго так, чтобы сохранить передаваемую инфор­

мацию. Такое сопоставление алфавитов называется

кодирова­

нием, преобразователь

информации — кодирующим

устройством,

а правило, по которому

производится преобразование, — кодом*.

В дальнейшем во избежание путаницы будем

называть эле­

менты алфавита, подлежащего кодированию, «знаками» в отличие от «символов», как элементов алфавита кода.

Кодирование, однако, не сводится только-к замене одного фи­ зического алфавита другим. В процессе кодирования может из­ мениться множество символов и их вероятности. При кодирова-

_________

\

* Иногда кодом называют сам набор , смысловых кодовых комбинаций

символов.

t

24

нии один знак может сопоставляться с комбинацией или группой символов, и наоборот, или же группа знаков сопоставляться с группой символов.

Поскольку при кодировании может меняться множество, сим­ волов и распределение вероятностей символов, то, очевидно, мо­ жет меняться и энтропия на символ, по сравнению с энтропией на знак. Выбирая один из возможных кодов, можно, следователь­ но, н'айти такой код, который имеет наибольшую энтропию на символ, или, другими словами, наименьшее число символов на то же количество информации. Такой код будет наиболее эконом­ ным, так как потребует наименьшего числа символов и наимень­ шего времени передачи. Однако прежде чем перейти непосредст­ венно к проблемам оптимального кодирования, необходимо озна­ комиться с рядом определений.

Код называется н е р а в н о м е р н ы м , если число символов в его кодовых комбинациях различно.

Код, число символов во всех кодовых комбинациях которого

одинаково, называется р а в н о м е р н ы м .

о с н о в а н и е м

Число символов в алфавите кода называется

кода и обозначается т.

 

Если имеется М сообщений, каждое из которых состоит из G

знаков, и их необходимо закодировать кодом с

основанием /п,

то среднее необходимое чйсло символов на один исходный знак составит

Н

символов

(32)

г — ----------------------- ,

log «г

знак

 

где Н — энтропия на знак источника сообщений, дв. ед./знак; log/и— максимально достижимая энтропия на символ кода,

дв.ед./символ.

Следовательно, для записи полного сообщения из G знаков требуется в среднем не менее.

_

символов

(33)

п __ п г

-----------------сообщение

^

 

Если G достаточно велико, то GH = log М

^ _ log М

символов

(34)

16g/?z

сообщение ’

 

т. е. мы приходим к случаю равномерного кода. Действительно, для равномерного кода число сообщений М, составленных из пг символов при сочетании их по R равно

M = mR,

откуда следует формула (34).

• 25

Число R, образующее смысловую кодовую комбинацию рав-_ номерного кода, называется разрядом кода. По аналогии, число R [формула (33)] может быть названо средним разрядом неравно­ мерного кода.

В ряде случаев число символов на кодовую комбинацию, рас­ считанное по формуле (34), Сказывается дробным, поэтому для практических расчетов (34) преобразуют к виду:

 

R = Q

log М

+

(35)

 

log т

 

 

 

 

 

где Q

log Ж

часть

log Л?

 

— целая

log т

 

 

log ш

 

 

Формулы (33) и (34) определяют тот необходимый минимум

символов

кода на исходное

сообщение,

к которому

нужно стре-

митьсяпри кодировании.

 

 

 

 

Решение же вопросов о способах достижения этого минимума, оптимальности того или иного кода, его эффективности представ­ ляет значительно более сложную задачу, к рассмотрению которой

мы и перейдем.

некоторый код.

Пусть'5 между

соседними

симво­

Рассмотрим

л а м и алфавита

кода существует корреляция.

Для

каждой

пары

символов

свяжем некоторую переменную х

с

первым

символом,

а у — со

вторым. Тогда неопределенность

такого

кода

найдется

по формуле для условной энтропии

 

 

 

 

 

 

^

x O 0 = - 2 p w

2 1 Px()') l o s

^

(-l')-

 

 

(36)

 

 

X

у

 

 

 

 

 

Формула отражает неопределенность в отношении следую­ щего символа, если известен предыдущий. Если бы корреляция между символами отсутствовала, тЬ неопределенность кода харак­ теризовалась бы безусловной энтропией

^ ( y ) = - 2 p ( y ) |o g />(y)-

(37)

Но поскольку всегда # х (у) < Н (у), то, следовательно, корре­ ляция всегда уменьшаёт среднее количество информации на сим­ вол.

Это рассуждение можно отнести и на случай, когда корреля­ ция распространяется на сочетание символов. Формула (36) справедлива и для этого случая, только переменная х связыва­ ется теперь с некоторым сочетанием символов, а у — с символом, следующим за этим сочетавшем.

26

Отношение энтропии данного кода при наличии определенных вероятностных ограничений и корреляции между символами к энтропии, кода, составленного из тех же символов в отсутствии каких-либо взаимных связей и ограничений, характеризует вели­ чину, на которую удлиняются сигналы при использовании этого кода, по сравнению с минимально потребной длиной. Это отно­ шение носит название относительной энтропии кода. Величина, равная

1 = 1

Н

(38)

называется избыточностью кода.

Очевидно, что нулевой избыточ- 4

ностью обладает единственный код, при котором появление всех символов независимо и равновероятно.

Изложенные соображения подводят вплотную к проблеме оп­ тимального кодирования.

Наилучшим является тот метод кодирования, при котором обеспечивается минимальная избыточность и, следовательно, мак­ симальное количество информации на символ.

Если i есть средняя информация на символ, и если символы выдаются на вход канала (участка канала между кодирующим

и декодирующим устройствами)

со скоростью v символов

в сек.,

то поток информации

 

 

i ' = i V дв.

ед./сек.

(39)

Смысл операции оптимального кодирования заключается в наиболее эффективном согласовании потока информации или ско­ рости передачи информации с пропускной способностью канала. Действительно, при ограниченной пропускной способности канала увеличивать поток информации сверх некоторого значения за счет выбора все более и более экономичного кода не имеет смысла, так как канал сам по себе будет неспособен справиться с таким по­ током. П'оэтому прежде всего следует обсудить свойства канала

него пропускную способность.

Пр и м е р ы .

7.Закодировать двоичным кодом = 2) ансамбль в 27 сооб щений, каждое из которых состоит из трех знаков: A i, Л2 и А3.

Причем,

вероятности знаков равны: Р ^ ) =0,25; Р(Л2) =0,25;

Р(А3) =

0,5.

Определить:

среднее необходимое количество символов кода на одни знак сообщения;

требуемый средний разряд неравномерного кода;

. — требуемый разряд равномерного кода без учета вероятно­ стей появления отдельных сообщений.

27

Р е ш е н и е. г =

Н(А)

;

log т

 

 

Н (А) — — 0,25 log 0,25 - 0,25 log 0,25 - 0,5 log 0,5 =

=1,5 дв. ед./знак;

г

log tu = log 2

= 1 дв. ед./символ;

 

г = 1 ,5

 

символов'знак;

4

R =

Gr-

 

R y

 

3-1,5 = 4,5.

 

Требуемый разряд равномерного кода, считая все сообщения

равновероятными равен:

 

log Ж

 

 

R = Q

+ 1 ;

 

log m

 

 

 

 

R - Q

log 27

+

1 = Q [4,75] + 1= 4 + 1 = 5 .

log 2

 

 

 

 

8.Ансамбль сообщений закодирован кодом с основанием т =

Вероятности

символов кода равны: Р(А]) =0,8;

Р(Л2)

=0,1;

Р(А3)= 0 ,1 .

Корреляция

между

символами

кода

отсутствует.

Определить избыточность кода.

 

 

 

 

Р е ш е н и е . I — 1

Я ( Л )

 

 

 

 

Н (Л)„

 

 

 

 

 

 

 

 

 

 

Н (А) = - V

Р (Aj) log Р И ,) - -

0,8 log 0,8 -

0,2 log 0,1 =

0,92;

 

^И )щ ах =

log/л = log 3 = 1,58.

 

 

О 92

/=1~tS; = 0'42-

Избыточность кода составляет 42%.

§ 4. ОПРЕДЕЛЕНИЕ КАНАЛА И ЕГО ПРОПУСКНОЙ СПОСОБНОСТИ

Проектирование канала всегда начинается с определения вида связи (проводная, акустическая, оптическая, радио и т. п.) и установления физических возможносте/i этого вида. Затем возникает техническая проблема построения системы символов (алфавита), согласованной с выбранным каналом и удовлетворяющей задачам связи: импульсы постоянного тока, Паузы, сигналы различной ин­ тенсивности, частоты, полярности и т. д. Если этот выбор сделан, тем самым определен канал.

28

Для обсуждения вопроса со статистической точки зрения до­ статочно рассматривать применяемую совокупность т символов ,4Ь А2, . . . , А j , А т и их длительности tu 12, . . . , tp . . . , 1т. Физическую природу этих символов в дальнейшем можно игнори­ ровать, только их длительности играют роль в дальнейшем обсуж­ дении.

Предположим, что символы независимы и произвольная щ по­ следовательность способна представить некоторое сообщение. Полная длительность сигнала (кодированного сообщения) Г есть сумма длительностей /j отдельных символов, составляющих си­ гнал.

Обозначим М ( Т ) — число возможных сигналов длительности Т, различающихся выбором символов и порядкомих размещения. Будем считать, что все М сигналов длительностью Т априори рав­ новероятны. Тогда информация на один такой сигнал

/

= log М (Т).

(40)

Скорость, с которой

информация передается

по каналу, равна

ЦТ. Эта скорость изменяется с изменением Т, но можно показать, что во всех практически интересных случаях она стремится к не­ которому пределу при неограниченном возрастании Т.

Этот

предел называется п р о п у с к н о й

с п о с о б н о с т ь ю

к а н а л а

и обозначается

 

 

 

 

С = lim

l0g^

r) .

(41)

 

Т-*«е

/

 

 

Если

Т измеряется в секундах,

то получим размерность С в

дв. ед./сек.

 

 

 

Ниже мы определим С для наиболее часто встречающегося на практике случая, когда алфавит состоит из пг символов различной длительности и сигналы, составленные из этих символов, имеют длительность Т.

Затем покажем, что пропускная способность канала соответ­ ствует наибольшему среднему потоку информации, когде все воз­ можные комбинации символов разрешены.

Наконец, исследуем вопрос о том, как следует кодировать со­ общения для того, чтобы полностью использовать пропускную спо­ собность канала. Это приведет нас к практической постановке за­ дачи кодирования: дана совокупность сообщений и некоторый алфавит символов, требуется составить код, согласованный с ка­ налом, так, чтобы приблизиться по возможности к скорости пере­ дачи информации, равной пропускной способности канала.

Докажем, что эта задача разрешима и обсудим 'общие усло­ вия,-которые должны быть выполнены при кодировании -угля до­ стижения технического предела скорости передачи информации.

29

Соседние файлы в папке книги из ГПНТБ