
книги из ГПНТБ / Вулконский Б.М. Теория автоматического управления учебное пособие
.pdfВ |
силу симметрии команд из общего числа вероятностен |
Р(Л^, |
равного 64, вероятности, расположенные по диагонали таб |
лицы, |
встретятся по четыре раза, а остальные — по восемь раз. |
Поэтому можно записать:
i = — 4 [0,04 log 0,04 + 0,0225 log 0,0225 + 0,01 log 0,01 -|-
,-)- 0,0025 log 0,0025] — 8 [0,03 log 0,03 -|-
-Ь 0,015 log 0,015 + 0,005 log 0,005 + 0,02 log 0,02 +
-Ь 0,0075 log 0,0075 + 0,01 log 0,011=
= 1,6 -\-4 — 5,6 дв. ед.
П р и м е ч а н и е . |
При решении |
задач, связанных с вычислением энтропии |
и информации, мржно |
пользоваться |
таблицей значений — Р log2 Р (прилож. 1). |
4.Телеметрическая аппаратура ракеты наблюдает за состо
нием трех элементов системы управления А\, А2 и А 3. Выход из строя некоторого элемента сопровождается передачей на команд
ный пункт |
сигнала с |
указанием номера |
неисправного |
элемента |
||||
«1, а2, аз. |
Расшифровка |
сигналов телеметрической |
станции |
на |
||||
командном пункте сопровождается ошибками так, что |
в среднем |
|||||||
один сигнал |
из ста |
расшифровывается |
неверно: |
Я] |
вместо |
а2, |
||
оI вместо а3, |
а2 вместо ci\ |
и т. д. Причем |
ошибкам |
в равной |
сте |
пени подвержены все сигналы.
Вероятности выхода из строя отдельных Элементов системы управления составляют: Р(А\) =0,5; Р(А2) =0,25; Р(А3) = 0,25. Определить:
— количество информации в сигнале телеметрической станции после расшифровки; v
— то же, в предположении, что ошибки в расшифровке отсут ствуют.
Р е ш е н и е .
ш |
п |
га |
|
1 = -г-^Р{А>) log Р ( А ,) + 2 Р ( О |
2 |
Р »kH j) log Рак(А,) . |
|
j = l ■ |
k = l |
j= l |
|
Чцсло исходов-схемы А равно трем ( т |
= |
3). Число исходов схе |
|
мы а также равно трем |
(п = 3). |
|
|
- Определим вероятности, входящие в выражение для условной
энтропии схемы А: |
> |
• |
|
|
Я (ак) = 2 |
Р И № г (ак); |
|
|
j= i |
|
|
|
РК. (ак) = |
| 0»99 |
приу = ^ |
|
1 |
10,005 |
при j Ф k |
20
Тогда
Р (< Z j) — 0,5• |
0,99 + |
0,25■0,005 |
+ |
0,25• 0,005 = |
0,498 |
||||
Р (а,) = |
0,5 • |
0,005 |
+ |
0,25 |
• 0,99 |
+ |
0,25 • 0,005 |
= |
0,251 |
' Р (а3) = |
0,5• 0,005 |
+ |
0,25 |
• 0,005 + |
0,25 • 0,99 |
= |
0,251 |
||
|
|
|
|
|
|
|
(ак) |
|
|
Рак Hj) = |
Р{ак) . |
|
Составим таблицу вероятностей Р„к(Л+
i = - {0,5 log 0,5 + 0,25 log 0,25 + 0,25 log 0,25) +
+10,498 [0,995 log 0,995 + 0,0025 log 0,0025 +
+0,0025 log 0,0025] + 0,251 [0,0095 log 0,0095 +
+0,986 log 0,986 4- 0,0045 log 0,0045] +
+0,251 [0,0095 log0,0095+ 0,0045 Iog0,0045 +
+ 0,986 log 0,9861) - 1,5 — 0,09 = 1,41 дв/
Если ошибки в расшифровке отсутствуют, то
з
i = — 2 Z3 (>lj) log Z3 (w4j) = 1,5 дв. ед. j=i
§ 2. ПЕРЕДАЧА ИНФОРМАЦИИ ПО КАНАЛУ СВЯЗИ
Во всех случаях информация передается по каналу связи в виде закодированного тем или иным способом сообщения — си гнала. Элементами кода являются символы. Полный набор ис пользуемых кодом символов составляет алфавит кода. Сигнал представляет определенную последовательность символов.
Так, например, в системе командного телеуправления ракетой, использующей импульсный код, сообщением является команда, пропорциональная величине и знаку отклонения ракеты от тре буемой траектории, сигналом — последовательность импульсов (кодовая группа), соответствующая команде, источником сигна-
21
лов (информации)— передатчик команд, символами кода — им пульсы, отличающиеся по некоторому параметру (амплитуде, дли
тельности и т. и.).
При проектировании канала связи априорные вероятности си гналов (сообщений) обычно не известны, а если и известны, то они не могут быть изменены по нашему усмотрению. Вместе с тем, эффективность канала, как мы увидим, ниже, зависит именно от распределения вероятностей источника. Поэтому в теории ин формации источник рассматривается как генератор символов кода. Алфавит кода с вероятностями появления отдельных симво
лов образует схему исходов. |
символов |
зависят от |
||
Алфавит кода |
и |
вероятности |
||
нашего выбора |
и, |
следовательно, |
могут |
быть выбраны |
так, чтобы каждый символ содержал максимальное количество • информации. А если это так, то и сигнал, поскольку он представ ляет некоторую последовательность символов, будет содержать максимум информации, т. е. канал будет использоваться эффек тивно.
Сигналы (символы) источника информации проходят по ка налу от входа до выхода и выдаются адресату в виде декодиро
ванного (восстановленного) сообщения. Если |
при прохождении |
по каналу на сигнал (символы) воздействуют |
помехи, то на вы |
ходе сигнал оказывается искаженным. В этом случае сигналы на выходе канала перестают быть однозначно связанными с сигна лами на входе, между ними сохраняется только статистическая связь.
Если рассматривать набор символов кода А\, А2, ... , Ат и вероятности их появления на входе канала Р( АХ), Р(А2),
Р{Ат) как первую схему исходов, а набор символов а|, а2........ а„
ивероятности их появления на выходе канала Р(аi), Р(а2) .........
Р(а„) как вторую схему, то, согласно (26), средняя информация,
передаваемая по каналу одним символом, равна
m |
п |
m 4 |
i — — У^Р{Ад Io g P H jH - 2 р (аь) 2 |
||
j=l |
k=! |
j=l |
(28),
Тогда, информация, ^переносимая сигналом из G символов,
/ = iG дв. ед./сигнал. |
(29) |
В отсутствии помех формула (28) превращается в равенство: - '
Ш |
|
i = — ^ P (A j) logP(Aj) дв. ед./символ, |
(30) |
j=i |
’ |
так как в этом случае каждый символ на входе однозначно опре деляется символом на выходе. *
22
Таким образом, условная энтропия в формуле (28) является характеристикой искажающих свойств канала, и, следовательно, при проектировании канала всегда следует стремиться к увеличе нию безусловной и уменьшению условной энтропии.
Взаключение отметим, что поскольку
Р(^j) ЯЛ.(ak) = Р (#k) Рак Hj ) ;
Я( Л з ) = 2 ^ К ) Я йк(Л]);
Я (як) = 2 |
Я И ])Я А](ак), |
j |
|
то для вычисления информации, наряду с (28)', можно пользо ваться формулой
|
II |
, |
|
Н1 |
П |
' , |
|
|
/ = - |
^ |
Я К ) |
log/ > ( ^ + |
2 |
2 ^ ( а ) 1 о &Я^. (ак). |
(31) |
||
|
к=1 |
|
|
i= l |
к=1 |
|
|
|
П р и м е р ы . |
телеизмерения |
работает |
кодом |
из |
четы |
|||
5. |
Линия |
|||||||
рех |
символов: |
Aj, Л2, Л3, |
Л4. |
Вероятности |
появления |
символов |
||
кода составляют: Я (Л,) =0,4; |
Я(Л2)=0,3; |
Р(А3) = 0,2; |
Р(А4)= 0,1. |
Помехи и искажения при передаче отсутствуют. Определить:
—среднюю информацию на символ сигнала;
—среднюю информацию на сигнал из '1000 символов.
Чrn
Р е ш е н и е . i = -- ' У Р (А{) log Я (Лj) ; j=i
i = — 0,4 log 0,4 — 0,3 log 0,3 — 0,2 log 0,2 — 0,1 log 0,1 =
= 1,85 дв. ед./симв.
Информация на сигнал из 1000 символов равна:
/= = /•1000= 1850 дв. ед./сигнал.
6. В счетно-решающем комплексе приборов управления стрель бой информация передается от блока Т к блоку И кодом из -ш символов: Л], Л2, ... , ЛП). Символы равновероятны. При правиль ной передаче, в блоке И, символу А\ соответствует символ аь символу Л2 — а2 и т. д. до Лт — а т . Канал Т — И подвержен влиянию помех так, что каждый из символов, будучи искажен ным, может перейти в любой из оставшихся. Обозначим вероят ности правильной передачи и ошибки р и q, соответственно. Опре делить среднюю информацию на символ, передаваемую* от бло ка Г к блоку И.
23
Р е ш е н и е : / = Н (Л) — На(А/) ;
1
Н (А) = — V p (/\j) lo g P (/li) = logwt, так как P(/lj) = ---- ; i=1
Ш111
|
На (А) = - v Р ( |
C h V) |
Рак (Ai) log я«к И j); |
|
|
|
р |
при |
h = j |
|
Л ,„ М )> Ч |
г, |
"Р" |
, . |
|
1 ~ = i |
* * 1 |
||
На [А): |
p\ogp-\-g\og- |
я |
, |
так как "V Я (ак) = 1; |
|
|
HI — |
1 |
к-1 |
|
|
|
|
|
i ==; log т -г Р logp + q log - т — 1 |
дв. ед./символ. |
§3. КОДИРОВАНИЕ СООБЩЕНИИ. КОРРЕЛЯЦИЯ
ИИЗБЫТОЧНОСТЬ КОДА
На пути от источника к адресату информация, как правило, проходит различные участки канала и каждый в отличном от дру гих физическом алфавите. Так, при радиопередаче сигнал, содер жащий информацию, представляет, собой то звуковые колебания, то колебания электрического поля, то колебания электромагнит ного поля и т. д.
Преобразование сообщения из одного физического алфавита
вдругой осуществляется на границах отдельных участков канала
вразличных преобразователях. Процесс преобразования сооб
щений заключается в сопоставлении*символов первого |
алфавита |
с символами второго так, чтобы сохранить передаваемую инфор |
|
мацию. Такое сопоставление алфавитов называется |
кодирова |
нием, преобразователь |
информации — кодирующим |
устройством, |
а правило, по которому |
производится преобразование, — кодом*. |
|
В дальнейшем во избежание путаницы будем |
называть эле |
менты алфавита, подлежащего кодированию, «знаками» в отличие от «символов», как элементов алфавита кода.
Кодирование, однако, не сводится только-к замене одного фи зического алфавита другим. В процессе кодирования может из мениться множество символов и их вероятности. При кодирова-
_________ |
\ |
* Иногда кодом называют сам набор , смысловых кодовых комбинаций |
|
символов. |
t |
24
нии один знак может сопоставляться с комбинацией или группой символов, и наоборот, или же группа знаков сопоставляться с группой символов.
Поскольку при кодировании может меняться множество, сим волов и распределение вероятностей символов, то, очевидно, мо жет меняться и энтропия на символ, по сравнению с энтропией на знак. Выбирая один из возможных кодов, можно, следователь но, н'айти такой код, который имеет наибольшую энтропию на символ, или, другими словами, наименьшее число символов на то же количество информации. Такой код будет наиболее эконом ным, так как потребует наименьшего числа символов и наимень шего времени передачи. Однако прежде чем перейти непосредст венно к проблемам оптимального кодирования, необходимо озна комиться с рядом определений.
Код называется н е р а в н о м е р н ы м , если число символов в его кодовых комбинациях различно.
Код, число символов во всех кодовых комбинациях которого
одинаково, называется р а в н о м е р н ы м . |
о с н о в а н и е м |
Число символов в алфавите кода называется |
|
кода и обозначается т. |
|
Если имеется М сообщений, каждое из которых состоит из G |
|
знаков, и их необходимо закодировать кодом с |
основанием /п, |
то среднее необходимое чйсло символов на один исходный знак составит
Н |
символов |
(32) |
г — ----------------------- , |
||
log «г |
знак |
|
где Н — энтропия на знак источника сообщений, дв. ед./знак; log/и— максимально достижимая энтропия на символ кода,
дв.ед./символ.
Следовательно, для записи полного сообщения из G знаков требуется в среднем не менее.
_ |
символов |
(33) |
п __ п г |
-----------------сообщение |
|
^ |
|
Если G достаточно велико, то GH = log М
^ _ log М |
символов |
(34) |
|
16g/?z |
сообщение ’ |
||
|
т. е. мы приходим к случаю равномерного кода. Действительно, для равномерного кода число сообщений М, составленных из пг символов при сочетании их по R равно
M = mR,
откуда следует формула (34).
• 25
Число R, образующее смысловую кодовую комбинацию рав-_ номерного кода, называется разрядом кода. По аналогии, число R [формула (33)] может быть названо средним разрядом неравно мерного кода.
В ряде случаев число символов на кодовую комбинацию, рас считанное по формуле (34), Сказывается дробным, поэтому для практических расчетов (34) преобразуют к виду:
|
R = Q |
log М |
+ |
1» |
(35) |
|
log т |
||||
|
|
|
|
|
|
где Q |
log Ж |
часть |
log Л? |
|
|
— целая |
log т |
|
|||
|
log ш |
|
|
||
Формулы (33) и (34) определяют тот необходимый минимум |
|||||
символов |
кода на исходное |
сообщение, |
к которому |
нужно стре- |
|
митьсяпри кодировании. |
|
|
|
|
Решение же вопросов о способах достижения этого минимума, оптимальности того или иного кода, его эффективности представ ляет значительно более сложную задачу, к рассмотрению которой
мы и перейдем. |
некоторый код. |
Пусть'5 между |
соседними |
симво |
||||
Рассмотрим |
||||||||
л а м и алфавита |
кода существует корреляция. |
Для |
каждой |
пары |
||||
символов |
свяжем некоторую переменную х |
с |
первым |
символом, |
||||
а у — со |
вторым. Тогда неопределенность |
такого |
кода |
найдется |
||||
по формуле для условной энтропии |
|
|
|
|
|
|||
|
^ |
x O 0 = - 2 p w |
2 1 Px()') l o s |
^ |
(-l')- |
|
|
(36) |
|
|
X |
у |
|
|
|
|
|
Формула отражает неопределенность в отношении следую щего символа, если известен предыдущий. Если бы корреляция между символами отсутствовала, тЬ неопределенность кода харак теризовалась бы безусловной энтропией
^ ( y ) = - 2 p ( y ) |o g />(y)- |
(37) |
Но поскольку всегда # х (у) < Н (у), то, следовательно, корре ляция всегда уменьшаёт среднее количество информации на сим вол.
Это рассуждение можно отнести и на случай, когда корреля ция распространяется на сочетание символов. Формула (36) справедлива и для этого случая, только переменная х связыва ется теперь с некоторым сочетанием символов, а у — с символом, следующим за этим сочетавшем.
26
Отношение энтропии данного кода при наличии определенных вероятностных ограничений и корреляции между символами к энтропии, кода, составленного из тех же символов в отсутствии каких-либо взаимных связей и ограничений, характеризует вели чину, на которую удлиняются сигналы при использовании этого кода, по сравнению с минимально потребной длиной. Это отно шение носит название относительной энтропии кода. Величина, равная
1 = 1 |
Н |
(38) |
|
называется избыточностью кода. |
Очевидно, что нулевой избыточ- 4 |
ностью обладает единственный код, при котором появление всех символов независимо и равновероятно.
Изложенные соображения подводят вплотную к проблеме оп тимального кодирования.
Наилучшим является тот метод кодирования, при котором обеспечивается минимальная избыточность и, следовательно, мак симальное количество информации на символ.
Если i есть средняя информация на символ, и если символы выдаются на вход канала (участка канала между кодирующим
и декодирующим устройствами) |
со скоростью v символов |
в сек., |
то поток информации |
|
|
i ' = i V дв. |
ед./сек. |
(39) |
Смысл операции оптимального кодирования заключается в наиболее эффективном согласовании потока информации или ско рости передачи информации с пропускной способностью канала. Действительно, при ограниченной пропускной способности канала увеличивать поток информации сверх некоторого значения за счет выбора все более и более экономичного кода не имеет смысла, так как канал сам по себе будет неспособен справиться с таким по током. П'оэтому прежде всего следует обсудить свойства канала
него пропускную способность.
Пр и м е р ы .
7.Закодировать двоичным кодом (т = 2) ансамбль в 27 сооб щений, каждое из которых состоит из трех знаков: A i, Л2 и А3.
Причем, |
вероятности знаков равны: Р ^ ) =0,25; Р(Л2) =0,25; |
Р(А3) = |
0,5. |
Определить:
—среднее необходимое количество символов кода на одни знак сообщения;
—требуемый средний разряд неравномерного кода;
. — требуемый разряд равномерного кода без учета вероятно стей появления отдельных сообщений.
27
Р е ш е н и е. г = |
Н(А) |
; |
|
log т |
|||
|
|
Н (А) — — 0,25 log 0,25 - 0,25 log 0,25 - 0,5 log 0,5 =
=1,5 дв. ед./знак;
г■
log tu = log 2 |
= 1 дв. ед./символ; |
|
|
г = 1 ,5 |
|
символов'знак; |
4 |
R = |
Gr- |
|
|
R y |
|
3-1,5 = 4,5. |
|
Требуемый разряд равномерного кода, считая все сообщения
равновероятными равен: |
|
log Ж |
|
||
|
R = Q |
+ 1 ; |
|||
|
log m |
||||
|
|
|
|
||
R - Q |
log 27 |
+ |
1 = Q [4,75] + 1= 4 + 1 = 5 . |
||
log 2 |
|||||
|
|
|
|
8.Ансамбль сообщений закодирован кодом с основанием т =
Вероятности |
символов кода равны: Р(А]) =0,8; |
Р(Л2) |
=0,1; |
||||
Р(А3)= 0 ,1 . |
Корреляция |
между |
символами |
кода |
отсутствует. |
||
Определить избыточность кода. |
|
|
|
|
|||
Р е ш е н и е . I — 1 |
Я ( Л ) |
|
|
|
|
||
Н (Л)„ |
|
|
|
|
|||
|
|
|
|
|
|
||
Н (А) = - V |
Р (Aj) log Р И ,) - - |
0,8 log 0,8 - |
0,2 log 0,1 = |
0,92; |
|||
|
^И )щ ах = |
log/л = log 3 = 1,58. |
|
|
О 92
/=1~tS; = 0'42-
Избыточность кода составляет 42%.
§ 4. ОПРЕДЕЛЕНИЕ КАНАЛА И ЕГО ПРОПУСКНОЙ СПОСОБНОСТИ
Проектирование канала всегда начинается с определения вида связи (проводная, акустическая, оптическая, радио и т. п.) и установления физических возможносте/i этого вида. Затем возникает техническая проблема построения системы символов (алфавита), согласованной с выбранным каналом и удовлетворяющей задачам связи: импульсы постоянного тока, Паузы, сигналы различной ин тенсивности, частоты, полярности и т. д. Если этот выбор сделан, тем самым определен канал.
28
Для обсуждения вопроса со статистической точки зрения до статочно рассматривать применяемую совокупность т символов ,4Ь А2, . . . , А j , А т и их длительности tu 12, . . . , tp . . . , 1т. Физическую природу этих символов в дальнейшем можно игнори ровать, только их длительности играют роль в дальнейшем обсуж дении.
Предположим, что символы независимы и произвольная щ по следовательность способна представить некоторое сообщение. Полная длительность сигнала (кодированного сообщения) Г есть сумма длительностей /j отдельных символов, составляющих си гнал.
Обозначим М ( Т ) — число возможных сигналов длительности Т, различающихся выбором символов и порядкомих размещения. Будем считать, что все М сигналов длительностью Т априори рав новероятны. Тогда информация на один такой сигнал
/ |
= log М (Т). |
(40) |
Скорость, с которой |
информация передается |
по каналу, равна |
ЦТ. Эта скорость изменяется с изменением Т, но можно показать, что во всех практически интересных случаях она стремится к не которому пределу при неограниченном возрастании Т.
Этот |
предел называется п р о п у с к н о й |
с п о с о б н о с т ь ю |
||
к а н а л а |
и обозначается |
|
|
|
|
С = lim |
l0g^ |
r) . |
(41) |
|
Т-*«е |
/ |
|
|
Если |
Т измеряется в секундах, |
то получим размерность С в |
||
дв. ед./сек. |
|
|
|
Ниже мы определим С для наиболее часто встречающегося на практике случая, когда алфавит состоит из пг символов различной длительности и сигналы, составленные из этих символов, имеют длительность Т.
Затем покажем, что пропускная способность канала соответ ствует наибольшему среднему потоку информации, когде все воз можные комбинации символов разрешены.
Наконец, исследуем вопрос о том, как следует кодировать со общения для того, чтобы полностью использовать пропускную спо собность канала. Это приведет нас к практической постановке за дачи кодирования: дана совокупность сообщений и некоторый алфавит символов, требуется составить код, согласованный с ка налом, так, чтобы приблизиться по возможности к скорости пере дачи информации, равной пропускной способности канала.
Докажем, что эта задача разрешима и обсудим 'общие усло вия,-которые должны быть выполнены при кодировании -угля до стижения технического предела скорости передачи информации.
29