Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бездудный, В. Г. Техника безопасности в шахтном строительстве

.pdf
Скачиваний:
5
Добавлен:
22.10.2023
Размер:
10.55 Mб
Скачать

что соответствует высокому уровню помех. Если Л и В статистически жестко связаны, то

Я (А/В) = 0; Я (А, В) = Н (А) = Н (В),

что соответствует низкому уровню помех либо полному их отсутствию. Таким образом, при передаче ансамбля сообщений А количество

информации в принятом ансамбле В, согласно выражению (58),

1(В,А) = Н ( А ) - Н ( А / В ) .

Однако на основании формулы (66) Я (AIB) = Я (В, А) — Я (В). Следовательно,

/ (В, А) = Н (А) + Н (В) — Я (В, А).

(67)

Известно, что

Н(А) = — 2 р (a,) log/? (а,); i

Н(В) = - ^ р ф ,) 1 о ш р ( Ь ,) ;

/

я (А, В) = - 2

2 р fa. */) lQg р fa . */) =

i

/

=—2 2 p fa) p fafa)los pfa) p fafa).

*

/

 

тогда

 

 

/ (В, Л) =

— 2 P («;) log p fa) — 2 P fa) log P fa) +

 

(

i

. +

P (a,-) P fa-fa) log p fa) p fafa)-

i

i

 

Умножив первое и второе слагаемые последнего равенства со­

ответственно на 2 Р (bjlcti) ~

1 и 2 Р {aJbj) = 1, получим

у

 

*

/(Б ,

А) = — ^ p ib jfa i) % p ( a l)\ogp(ai) — %p(ai/bi) 2 ip(bj)logp(bi)+

 

 

 

i

t

 

i

 

+ 2

2

p fa) p fa fa ) lo§ p fa) p f a f a ) = 2

2

p fa) p fa fa ) loe p fa) ~

i

i

 

 

 

i

i

 

 

— 2

2 p fa) p fa fa ) l0§ p fa) + 2

2 p fa) p fa fa ) log p fa) p fafa)-

 

i

i

 

i

/

 

 

(68)

 

 

 

 

 

 

 

 

Используя

(60),

второе слагаемое запишем в виде 2 2

P fa) P fa fa ) X

X log p fa).

 

 

 

i i

 

 

 

 

согласно

которому

 

Тогда,

используя свойство логарифмов,

 

 

 

— ft logaX k logaу + k loga 2 =

k l0gfl - J - ,

100

выражение (68) запишем в виде

I (B,A) = Y l'£iP(ai)Р (V at) log f /

P(at) Р (b j / a j )

Р(at) Р (Pi)

= S S p ( g« ) p ( W

10g - f

f •

(69)

Согласно формуле (60),

p (a.:, bj)

= p (bj,

a£) = p (6,) p

(ajbj) =

= p (a£) p (bjlcti), поэтому

 

 

 

 

/ (Я, 4) = S £

Р Ф\) p (ajbj) log

(70)

Выражения (69) и (70) позволяют определить среднее количество информации, содержащееся в принятом ансамбле сообщений В отно­ сительно переданного ансамбля сообщений А в условиях действия помех. Используя формулу (60), находим

/ (Л, 5) = / (В, А) = 5] S Р (at>bi) l°g P (b j l a j )

< /

P (bi)

 

P (ai/bj)

= S

S / 7(fli- bDIog

P (Д{. bj)

(71)

= % % P ( bh a0 log P (at)

P (<Ч) P (bj)

t i

i

i

 

 

Выражения (69) и (70) удобны при вычислениях, так как для определения количества информации в принятом ансамбле В относи­ тельно переданного ансамбля А используют вероятности, не прибегая

квычислению вероятности совместных событий Л и В. Выражение

(71)интересно тем, что оно иллюстрирует возможность выражения среднего количества информации как через энтропию источника со­

общений, так и через энтропию адресата. Так как I

(А, В) = I (В,

Л),

то можно сказать, что количество информации,

содержащееся в

В

относительно Л, равно

количеству информации, которое содержится

в Л относительно В.

Как видим, количество информации является

характеристикой как источника сообщений Л, так и адресата В. Коли­ чество информации характеризует взаимосвязь между источником сообщений и адресатом и является мерой соответствия принятых сигналов переданным.

Выводы: 1. Влияние помех в каналах связи полностью описывается канальной матрицей. При наличии канальной матрицы может быть подсчитана средняя условная энтропия для произвольного количества качественных признаков, а следовательно, и количество информации, передаваемой по симметричному каналу с шумами при любом основа­ нии кода.

2.Средняя энтропия может характеризовать информационные потери в канале связи с шумами.

3.Информационные характеристики реальных каналов связи могут

быть описаны при помощи как условной энтропии, так и энтропии

101

объединения, устанавливающей степень взаимозависимости между пере­ данными и принятыми сигналами.

4.Количество информации может быть определено как со стороны источника сообщений, так и со стороны адресата. Являясь отражени­ ем одного объекта другим и мерой соответствия состояний объектов на передающем и приемном концах, информация обладает свойством симметрии. .

5.При отсутствии шумов количество информации на элемент

сообщения будет равно энтропии. Вследствие свойства симметрии, эта энтропия может быть энтропией как источника, так и адресата.

Задачи к теме 11

1.

Ч е м у р а в н а у с л о в н а я э н т р о п и я и э н т р о п и я о б ъ е д и н е н и я , е с л и к а н а л ь н

м а т р и ц а и м е е т в и д

 

 

 

 

 

 

1 0

 

0

0

 

Р (b/а) =

0 1 0

 

0 э

 

0

0

1 0

 

 

0

0

0

1

2 .

В л и я н и е п о м е х в к а н а л е с в я з и о п и с ы в а е т с я с л е д у ю щ и м р а с п р е д е л е н и е м

л о в н ы х в е р о я т н о с т е й :

 

 

 

 

 

 

0,98

0,01

0,01

 

Р (bid) =

0,15

0,75

0,1

 

 

0 ,3

0 ,2

 

0 ,5

В ы ч и с л и т ь к о л и ч е с т в о и н ф о р м а ц и и , к о т о р о е п е р е н о с и т с я о д н и м с и м в о л о м с о ­ о б щ е н и я :

а ) п р и р а в н о в е р о я т н о м п о я в л е н и и с и м в о л о в в с о о б щ е н и и ;

б ) п р и в е р о я т н о с т я х р ( а { ) = 0 ,7 ; р (а 2) =

0 ,2 ; р ( а з ) = 0 ,1 .

В ы ч и с л и т ь к о л и ч е с т в о и н ф о р м а ц и и в с о о б щ е н и и , с о с т а в л е н н о м и з 4 0 0 б у к в

в т о р и ч н о г о а л ф а в и т а .

 

 

 

3 . К а н а л ь н а я м а т р и ц а и м е е т в и д

 

 

 

0,9

0,1

0

0

0,05

0,94

0,01

0

Р (bid) =

0,01

0,98

0,01 ‘

0

0

0

0,1

0,9

В ы ч и с л и т ь к о л и ч е с т в о и н ф о р м а ц и и в с о о б щ е н и и , с о д е р ж а щ е м 1 5 0 0 с и м в о л о в , и с г щ л ь з у я э н т р о п и ю о б ъ е д и н е н и я .

102

 

ТЕОРЕМЫ ШЕННОНА

Т ем а 12

О КОДИРОВАНИИ

В ПРИСУТСТВИИ ШУМОВ.

 

ПРОПУСКНАЯ СПОСОБНОСТЬ

 

ДИСКРЕТНОГО КАНАЛА СВЯЗИ

 

С ШУМАМИ

Пропускная способность канала связи определяется максимальным числом знаков, пропускаемых данным каналом связи в единицу време­ ни. При отсутствии помех пропускная способность ограничивается частотными характеристиками отдельных элементов канала связи, разрешающей способностью цифропечатающих аппаратов, инерцион­ ностью реле. В общем случае пропускная способность системы передачи информации при отсутствии помех определяется быстродействием аппаратуры приемно-передающего тракта.

Наличие помех приводит к неоднозначности между входными и выходными сигналами. Соответствие определенных значений принятых сигналов определенным значениям передаваемых сигналов уже лишь предполагается с различными степенями вероятности. Наличие по­ мех увеличивает неоднозначность, уменьшает количество принимаемой информации, а уменьшение количества информации за единицу време­ ни есть уменьшение пропускной способности. Таким образом помехи уменьшают пропускную способность канала связи.

Количество недостающей информации в сигнале, или, другими словами, неопределенность того, какой из сигналов ас источника сообщений А был передан, когда на выходе канала связи принят сигнал bj, является характеристикой влияния помех и равен условной эн­ тропии Н (А/В), которая численно равна неопределенности на пере­ данную букву.

Пропускная способность канала связи при наличии помех Сп вычисляется как произведение количества принятых знаков на раз­ ность энтропии источника сообщения и условной энтропии источника сообщений относительно принятого сигнала:

Сп = п [ Ц ( А ) - Н ( А / В )] .

(72)

Используя формулы (65) — (67), характеризующие свойства ус­ ловной энтропии и энтропии объединения, выражение (72) можно

представить в различных формах:

 

СП= п [ Н ( А ) - Н ( А / В )] = п[Н(В) ~ Н ( В / А )) =

 

= п[Н(А) + Н ( В ) - Н ( А , В ) ] .

(73)

Первое выражение представляет пропускную способность как раз­ ность передаваемой в секунду информации и неопределенности пере­ даваемой информации относительно принятой, второе — как меру принятой информации за вычетом информации, пораженной шумами,

103

а третье— как сумму переданной и принятой информации минус количество информации, обусловленное энтропией совместных собы­ тий [имеется в виду энтропия объединения Я (Л, б)].

Как видим, и в этом случае проявляется свойство симметричнос­ ти информации, позволяющее характеризовать систему передачи информации как со стороны источника, так и со стороны адресата, определяя во всех случаях степень соответствия переданных и приня­ тых сигналов.

Если проанализировать выражение (73), то нетрудно заметить, что чем больше значения энтропий Н (А) и Я (В), тем больше пропускная способность. Сами же энтропии Я (Л) и Я (В), в свою очередь, зависят от значений априорных вероятностей появления символов на входе канала связи и достигают максимальной величины при равновероятном распределении символов (см. рис. 10). Таким образом, максимальная пропускная способность достигается при равномерном распределении вероятностей появления символов на входе канала связи.

Это утверждение не справедливо лишь для случая, когда в ре­ зультате эксплуатации канала связи установлено, что помехи пора­ жают одни символы сильнее, чем другие Е Тогда, естественно, сигналы, которые ( чаще поражаются помехами, следует использовать реже. Выигрыш в значениях пропускной способности будет за счет уменьше­ ния членов Н (A/В) и Н (А, В), которые как раз и характеризуют

степень

влияния

помех на скорость передачи информации,

т.

е.

на пропускную

способность канала связи.

Если р (А / В ) =

0,

то

Я (А/В)

= 0 и

Н (А, В) = 0. Пропускная

способность при

этом

равна произведению энтропии источника сообщений на количество переданных знаков, т. е. равна пропускной способности канала связи при отсутствии шумов.

Рассмотрим более подробно соотношения в канале связи с шумами. При этом обозначим: А — ансамбль передаваемых сообщений, В — ансамбль принимаемых сообщений, Я (А ) — энтропия источника со­ общений, неопределенность того, какой символ будет передан; Я (В) — неопределенность того, какой символ будет принят от данного источ­ ника сообщений по данному каналу связи; Я (В/А) — условная эн­ тропия, характеризующая степень неопределенности принятой ин­ формации; Н (А/В) — неопределенность того, что было передано А, если принято В; Н (Л, В) — неопределенность того, что будет передано А, а принято В; Т — длительность сообщения (время использования канала связи); п — количество символов в сообщении за единицу времени; пТН ( А ) — общее число переданных двоичных символов

за время Т ; 2пТН(А) — приблизительное число высоковероятностных последовательностей передаваемых сигналов; 2 пТН {В) — приблизи­ тельное число высоковероятностных последовательностей принимае-1

1 Такие случаи редки, но возможны. Например, наличие постоянной помехи на одной из частот при передаче сигналов с частотными качественными признаками.

104

Рис. 23. Веер высоковероятностных последовательностей передаваемых и принимаемых сигналов.

мых сигналов; 2 пТН<л,в> — приблизительное число высоковероят­ ностных последовательностей передаваемых сигналов а, которые могут

привести к приему сигнала 6; 2пТН (В/Л>— приблизительное число высоковероятностных последовательностей принимаемых сигналов Ь, которые могут быть получены в результате передачи сигнала а.

Предположим, при передаче сигнала а{ мы должны были получить сигнал bj. В результате действия помех может быть получен какой-то другой сигнал. Если проделать много опытов, то получим группу

сигналов, условно изображенных на

 

В

рис. 23 в виде

веера.

Естественно

Of

b'2

предполагать, что

сигналы, мало от­

 

личающиеся от bj, чаще встречают­

 

 

ся, чем сигналы,

резко

отличающие­

 

 

ся от bj. Например, был передан код

 

 

01011.

В результате действия помех

 

 

может

исказиться

один

из символов,

 

 

имы получим:

но ш

оооп |

о н и U .

01001

о ю ю

Вероятность того, что одновремен­ но два символа исказятся таким

образом, что две единицы будут приняты как два нуля, уже меньше. И совсем маловероятно, хотя теоретически допустимо, что все знаки будут приняты как противоположные. Поэтому группа кодов S может быть отнесена к высоковероятностным последовательностям принимае­ мых сигналов при передаче сигнала 01011, а код 10100 — к маловероят­ ностным последовательностям.

При вычислениях учитывают только высоковероятностные последо­ вательности сигналов, а они могут лишь приблизительно характеризо­ вать возможное число принимаемых сигналов.

Если при отсутствии помех каждой принятой последовательности

двоичных

символов соответствовало пТН (Л) = log2 М или М =

= 2пГн{Л),

переданных за зремя Т сообщений, то при наличии помех

каждой принятой последовательности сообщений будет соответство­ вать уже

1ПТН(А/В)

М'

(74)

 

последовательностей переданных сообщений. В выражении (74) учтено действие помех введением условной энтропии. Если существует неодно­ значность приема, когда одному посланному сигналу могут с какой-то

105

вероятностью

соответствовать

несколько

сигналов, то

всегда

М ’ > М и 2пТЩА1В) > 2пТШ), т.

е. пТН (А/В)

> пТН (А).

 

Вероятность р принять правильный сигнал равна отношению

благоприятного числа событий ко всему числу событий:

 

 

р =

J L . =

2 пТ1ИШ ~ И{-А 1 т

 

(75)

Так как

принятому

сигналу b/

соответствует

2пТН{Л/В)

высо­

ковероятностных последовательностей

отправленных

сигналов, то

средняя вероятность того, что, кроме одной точки веера (рис. 23),

соответствующей отправленному сообщению, все остальные 2пТ1,(А/в> сигналов являются ложными, или, другими словами, вероятность

безошибочного приема

 

 

 

 

р

2ъТ\Н{А)Н{А[В)]^

2 пТН{А/В)

(76)

где 1 — 2 пТщщА)~Н{А/вЯ — вероятность

ложного

приема.

 

Выражение (76) позволяет перейти непосредственно к доказатель­ ству основной теоремы Шеннона о кодировании в присутствии шумов.

Теорема 1. Если источник с энтропией Н (А) создает информацию на входе шумящего канала без памяти со скоростью R, меньшей про­ пускной способности С данного канала связи, то существует такой код, при котором вероятность ошибки на приемном конце сколь угодно мала.

Так как R <

С, то можно записать, что С — R = т),

или

 

 

 

 

R =

С — г),

 

 

 

 

где TJ — какое-то

положительное

число.

 

г), что позволяет

С другой стороны, С =

Н {А) Н (А/В) == R

записать

 

R - H ( A ) = — H(A!B)— т].

 

 

(77)

 

 

 

 

Если источником сообщения создается

2nRT сообщений, а может

быть создано 2nTHiA),

то для этого

случая

вероятность правильного

приема

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n t i R T

_

2пВН-ЩАП

 

 

(78)

 

 

^

2п Т Н ( А )

 

 

 

 

 

 

 

 

 

а выражение (76) примет вид

 

 

 

 

 

 

 

 

р = (1 _ 2 пТ^ - П (А ЛупТ ЩА/ В)

 

 

(79)

 

 

 

 

 

 

 

 

 

 

Подставив выражение (77) в формулу (79), получим

 

р _ ( 1 _2пП- И(А/Б)~'п]у пГЩА/в> = ( 1 __2rnTH<'AIB)~nT4f

пТН(А/В) (80)

Из

выражения

(80)

видно,

что

при

п Г ->

со

lim р = 1,

т. е. при

кодировании достаточно

 

 

 

 

пТ

длинными блоками, вероятность

106

безошибочного приема можно сколь угодно приблизить к единице, а вероятность ошибки — к нулю.

Вторая часть основной теоремы доказывается особо и в литературе фигурирует как вторая теорема Шеннона о кодировании в присутствии шумов. Доказательство этой теоремы приводим по Ф. П. Тарасен­ ко [32].

Теорема 2. Если Я ■< С, то при кодировании достаточно длинными блоками среди кодов, обеспечивающих сколь угодно малую вероятность ошибки, существует код, при котором скорость передачи информации

Rсколь угодно близка к скорости создания информации Я.

Вусловиях шумов скорость передачи информации

R = Н — Н {А!В),

(81)

где Я (AJB) — апостериорная энтропия переданного сигнала, харак­ теризующая минимальную избыточность на символ, необходимую на восстановление информационных потерь в канале связи, т. е. ту вели­ чину информации, которой не достает, чтобы передача велась со ско­ ростью С.

Доказав, что существует код, при котором Н (А/В) сколь угодно мала, мы докажем теорему.

Пусть вероятность ошибки при приеме сигнала равна р (е). Тогда количество информации на символ, необходимое для обнаружения

ошибки, может быть найдено из неравенства

 

Н (А/В) < Я (е), 1 — р (е)] + Я (k),

(82)

где Я (k) — количество информации, необходимое для

обнаружения

искаженного символа.

 

Если алфавит состоит из т символов,то количество

информации,

требующееся на обнаружение одного искаженного символа,

Я (k) < р (е) log — 1),

(83)

откуда

 

Я (Л /Б )< — p(e)logp(e> — {1 — p(e)log[l — р(е)]} + р (е) log — 1). (84)

Для сигнала любой длины выражение (84) записывается следующим образом:

Я * (Д /Б )< —-aloga — (1 — cs)log(l — a) -f-alog(Ar — 1), (85)

где Я* (А/В) — апостериорная энтропия переданных сигналов; а — вероятность ошибочного отождествления сигнала; N = тп — число сигналов; п — число символов в сигнале.

Очевидно, что формулу (85) можно записать в виде

Я* (А/В) < 1 + a log (Я — 1) < 1 + апС,

(86)

откуда количество недостающей информации на символ

Я (А/В) = Я*

•• < 4 - + ссС.

(87)

107

Так как (согласно основной теореме) а может быть сделано сколь угодно малым, то при кодировании достаточно длинными блоками (п оо) рассеяние информации в канале связи также можно сделать сколь угодно малым. При этом скорость передачи R будет сколь угодно близка к скорости создания информации Н.

Доказанные выше теоремы Шеннона не указывают на конкретный метод кодирования, при котором с бесконечно малой вероятностью ошибки скорость передачи информации могла бы быть сколь угодно близкой к пропускной способности. Этого метода не найдено по сей

день.

Такой

достоверности

существующие

методы

кодирования

не

 

 

 

обеспечивают и

при

скоростях,

значительно

 

 

 

меньших С. Сам Шеннон считает,

что попыт­

 

 

 

ка

осуществить

хорошее

приближение

к

 

 

 

идеальному кодированию по методу, приме­

 

 

 

ненному в

доказательстве \

вообще

говоря,

 

 

 

представляется непрактичной.

 

 

 

Рис. 24.

Модель

симмет­

 

Нет ничего

удивительного, что при пе­

ричного

бинарного кана­

редаче информации путем введения огромной

ла.

 

 

избыточности или бесконечным

повторением

 

 

 

сигналов может быть достигнута сколь угодно

малая ошибка даже при наличии помех.

Но скорость передачи инфор­

мации при этом будет стремиться к

нулю.

 

 

 

каналов

При вычислении

пропускной

способности реальных

связи действие помех учитывается вероятностями рп ложного приема. При этом, вероятность рп правильного приема pn = 1 — рл. Если по каналу связи передаются дискретные сообщения при помощи равнове­ роятных качественных признаков, соответствующих 0 и 1, то интен­ сивность помех характеризуется вероятностями перехода 0 в 1 и на­ оборот, т. е. соответствующими условными вероятностями.

Рассмотрим теперь выражение для пропускной способности сим­ метричного бинарного канала. При этом бинарным будем называть канал связи, в котором сообщения передаются при помощи двух ка­ чественных -признаков. Бинарный канал, в котором вероятности лож­ ных переходов равны друг другу и вероятность правильного приема одного сигнала равна вероятности правильного приема другого сигна­ ла, будем называть симметричным. Модель симметричного бинарного

канала представлена на рис. 24.

 

 

 

=

Так

как в симметричном

 

бинарном

канале

р (V0) = Р (°/i) =

рл и

рВ (1) = рВ (0) =

1 — рл, то

для

него

Н (В/А) =

=

,— Ip Jog2p*

+

(1 — рл) log2

0 — рл)1, а С, согласно формуле (73),

 

 

Сп

=

n [1 + рл log2

рл + (1 — рл) log2 (1 — рл)].

(88)

Из симметрии бинарного канала следует, что максимальная скорость передачи информации будет достигнута для источников,

Имеется в виду доказательство основной теоремы для канала с шумами.

1 P S

у которых вероятности передачи 1 и 0 равны. Тогда р (1) = р (0) =

=V2, а

Н(Л) = Н (В) = — (V2 log2 Vg + V2 log2 V2) = 1 бит/символ.

Именно эту единицу и видно в выражении (88), а остальная его часть — условная энтропия, которую мы отнимаем от энтропии источника (либо адресата). Если в выражении (88) значения рл достигают 0,5, то нарушается всякая корреляция между переданными и принятыми сигналами, а пропускная способность такого канала связи равна нулю. Как заметил Шеннон, в таком случае можно получать столь же «хоро­ шую» информацию, подбрасывая монету в точке приема, обходясь вообще без канала связи.

Перейдем теперь к выводу общего выражения для бинарного ка­ нала с шумами без памяти, под которым будем подразумевать канал связи со статистической независимостью искажений передаваемых символов.

Предположим, передаются сигналы Л (0) и Л (1), априорные вероятности которых рА (1) и рА (0) = 1 — рА (1), вероятности лож­ ных переходов р (%) и р (1/0), вероятности правильного приема р (1/1) = = 1 — р (%-) и р (°/0) = 1 — р (х/о). На приемном конце переданному сигналу Л (1) соответствует принятый сигнал В (1), а сигналу Л (0) — сигнал В (0). В этом случае, согласно правилам теории вероятностей, вероятности правильного приема сигнала:

 

pB (1) =

рЛ (1) [1 — р (%)] +

[1 — рЛ (1)] р (Vo);

 

рВ (0) =

[1 - рЛ (1)] [1 - р (Vo)] + рЛ (1) р (%).

Энтропия принятых сигналов

 

н (В) =

— 2

Pc log2 Pi =

1рВ (1) log2 pB (1) + pB (0) log2 pB (0)J.

 

i=\

 

 

 

 

Условная энтропия, согласно формуле (24),

 

Н (В!А)

= — 2

2 Р (а>) Р

logs Р (bjfat) =

 

 

 

i

i

 

= — S

p

S p № < )

( V a<) =

— рл (i)[p ov) iog2 p (Vi) +

t.i

+ P (°/i) log2 p (“/x)] — P^ (0) [p (°/o) log2 P (°/o) + p (1/„) log2 p (Vo)]•

Пропускную способность таких каналов связи удобно вычислять при помощи вспомогательных таблиц. Примером может служить табл. 18, составленная для случая, когда вероятности появления 0 и 1 равны. Для вычисления Сп достаточно соответствующие значения из табл. 18 подставить в выражение (73).

Рассмотрим конкретный пример расчета пропускной способности

канала связи,

когда задан процент искажения полезных сигналов

под действием

помех.

109

Соседние файлы в папке книги из ГПНТБ