Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Основы дальней связи

..pdf
Скачиваний:
4
Добавлен:
12.11.2023
Размер:
2.63 Mб
Скачать

Д ля более полной оценки достоверности необходимо, кро­ ме средней величины вероятности ошибки, знать закон рас­ пределения ошибок. По характеру распределения ошибки под­ разделяются на независимые и коррелированные. В первом случае отдельные ошибки в последовательных кодограммах статистически независимы, а во втором — статистически свя­ заны.

$ 1.4. ПОМЕХОУСТОЙЧИВОСТЬ СИСТЕМ ДАЛЬНЕЙ СВЯЗИ

Помехи оказывают наиболее сильное влияние на величину достоверности. Причем влияние помех одного и того же ха­ рактера будет различным в зависимости от действия других факторов, снижающих достоверность.

Способность системы связи противостоять вредному дей­ ствию помех называется ее помехоустойчивостью. Помехо­ устойчивость оценивается с помощью энергетического и веро­ ятностного критериев. Энергетическим критерием пользуются в том случае, если неизвестны статистические характеристики сигнала и помех. Тогда для оценки помехоустойчивости слу­ жит коэффициент энергетического выигрыша:

 

 

 

e3r -- h ]jh \,

(1.4.1)

где

2

2

- превышение

сигнала над помехой на вхо­

hc

и hc

де

и выходе

приемника. Чем

больше

этот коэффициент,

тем меньше средняя мощность входного сигнала Р ( для

обеспечения заданного значения

h \ , соответствующего тре­

буемой

величине вероятности ошибки

Р 0.

При использовании вероятностного критерия помехоустой­

чивость

характеризуется зависимостью

 

 

P «= f(h] ) = /

| ) .

(1.4.2,

где А~ — превышение сигнала-над помехой:

V' -

Ж

удельная энергия сигнала средней мощности Р сУ

 

длительностью Т и шириной спектра

А/с;

 

 

 

2

“л

спектральная плотность аддитивной,

т. е. суще­

V" ~ à f„

 

ствующей независимо от сигнала помехи.

 

 

 

$ 1.5. ПРОПУСКНАЯ СПОСОБНОСТЬ КАНАЛОВ ДАЛЬНЕЙ СВЯЗИ

Поскольку скорость передачи информации, определяемая выражением (1.2.11), зависит как от свойств источника, так и от свойств остальной части канала с учетом влияния по­ мех, то при некоторых условиях она может достичь макси­ мального значения

С = т а х ,о„ = 4 - max [H (U )~ H {U /U ')],

(1.5.1)

{*г}

Т F r )

 

где {/?г } — множество

технических решений, среди

кото­

рых отыскивается такое, что при заданных свойствах линии

связи v u= C имеет максимальное

значение. Этот максимум

называется пропускной способностью канала. .

 

К. Шеннон рассмотрел наиболее важный случай,

когда

множество технических решений

{/?г } образовано

различ­

ными способами кодирования при фиксированном объеме ал­ фавита символов и прочих равных условиях. Им были сфор­

мулированы теоремы, .имеющие

фундаментальное значение

в теории связи. Эти теоремы устанавливают

существование

оптимального кода с требуемыми

качествами

и определяют

соотношение между скоростью передачи информации и про­ пускной способностью канала для обеспечения сколь угодно малой вероятности ошибки.

Построение оптимального кода в каналах без шумов и с шумами преследует различные цели: в первом случае обеспе­ чивается высокая скорость передачи информации, а во вто­ ром — высокая помехоустойчивость. Поэтому алгоритмы по­ строения оптимального кода в обоих случаях существенно различны.

В дальнейшем В. И. Сифоров, исследуя каналы с флуктуа­ цией параметров (т. е. неаддитивными помехами) ввел поня­ тия собственной и условной пропускной способности канала. Под собственной пропускной способностью Сспонимается пре­

дельное значение С при

непрерывном

увеличении

средней

мощности сигнала.

Под

условной

пропускной

способно­

стью Су понимается

значение

С при

учете тех

или иных

дополнительных ограничений,

кроме

наложенных К. Ш ен­

ноном.

 

 

 

 

 

Понятие пропускной способности является одним из основ­

ных в теории связи,

поскольку величина С характеризует ка­

нал с точки зрения его основного

назначения*— передавать

информацию.

 

Величину

 

Ка=

(1.5.2)

называют коэффициентом использования пропускной способ­

ности канала. Как показал К. Шеннон, при

 

можно

обеспечить

сколь

угодно малую

вероятность

ошибки — Р 0;

если

же

v „ > C ,

то

вероятность ошибки может

превысить

допустимое

значение.

Поэтому

практически

коэффици­

ент

Ки <

1.

 

 

 

 

 

 

 

 

 

 

 

Максимальное количество

 

информации,

которое может

быть передано по каналу за время Т со сколь

угодно малой

вероятностью ошибки

называется емкостью канала связи

 

 

 

 

 

VK= C

T

(дв. ед).

 

 

(1.5.3)

Коэффициент

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

IS _

 

_

С

 

 

(1.5.4)

 

 

 

 

 

 

К' ~

I

~ V„ ’

 

 

 

 

 

 

 

 

 

 

 

 

где

l —v u

T —• количество

информации,

передаваемое

при

заданной

скорости v u за время Т, называется резервом

про­

пускной

способности

канала

связи.

 

 

 

 

Из сопоставления

выражений

(1.5.2) и (1.5.4) следует,

что

 

 

 

 

 

 

Л', =

-jjr .

 

 

(1.5.5)

Поскольку

v u^ C , то практически всегда коэффициент /Ç > 1.

На использовании резерва пропускной способности канала основаны все известные в настоящее время методы повышения помехоустойчивости систем связи.

Рассмотрим теперь пропускную способность некоторых дискретных каналов с постоянными параметрами.

Канал без помех. Пусть по идеальному каналу без помех передаются сигналы длительностью Т при использовании мно­ гопозиционного кода с основанием L. По определению, про­

пускная способность такого

канала

 

С — -jr

|H (U )]max,

(1.5.6)

поскольку апостериорная энтропия н { ц г) — 0-

Максималь­

ное значение энтропии алфавита соответствует равномерному

закону распределения символов» поэтому в

соответствии

с (1.2.13)

 

С —-Y log2L.

(1.5.7)

В частности, пропускная способность двоичного

канала без

помех

 

где vM — скорость манипуляции.

Симметричный недвоичный канал. Пусть по симметрично­ му каналу передаются L — позиционные посылки с вероят­ ностью ошибочного приема Р 0.

На основании свойства симметричности количества ин­ формации в одной величине относительно другой можно за ­ писать:

Условная энтропия

В соответствии с выражением (1.3.3)

Поэтому имеем:

/ / ( Ç

) = - ( 1- p o )lo g a (l- P 0)

i P m t ) ] -

 

 

 

1

1 ê r

l0& ч ё т

s * W /(0 ] —

( i - ^ i o g ^ i - p » ) -

 

 

/«1

 

 

P

JL

 

—/V o g 2 - x f p

так как E

= 1.

 

 

i=i

 

Полученная величина апостериорной энтропии не зависит от закона распределения символов алфавита, а поэтому про­ пускная способность

С =

- f [ W ) . „ + ( l - / >0) lo g ,( l - P o ) + />#lob

- Й г ] .

(1.5.10)

Так

как //(C/,)max=l?ga^t то получим окончательно

 

с -

4 [lo g ,£ + (1 —Р . ) lo g ,(l—Р 0) + Р , log,

.

(1-5.11)

Симметричный двоичный канал. Полагая в выражении (1.5.10) L = 2, получим, с учетом выражения (1.5.8),

С - < ^ Л Ж 1 - Я о )1 о ь (1 - Я ,)+ Р ,1 о в А ] . (1.5.12)

График функции Kv= — —f (P 0) показан на рис. 2.

При отсутствии помех Kv— 1, т. е. каждая элемента'рная посылка переносит в секунду 1 дв. ед. информации. Если

Р 0= 0 ,5 ,то Kv= О, поскольку принятый сигнал с одинаковой вероятностью может считаться правильным или ошибочным.

При дальнейшем

увеличении

Р 0

величина

Kv возрастает

и при Р 0= 1

вновь достигает максимума.

Это

объясняется

тем,

что формально

при Р 0> 0 ,5

информацию

из принимае­

мых

сигналов можно

извлекать,

вынося

всякий раз

реш е­

ние Ол(1) при приеме U2(t), и наоборот.

 

 

 

Каналы

передачи

непрерывной

информации.

В соответст­

вии с выражением

(1.2.15)

пропускная способность непрерыв­

ного канала

при независимости дискретных отсчетов сигнала

 

 

C =m ax 2 f cp j

j P\U ,(t)\

U 'j{t)]x

 

 

 

*

'°fe

 

 

 

 

 

 

 

"-5ЛЗ)

Максимум отыскивается по всевозможным распределе­

ниям

величины

P \U (t)\ при ограничениях, которые

накла­

дывает данный

канал.

 

 

 

 

 

 

Пусть сигнал Ut(t) и шум fl{t) независимы, и принимае­

мый

элементарный сигнал

U. { t)= U l(t)+ /7 (t). Тогда количе­

ство

информации

на

отсчет

 

 

 

 

 

 

t= \u ,(ty ,

и ] ю ] = н \ и , ю ] - н

UM 1 _

 

 

и Щ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= H \ U . ( t ) \ - H

u'jit)

= H \v ) ( 0 1 -

 

 

и м

 

 

-

Н

[

 

 

] - H iU 'j ( t ) \ ~ H № ) \ .

(1.5.14)

Пусть теперь ийеем гауссов канал связи, для которого вы­ полняются следующие условия:

1) ширина полосы частот канала ограничена и равна Д/ж;

2)шум в канале нормален («белый» шум);

3)спектр мощности шума равномерен в полосе

частот канала и имеет спектральную плотность Р п ;

4)средняя мощность полезного сигнала Р с\

5)сигнал и шум статистически независимы;

6)выходной сигнал равен сумме входного сигнала и шума.

Так как для указанного шума энтропия

H W ) U K = 'r } o g t {2itePa • A /*)=const,

то максимум выражения (1.5.13) будет иметь место при мак­ симуме энтропии Ii[U j (£)]. Поэтому определим пропускную способность канала как

C = 2 k f K-max[H[Uj (t)) - H [n ( t)} =

P[U(t)\

=

2Д /„{тах//[£ /)

( t) ) - H [ n ( t) ]) •

(1.5.15)

Принимаемый

элементарный

сигнал l/'j (t ) должен 'быть

распределен по нормальному закону и спектр его мощности должен быть равномерным в полосе Д /к.

Следовательно,

 

 

 

 

m axH [Ü ,

(*)I = 4 -

lbg2(2it e J ),

где a =

P c-\-P„ • Д/«. — средняя

мощность принимаемого ко-

У

 

_

Р

то выражение (1.5.14) при­

лебания. Если положить

Р е=

 

нимает

вид:

 

 

 

С=2ДД{-1- log2[2«e4М Р с + Р п )1 - 4 " 1°& (2перп ДА ) }=

2*ebfK(Pc+Pn

2кеЬ/кРп

Это—известная формула Шеннона—Таллера для гауссовых каналов. Д ля других типов канала она оказывается неспра­ ведливой. В частности, если закон распределения помех отли­ чается от нормального или спектр шума в полосе пропускания канала неравномерный, то формула (1.5.15) дает заниженное значение пропускной способности. Наоборот, при воздействии неаддитивных помех пропускная способность оказывается меньше, чем дает это выражение.

Существует также метод оценки пропускной способности для гауссовых каналов с произвольным спектром.

Г л а в а II

ОПТИМАЛЬНОЕ КОДИРОВАНИЕ В КАНАЛАХ СВЯЗИ

(Теоремы о существовании)

§11. 1. ТЕОРЕМА КРАФТА

Пусть алфавит заданного источника содержит L неравно­ вероятных символов. Каждому символу а, первичного алфа­ вита {А} в результате кодирования ставится в соответствие определенный сигнал ?,(£) на выходе жодирующего устрой­ ства-кодограм м а из т , двоичных посылок. Число двоичных посылок щ в различных кодограммах может быть различ­ ным, поэтому средняя величина

L

 

 

 

 

 

 

 

 

 

 

 

 

(II.1.1)

где Р(?<) = Р (а <)

— вероятность г-й кодограммы.

 

 

В зависимости от конкретного способа

построения кода

одному

и тому

же

символу

а,

может

соответствовать мно­

жество

кодограмм

(5,} различной

длины. При

 

заданных

вероятностях Р(£г) каждому

варианту

Построения

кода бу ­

дет соответствовать

своя средняя

длина

кодограммы—т ср.

Поэтому

можно

поставить

задачу

отыскания такого кода,

для которого

средняя

длина

кодограммы

будет

минималь*

ной. Это дает

возможность

передавать

в

единицу

времени

максимальное

 

число

элементарных

посылок

(максимум

информации) или экономит время на передачу заданного количества информации.

Предположим, что из всех возможных вариантов построе­ ния двоичного кода мы выбираем только те, для которых ни одна кодовая комбинация из общего числа L не может быть получена из более короткой путем добавления недостающих элементов. Этому условию удовлетворяет, например, следу­ ющий код:

символ алфавита

комбинация

а

01

а

а

000

а

001

Обозначим количество кодограмм из у двоичных посы­ лок за Ij. Тогда в приведенном примере /х= 1 ; /*=1; /8= 2. В общем случае

причем знак равенства имеет место

при L —2:

символ алфавита

 

комбинация

а

 

О

 

а

 

1

 

Количество возможных

кодограмм

из двух

посылок будет

определяться выбранным

числом кодограмм

из 1-й посыл­

ки. Можно показать, что

 

 

 

/ , < 2 * - / г 2.

Количество возможных кодограмм из трех посылок будет оп­ ределяться выбранным числом кодограмм из одной и двух по­ сылок. Можно при этом показать, что

/3 < 2 » - / 1-22 - / î -2.

Обобщая этй результаты на

случай

кодограмм

из т по­

сылок, получим

 

 

 

 

 

 

 

/т < 2 '» - / 1.2", -, - / г-2т - 2 -

. . .

-2. (11.1.2)

Это условие является достаточным и необходимым.

Перепи­

шем полученное выражение в виде

 

 

 

Л*2

1+^2• 2

2 +

. . . -f lm_ l - 2 + /m< 2 m.

Разделим обе части данного неравенства на 2 и получим'

/1-2 -, + /, - 2 - а+

•••

+ / m_ I-2 -('n" ,)+ / m-2

"‘ < 1 ,

или более компактно

 

т

 

 

 

 

 

 

 

 

 

 

 

 

 

£

/,• 2 ~ '< 1 .

 

 

(И. 1.3)

 

У“ 1

т

 

 

 

 

 

 

 

 

 

 

 

Общее число кодограмм

— 2

Z,, а

показатель

степени

двух охватывает все

 

 

У=1

поэтому

 

 

значения

 

 

2

 

*2

7 -

2 2 m '1 t

 

 

у- l

 

 

/-1

 

 

 

или окончательно

 

 

 

л

1.

(IL 1.4)

 

2 2 - 1

 

i l

 

 

Т. е. если

имеется алфавит из. L

символов

и существует

для него L

кодограмм различной длины т ;, то

для такой по*

следовательности кодограмм справедливо неравенство (II. 1.4).

Отсюда следует: необходимым и достаточным

условием

существования

указанного

множества

кодограмм является

неравенство (II.1.4). Это утверждение

составляет

содержа­

ние теоремы Крафта.

 

 

 

 

§ II. 2. ФУНДАМЕНТАЛЬНАЯ ТЕОРЕМА

 

 

ШЕННОНА О КОДИРОВАНИИ

 

 

ПРИ ОТСУТСТВИИ ПОМЕХ

 

 

Пусть

имеем

две

кодограммы ~Zv(t)

и 1./J),

соответст­

вующие

одному

и

тому

же символу

первичного алфа­

вита—a t.

Соответствующие

им вероятности -^Р ((и ) и Р ((2,)-

Известно, что для подобных дискретных распределений справедливо соотношение

(11.2.1)

Положим, что

(И.2.2)

Тогда

получим

 

 

I

L

 

 

2

s /*(6,,) lo g ,/»(«„)>■ о

 

1=1

i- 1

 

или с

учетом

(И.2.2)

 

 

L

L

 

Щ )

= - 2

^ , |) 1 о д г Я ( ? „ ) < - 2 P (li,)io g 2

L