TEOR_inform_19-12-10_2014_01_06_12_12_03_442
.pdf4.3 Канал с шумами
Наличие шума в канале связи приводит к тому, что условная энтропия
H ZY не равна нулю. Условную энтропию H ZY Шеннон назвал ненадѐж-
ностью канала, так как она зависит от шума в канале связи. В результате возникает вопрос, существует ли метод кодирования, позволяющий передавать информацию
сопределѐнной скоростью Rè áèò . На это вопрос отвечает теорема Шеннона
ñåê
(Шеннон стр.280).
Пусть дискретный канал обладает пропускной способностью
C |
|
áèò |
, а дискретный источник – энтропией H X |
áèò |
. Если |
||
|
|
|
|
|
|||
|
|
|
|
|
|||
|
|
ñåê |
|
ñî î á |
|
Rè < C , то существует такая система кодирования, что сообщения
источника могут быть переданы по каналу с произвольно малой частотой ошибок, (или со сколь угодно малой энтропией H YZ ). Если Rè > C , то можно закодировать источник таким образом, что ненадѐжность H YZ канала будет меньше, чем Rè Ñ Vk ,
где сколь угодно мало. Не существует способа кодирования, обес- |
|
печивающего ненадѐжность, меньшую, чем |
Rè Ñ Vk . |
Нет доказательства
Пример 4.1. Определим пропускную способность двоичного симметричного канала связи. Модель двоичного симметричного канала показан на рисунке 4.4.
|
|
|
|
|
|
|
|
|
|
|
В канал связи поступают симво- |
||||
|
|
|
|
|
|
q=1-p |
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
лы 1 и 0, отображающие реальные |
||||||
|
y1 1 |
|
|
|
|
|
z1 |
1 |
|||||||
|
|
|
|
|
|
физические сигналы. |
|||||||||
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
1) Канал симметричный. Вероят- |
||||
|
|
|
|
p |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ности искажения символов равны |
|||||
|
|
|
|
|
|
|
|
|
|
||||||
|
y2 0 |
|
|
|
z |
2 |
0 |
p 1 / 0 |
|
p |
|
0 / 1 p , вероятности |
|||
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
неискажѐнного приема символов |
|||||
|
Рис. 4.4 |
Модель двоичного |
|
|
|||||||||||
|
|
|
равны |
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
симметричного канала связи |
p 1 / 1 p 0 / 0 q 1 |
p . |
|
2) Канал стационарный, так как условные вероятности не зависят от времени. Пропускную способность вычислим по формуле (4.8). Энтропию H Z определим
из условия H Z H Y при отсутствии шума. Энтропия H Y принимает мак-
симальное значение, равное 1, при p y1 p y2 0.5. Условная энтропия равна
41
H Z / Y p y1 p log p q log q p y2 p log p q log qp log p q log q
Подставляя полученные величины в (4.8), получим
C Vêàí 1 p log p q log q .
Как видно из формулы, пропускная способность зависит скорости поступления символов в канал и от вероятности искажения символов.
Положим, задан ансамбль сообщений X с распределением вероятностей P , (Таблица 4.2) . Сообщения генерируются со скоростью
Vè 100 ñî î áñåê .Способ кодирования определѐн и каждому сообщению припи-
Таблица 4.2 |
|
|
сан двоичный код. Энтропия ансамбля сообщений X равна |
||||||||||||||||||||
|
|
H X 1.659 |
áèò ñî î á , |
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
X |
|
P |
код |
|
|
|
|
|
|
|
|
||||||||||||
|
|
вероятности реализации символов «1» и «0» равны |
|||||||||||||||||||||
|
|
|
|
|
|||||||||||||||||||
x1 |
|
0.6 |
0 |
|
|
|
p 1 0.249167, |
|
|
p 0 0.750833, |
|
|
|
||||||||||
|
|
|
|
|
энтропия ансамбля символов Y равна |
|
|
|
|||||||||||||||
x2 |
|
0.2 |
10 |
|
|
|
|
||||||||||||||||
|
|
|
|
H |
|
Y |
|
0.8099551 |
|
áèò |
ñèì â , |
|
|
|
|||||||||
x3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
0.1 |
110 |
|
|
|
|
|
|
|
|
|
|
|
|
|
1.7 |
ñèì â ñî î á . |
|
|
|
|||
средняя длина кода равна n |
|
|
|
||||||||||||||||||||
x4 |
|
0.07 |
1110 |
|
Положим, в канале действует такой шум, что вероятность |
||||||||||||||||||
|
|
|
|
|
ошибочного перехода равна |
|
p 1 / |
0 p 0 / 1 p 0.1. |
|||||||||||||||
x5 |
|
0.03 |
1111 |
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
Сможет ли канал обеспечить передачу сообщений ? |
||||||||||||||||||
|
|
|
|
|
|||||||||||||||||||
1) |
Rè Vè H X 100* 1.659 165.9 |
áèò |
|
ñåê |
|
|
|
|
|
||||||||||||||
2) Будем считать R |
|
R |
. Тогда V |
|
|
100* 1.659 |
= 204.826 |
|
ñèì â |
. |
|||||||||||||
êî ä |
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
è |
|
|
|
êî ä |
|
0.8099551 |
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ñåê |
|||||||
3) |
|
Будем считать Rêàí |
Rêî ä . Тогда Vêî ä |
Vêàí и пропускная способность ка- |
|||||||||||||||||||
нала равна C Vêàí |
1 p log p q log q |
= |
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
= 204.826 1 0.1 log 0.1 0.9 log 0.9 = |
108.764 áèò |
ñåê |
Как видно, пропускная способность канала значительно ниже скорости генерации информации источником и часть информации может быть утеряна. В этом случае можно уменьшить скорость генерации сообщений Vè или уменьшить вероятность
ошибок p 1 / 0 p 0 / 1 p . Положим, каким-то образом удалось уменьшить вероятности ошибок до величины p 0.01. Тогда пропускная способность канала увеличится до величины C 188.277 áèò ñåê . При таком соотношении скорости поступления информации Rêî ä в канал и пропускной способности канала ис-
кажения информации в канале из-за величин Rêî ä и C не будет.
42
4.4 Непрерывный канал связи
Как и прежде, сигналы поступают в канал в дискретные моменты времени, но значения сигналов принимают непрерывные значения из некоторого множества. Примером такого канала является передача амплитудно-модулированных, фазомодулированных или частотно-модулированных сигналов. Сами сигналы могут быть как детерминированными, так и являться случайными процессами. Сигнал и шум взаимно независимы и в канале связи складываются алгебраически, т.е сигнал и
шум аддитивны |
|
|
|
|
Z ti Y ti ti , |
i 1,2, , |
(4.15) |
где ti - |
шум в канале с известной плотностью вероятности w ri , |
|
Y |
ti - непрерывный по множеству значений сигнал, поступающий в канал |
||||||
связи. |
Плотность распределения вероятности wY yi значений сигнала может |
||||||
быть произвольной |
|
|
|
|
|
|
|
Чтобы упростить записи, в дальнейшем будем писать |
|
||||||
|
|
|
Zi Yi i , |
i 1,2, , |
(4.16) |
||
помня, |
что Zi , yi , i |
- |
непрерывные |
|
величины, а их реализациями |
являются |
|
zi , yi , ri . Запишем равенство (4.16) через реализации |
|
||||||
|
|
|
zi yi ri , |
i 1,2, |
(4.17) |
||
Условная плотность распределения w zi yi при фиксированном значении |
|||||||
yi должна удовлетворять соотношению |
|
||||||
|
wZ |
y zi yi dzi w ri dri . |
(4.18) |
||||
Используя (**.17), получим условную плотность распределения |
|
||||||
|
wZ y zi |
yi w ri |
dri |
w zi yi |
(4.19) |
||
|
|
||||||
|
|
|
|
|
dzi |
|
Пропускная способность непрерывного канала связи определяется подобным образом, что и для дискретного канала, но максимизация пропускной способности
производится по всем возможным распределениям wY y : |
|
|||||||
C max |
J Y; Z |
max |
H Z H Z / Y |
|
||||
|
|
|
||||||
wY y |
T |
wY y |
|
T |
|
|
||
max Vk |
H Z |
H Z / Y |
|
áèò |
, |
(4.20) |
||
|
|
|
||||||
|
||||||||
w y |
|
|
|
|
ñåê |
|
|
|
Y |
|
|
|
|
|
|
|
|
где T - время, затраченное на передачу одного значения yi ,
43
Vk - скорость передачи сигналов в канале - количество значений yi , передан-
ных по каналу в единицу времени.
Определим условную энтропию H Z / Y :
H Z / Y w y, z log wZ y z y dy dz
wY |
y wZ |
y z |
y log wZ y z y dz dy |
|
Y |
Z |
|
|
|
wY y w z y log w z y dz dy |
(4.21) |
Y Z
Из (4.21) видно, что условная энтропия H Z / Y зависит от плотности распреде-
ления вероятности шума.
Пример 4.3. Вычислим энтропию случайной величины Y , подчиненной нормальному закону с математическим ожиданием, равным m, и дисперсией, равной
Y2 .
H Y |
wY y log wY y d y = |
|
|
|
|
|
1 |
|
|
|
y m 2 |
|
|
|
|
|
|
exp |
|
2 |
|
|
|
|
|
|
||||
|
|
|
|
|
||||
|
2 |
Y |
|
|
2 Y |
|||
|
|
|
|
|
Сделаем замену переменных x
|
|
log |
|
|
|
|
|
y m
Y
|
1 |
|
|
|
y m 2 |
|
|
|
|
exp |
|
|
d y |
|
|
|
|
|||
|
2 Y |
|
|
2 |
|
|
|
|
|
2 Y |
|
, dy x Y .
|
|
|
H Y |
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
2 |
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
x |
2 |
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
exp |
|
|
|
log |
|
|
|
|
|
|
exp |
|
|
|
|
d x |
|||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
2 |
|
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
2 |
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
2 |
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
exp |
|
|
|
|
|
|
log |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
log exp |
|
|
|
|
d x |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
2 |
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
log |
|
2 2 |
|
|
|
|
|
|
|
|
exp |
|
|
|
|
d x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||||
|
2 |
|
|
|
|
|
|
|
Y |
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
2 |
|
|
|
|
x |
2 |
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
log e |
|
|
|
|
|
|
|
|
|
|
|
|
|
exp |
|
|
|
ln exp |
|
|
|
|
d x |
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
1 |
|
|
|
2 2 |
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
x |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
log |
|
|
|
log e |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
exp |
|
|
|
|
|
d x |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||||
|
2 |
|
|
|
|
|
Y |
|
|
2 |
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
44
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
log 2 e 2 . |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Как видно, энтропия H Y |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
не зависит от математического ожидания m. |
|
||||||||||||||||||||||||||||||||||||||||||||||
|
|
Пусть H Y |
- энтропия случайной величины Y |
с математическим |
|||||||||||||||||||||||||||||||||||||||||||
|
|
ожиданием, равным нулю, |
|
и дисперсией, равной |
2 . Энтропия слу- |
||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
чайной величины Y |
|
не превышает энтропии нормального закона |
|||||||||||||||||||||||||||||||||||||||||||
|
|
распределения вероятности |
|
|
|
|
|
2 e Y2 , |
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
H Y |
1 |
log |
|
|
|
|
|
|
|
|
(4.22) |
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
где знак равенства имеет место тогда и только тогда, когда случайная |
|||||||||||||||||||||||||||||||||||||||||||||
|
|
величина Y распределена по нормальному закону. |
|
|
|
||||||||||||||||||||||||||||||||||||||||||
|
|
Положим, wY y |
|
- произвольная плотность распределения вероятности слу- |
|||||||||||||||||||||||||||||||||||||||||||
чайной величины Y . Случайная величина подвергается преобразованию |
|
||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
e |
Y 2 |
2 2 |
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
log |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
. |
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
Y |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
Определим математическое ожидание случайной величины |
|
|
|||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
e |
y2 |
2 2 |
|
|
|
|
|
|||||||||
|
|
|
M wY y log |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
dy = |
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 Y |
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
1 |
|
|
|
1 |
|
|
|
|
|
|
|
y |
2 |
|
|
|
|
|
|
|
|
y dy |
1 |
log 2 e Y2 . |
|
|||||||||||||||||||
|
|
log |
|
|
|
log e |
|
|
|
|
|
wY |
(4.23) |
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
2 |
|
2 |
|
|
|
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
2 Y |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
2 e Y2 |
. Правая часть этой разности есть |
|||||||||||||||||||||
|
Рассмотрим разность H Y |
1 |
log |
||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
M |
|
. Поэтому |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
H Y |
1 |
log 2 e Y2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
wY y log wY y dy wY y log |
|
|
1 |
|
|
|
|
y2 |
2 2 |
|
|
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
e |
|
Y |
dy |
|
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 Y |
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
y2 |
|
2 2 |
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
wY |
y log |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
e |
|
|
|
|
|
|
Y |
dy |
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
y |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
w |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
45
|
|
|
1 |
|
|
e y |
2 |
log e wY |
y |
|
|
|
|
||
|
y |
|
|
|
|||
|
2 |
|
|||||
|
w |
|
|
||||
|
|
Y |
|
|
Y |
|
|
|
|
|
1 |
|
|
y2 |
2 2 |
dy wY |
log e |
|
|
|
e |
|
Y |
||
|
|
|
|
|||||
|
|
|
|
|||||
|
|
|
2 Y |
|
|
|
|
|
|
|
|
|
|
|
|
2 2 |
|
Y |
1 dy |
|
|
|
|
y dy 0.
Знак равенства будет только тогда, когда справедливо равенство
|
1 |
|
|
|
|
|
|
y2 |
2 2 |
1 0 или |
||
|
|
|
|
|
|
e |
|
|
|
Y |
||
|
y |
|
|
|
|
|
|
|||||
w |
|
2 |
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|||||
Y |
|
|
|
Y |
|
|
|
|
|
|
|
|
|
w |
y |
|
|
|
1 |
|
e y2 2 Y2 . |
||||
|
|
|
|
|
|
|
||||||
|
Y |
|
|
|
|
|
2 Y |
|
||||
|
|
|
|
|
|
|
|
Таким образом, энтропия достигает максимального значения при нормальном законе распределения вероятности. При этом накладываются условия:
-дисперсия Y2 случайной величины ограничена,
-область определения плотности распределения вероятности – ( , ).
При рассмотрении пропускной способности канала связи никаких ограничений на вид распределения вероятности шума не накладывалось. В частном случае, наиболее употребляемом на практике, предполагается, что шум - нормальный белый. Это означает, что значения шума распределены по нормальному закону и они не коррелированны. При таких предположениях имеет место теорема Шеннона (Фано,
стр. 176)
Если в непрерывном постоянном канале с дискретным временем аддитивный шум имеет гауссовское распределение с нулевым средним и дисперсией, равной Pø , а мощность сигнала на входе не может пре-
вышать определенной величины Pñ , то пропускная способность этого
канала на событие определяется формулой
|
1 |
|
|
|
P |
|
|
C |
V |
log 1 |
|
c |
. |
(4.24) |
|
|
|
||||||
|
2 êàí |
|
|
P |
|
|
|
|
|
|
|
|
ø |
|
|
Знак равенства достигается лишь тогда, когда сигнал на входе канала - гауссовский с нулевым средним и дисперсией, равной Pñ .
Как известно, пропускная способность канала имеет вид
|
|
|
|
|
|
C |
wY y k |
|
|
|
|
H |
|
|
|
. |
|
|
|
|
|
|
|
max V |
H |
|
Z |
|
|
Z / Y |
|
|
|||
Определим H Z / Y |
. Из соотношений (4.15) - |
(4.18) следует, |
|||||||||||||||
i |
Z y |
|
i |
|
i |
|
|
|
|
|
|
|
|
|
|
z |
ñ |
w r |
w |
z |
|
y |
|
. В силу независимости сигнала и шума P |
P |
По определению
P .
ø
46
H Z / Y wY y wZ |
y z |
y log wZ y z |
y dz dy . |
|
|
|
|||||||||||||||||||
|
|
Y |
Z |
|
|
|
|
|
|
|
y zi |
yi плотность распределения |
|||||||||||||
Подставим |
вместо |
|
условной плотности |
|
wZ |
||||||||||||||||||||
шума и, учитывая, что шум распределѐн по нормальному закону, получим |
|
||||||||||||||||||||||||
H Z / Y wY |
y w ri log w |
ri dr dy |
1 |
log |
2 e Pø . |
(4.25) |
|||||||||||||||||||
|
|||||||||||||||||||||||||
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
Используя общее определение пропускной способности канала (4..20) |
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
C max V |
H Z |
H |
Z / Y max V |
|
|
|
|
log 2 e P |
|
|
log 2 e P |
|
|||||||||||||
|
|
|
|
||||||||||||||||||||||
w y k |
|
|
|
|
|
|
w |
y |
k |
|
2 |
|
|
|
|
|
z |
|
|
2 |
ø |
|
|||
Y |
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
Pø |
|
|
|
|
|
|
|
1 |
|
|
|
Pc |
|
|
|
||||
|
max |
V |
log |
Pc |
max |
|
V |
log 1 |
|
|
. |
(4.25) |
|||||||||||||
|
|
|
|
|
|
|
|||||||||||||||||||
|
w y |
2 k |
|
P |
|
w |
y 2 k |
|
|
P |
|
|
|
||||||||||||
|
Y |
|
|
|
|
ø |
|
Y |
|
|
|
|
|
|
|
|
|
ø |
|
|
|
Если сигнал на входе канала распределен по нормальному закону, то и сумма (4.16) также распределена по нормальному закону, что является необходимым условием максимального значения энтропии H Z . В этом
случае пропускная способность достигает максимального значения (знак равенства в (4.24)).
4.5 Теорема Шеннона о пропускной способности
частотно ограниченного канала
Передача информации тесно связана с использованием физических сигналов. Свойства сигналов определяют канал связи. Известно, сигнал может быть представлен во времени и через спектральное разложение. Рассмотрим влияние ограничения на сигнал во временной и частотной областях и влиянии этих ограничений на пропускную способность канала связи.
1) Положим, сигнал s ( t ) определѐн в интервале t и задана полоса частот Fm , занимаемая сигналом s ( t ) . Тогда, согласно теореме Котельникова,
сигнал |
s ( t ) может быть разложен по функциям типа |
Sin x |
со значениями коэффи- |
||||||||
x |
|||||||||||
|
|
|
|
|
|
|
|
|
|
||
циентов разложения, равными значениям сигнала в точках отсчета, |
|||||||||||
|
|
|
|
|
|
|
Sin m ( t n t ) |
|
|
|
|
|
s ( t ) |
|
s ( n t ) |
, |
|
(4.26) |
|||||
|
|
m ( t n t ) |
|
||||||||
|
|
|
n |
|
|
|
|
||||
где m |
2 Fm , |
t |
|
1 |
. |
|
|
|
|
||
|
|
|
|
|
|
||||||
|
2 Fm |
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
47
Ограничим время наблюдения интервалом (0, TH ). Тогда число отсчетов на интервале наблюдения равно
N |
TH |
2 F T |
|
|
|
|
|
(4.27) |
|||||
|
|
|
|
|
|
||||||||
|
|
t |
m H |
|
|
|
|
|
|
||||
и в разложении сигнала s ( t ) |
число отсчѐтов ограничено: |
|
|
|
|||||||||
|
|
FmTH |
|
|
|
|
Sin m ( t n t ) |
|
|||||
s ( t ) |
|
|
s ( n t ) |
|
|||||||||
|
|
|
|
|
. |
(4.28) |
|||||||
|
|
|
|
|
|||||||||
|
n FmTH |
|
|
|
|
m ( t n |
t ) |
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|||
Если стоит вопрос о точном восстановлении сигнала по его отсчетам, то это |
|||||||||||||
невозможно, так как часть отсчѐтов будет утеряна. |
|
|
|
||||||||||
Получили ряд (**.3), ограниченный по частоте и во времени |
|
||||||||||||
Мощность n-ой составляющей равна P |
|
|
s ( n t ) |
|
2 . |
|
|
|
|||||
|
|
|
|
|
|||||||||
|
|
|
|
s n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2) Положим задано время наблюдения TH сигнала s ( t ) . Из теории рядов Фурье известно, что можно построить периодическое продолжение функции s ( t ) с пе-
риодом TH . Разложим сигнал s ( t ) |
в ряд Фурье |
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
s ( t ) |
Ck e j k t |
|
Ck e j k 0 t , |
(4.29) |
|||
|
|
|
|
|
k |
|
|
k |
|
||
где |
|
|
2 |
. |
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|||
|
TH |
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|||
Коэффициенты разложения вычисляются по формуле |
|
||||||||||
|
|
|
|
|
|
|
|
|
T / 2 |
|
|
|
|
|
|
|
Ck |
1 |
|
|
H |
s ( t ) e j k 0 t dt |
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
TH T |
/ 2 |
|
||||
|
|
|
|
|
|
|
|
|
H |
|
|
Чтобы ряд (**.4) сходился, необходимо выполнения условия - последовательность
|
|
|
|
|
|
||
|
Ck |
|
должна быть убывающей и |
|
Ck |
|
2 . |
|
|
|
|
||||
|
|
|
k |
|
|
Выберем достаточно большое число m, чтобы можно было пренебречь величиной
( m 1) |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
Ck |
|
2 |
|
|
Ck |
|
2 . Тогда Fm m F1 |
|
|
m |
, или m Fm TH . |
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|||||||||
k |
|
|
|
|
k m 1 |
|
|
|
|
TH |
|
||||
Разложение сигнала s ( t ) ограничено числом отсчетов |
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
Fm TH |
|
j k 0 t |
|
||
|
|
|
|
|
|
|
|
|
s ( t ) |
Ck |
e |
(4.30) |
|||
|
|
|
|
|
|
|
|
|
|
|
|
k Fm TH
Получили ряд, ограниченный по частоте и по времени.
48
|
|
|
2 |
|
|||
Мощность k-ой составляющей равна P |
|
C |
k |
. Мощность сигнала равна мощно- |
|||
|
|
s k |
|
|
|
|
|
|
2 Fm TH |
|
|
|
|
|
|
сти составляющих Ps |
|
Psk |
|
|
|
|
|
k1
3)Так как шум, присутствующий в канале, также ограничен по частоте и во
времени определим числовые характеристики шума. Считается, что число отсчѐтов уже известно, т. е. определены Fm и TH .
|
|
|
|
|
|
|
|
|
|
N0 |
|
|
|
|
|
Примем M ( t ) |
0 , |
шум – «белый», т.е. M ( t |
i |
) ( t |
j |
) |
|
|
|
( t |
i |
t |
j |
) . |
|
|
|||||||||||||||
|
|
|
|
|
|
2 |
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Разложение шума ( t ) по гармоническим составляющим
|
|
|
|
|
|
|
|
|
|
|
|
|
Fm |
TH |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
( t ) |
|
k |
e j k 0 t |
, |
|
|
|
|
|
|
|
|
|
(4.31) |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
k F |
T |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
k 0 |
m |
H |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
коэффициенты разложения равны |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
k |
1 |
|
TH 2 ( t ) e j k 0 t dt . |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
TH T |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
H |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Согласно определению случайного процесса математическое ожидание и дис- |
|||||||||||||||||||||||||||||||
персия коэффициентов разложения будут равны |
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
TH |
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
M |
|
|
|
1 |
|
|
M ( t ) e j k 0 t |
dt 0 , |
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
|
k |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
TH T |
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
H |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
TH |
2 |
|
TH |
2 |
|
|
|
|
|
|
|
|
|
|
j k 0 |
( t 2 t1 ) |
|
|
|||||
D |
|
M |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
k |
|
|
|
|
|
|
M |
( t |
1 |
) ( t |
2 |
) |
|
e |
|
|
dt dt |
2 |
|
|||||||||||||
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
k |
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
TH |
|
T |
2 |
T |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
H |
|
|
H |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
TH 2 |
|
TH 2 |
N0 |
|
|
( t2 t1 ) e j k 0 ( t 2 t1 ) dt1 dt2 |
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
TH2 |
|
T |
2 |
T |
2 |
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
H |
|
|
H |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
T |
|
2 |
|
|
|
|
|
T |
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
N0 |
|
|
H |
|
|
j k t |
|
H |
|
|
|
|
|
|
|
j k t |
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
e |
|
0 |
1 |
|
|
( t2 |
t1 ) e |
0 |
2 dt2 |
dt1 |
|
|
|||||||||
|
|
|
2TH2 |
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
T 2 |
|
|
|
|
T 2 |
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
H |
|
|
|
|
|
H |
|
|
|
|
|
|
|
|
|
|
|
49
|
N0 |
TH |
2 e j k 0 t1 |
e j k 0 t1 |
dt1 |
N0 |
. |
2T 2 |
|
||||||
|
|
|
|
|
2TH |
||
|
H TH |
2 |
|
|
|
|
Мощность шума в канале связи равна
|
2 Fm TH |
|
|
|
N0 |
|
|
|
P D ( t ) |
|
D |
|
2 F T |
F N |
|
. |
|
|
|
|||||||
ø |
|
i |
m H 2T |
m |
0 |
|
||
|
i 1 |
|
|
|
H |
|
|
|
4) Теорема Шеннона для частотно ограниченного канала.
Если мощность сигнала на входе канала не превосходит величины
(4.31)
(4.32)
Ps ,
то пропускная способность частотно ограниченного канала с аддитивным белым гауссовым шумом удовлетворяет неравенству
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ps |
|
|
|
|
|
|
|
|
|
|
C ≤ F |
|
log |
1 + |
|
|
|
|
. |
|
|
|
|
|
(4.33) |
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
Fm N0 |
|
|
|
|
|
|
||||
Знак равенства будет в том случае, когда значения сигнала распреде- |
||||||||||||||||||||||
лены по нормальному закону. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
Согласно определению пропускной способности |
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 Fm T |
; Z |
2 Fm T |
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
Y |
|
H |
|
H |
|
|
|
|
||||
|
C |
lim |
|
max |
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
TH |
|
|
|
|
|||||||||||
|
|
|
TH w ( y ) |
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
2 Fm T |
|
|
H |
|
|
2 Fm T |
Y |
2 Fm T |
|
|
|
|||||||
|
|
Z |
|
|
H |
|
Z |
|
H |
H |
|
|
||||||||||
lim max |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(4.34) |
||
|
|
|
|
|
|
|
|
|
|
TH |
|
|
|
|
|
|
|
|||||
TH w ( y ) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
2 Fm T |
|
|
- это энтропия множества отсчетов в моменты вре- |
|||||||||||||||||
Энтропия Z |
|
H |
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
мени ti с интервалом t из ансамбля Z для всех моментов времени ti . Ввиду того,
что неизвестны вероятностные характеристик процесса Y t , справедливы выражения
|
2 Fm T |
|
|
Z2 |
Z2 F T |
|
|
Z |
H |
|
Z1 |
|
|
||
|
|
|
|
|
m H |
|
|
Z |
Z |
|
|
|
|
|
2 Fm TH |
Z |
. |
|
|
|
|
|
|
||||||
|
Z |
2 Fm TH |
|
(4.35) |
||||||
1 |
|
2 |
|
|
|
i 1 |
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
50 |
|
|
|
|
|
|
|