
- •Введение
- •Раздел «Методология построения современных систем связи»
- •Тема «Общие сведения о системах связи»
- •Основные термины и определения
- •Помехоустойчивые (корректирующие) коды
- •Тема «Основные характеристики сигналов и систем передачи информации»
- •Основные параметры сигналов
- •Основные характеристики систем передачи информации
- •Помехи и искажения в каналах связи
- •Виды дискретной модуляции сигналов
- •Раздел «Математические модели каналов связи»
- •Тема «Математические модели непрерывных каналов связи»
- •Классификация каналов связи
- •Математическая модель каналов связи с аддитивным гауссовским шумом
- •Математическая модель однолучевого канала связи с флуктуациями амплитуд и фаз сигналов (с гауссовскими общими замираниями)
- •Математическая модель многолучевого гауссовского канала связи с частотно-селективным замиранием
- •Математическая модель каналов связи со сложной аддитивной помехой
- •Математическая модель каналов связи с межсимвольной интерференцией
- •Тема «Математические модели дискретных каналов связи»
- •Основные характеристики дискретных каналов связи
- •Математическая модель дискретного симметричного канала связи без памяти
- •Математическая модель дискретного несимметричного канала связи без памяти
- •Математическая модель дискретного канала связи с памятью
- •Тема «Математическая модель линейных и нелинейных преобразователей случайных сигналов в каналах связи»
- •Математическая модель линейного преобразователя случайных сигналов в каналах связи
- •Математическая модель нелинейного преобразователя случайных сигналов в каналах связи
- •Математическая модель случайного преобразователя сигналов в каналах связи
- •Раздел «Помехоустойчивый прием дискретных и непрерывных сообщений»
- •Тема «Постановка задачи синтеза оптимального приемника»
- •Общий подход к задаче синтеза оптимального приемника
- •Критерий идеального наблюдателя
- •Оптимальный прием дискретных отсчетов сигналов
- •Оптимальный прием непрерывной реализации сигналов
- •Тема «Статистические критерии оптимального приема сигналов»
- •Критерий Неймана-Пирсона
- •Байесовский критерий минимума среднего риска
- •Тема «Синтез оптимального когерентного приемника в условиях аддитивного шума»
- •Синтез приемника дискретных отсчетов сигналов
- •Синтез приемника непрерывной реализации сигналов
- •Структурная схема оптимального когерентного приемника
- •Тема «Оптимальный когерентный приемник на базе согласованных фильтров»
- •Передаточная функция согласованного фильтра
- •Основные свойства согласованных фильтров
- •Структурная схема оптимального когерентного приемника
- •Трансверсальный согласованный фильтр с импульсной реакцией
- •Согласованный с прямоугольным радиоимпульсом фильтр
- •Тема «Анализ помехоустойчивости оптимального приема двоичных сигналов»
- •Помехоустойчивость сигналов с дискретной амплитудной модуляцией
- •Помехоустойчивость сигналов с дискретной частотной модуляцией
- •Помехоустойчивость сигналов с дискретной фазовой модуляцией
- •Сопоставительный анализ сигналов с дискретными видами модуляции
- •Повышение помехоустойчивости связи на основе методов разнесенного приема
- •Тема «Потенциальная помехоустойчивость оптимального приема непрерывных сообщений»
- •Общие сведения об обобщенном выигрыше
- •Обобщенный выигрыш при амплитудной модуляции
- •Обобщенный выигрыш при балансной и однополосной модуляции
- •Обобщенный выигрыш при фазовой модуляции
- •Обобщенный выигрыш при частотной модуляции
- •Раздел «Основы передачи и кодирования информации»
- •Тема «Основные характеристики источников дискретных и непрерывных сообщений»
- •Количество информации источника дискретных сообщений
- •Энтропия источника дискретных сообщений
- •Свойства энтропии источника дискретных сообщений
- •Избыточность источника дискретных сообщений
- •Производительность источника дискретных сообщений
- •Энтропия источника непрерывных сообщений
- •Тема «Пропускная способность дискретного канала связи»
- •Свойства условной энтропии дискретного канала связи
- •Свойства взаимной информации дискретного канала связи
- •Свойства пропускной способности дискретного канала связи
- •Пропускная способность двоичного симметричного канала связи без памяти
- •Тема «Пропускная способность непрерывного канала связи»
- •Пропускная способность непрерывного канала связи
- •Свойства взаимной информации непрерывного канала связи
- •Формула Шеннона для пропускной способности непрерывного канала связи
- •Влияние полосы пропускания непрерывного канала связи на его пропускную способность
- •Теоремы кодирования Шеннона для канала связи с помехами
- •Тема «Основы построения корректирующих кодов»
- •Классификация корректирующих кодов
- •Основные характеристики блочных корректирующих кодов
- •Обнаружение и исправление ошибок в коде
- •Линейные двоичные корректирующие коды
- •Пример задания линейного корректирующего кода

Перейдем теперь к энтропии непрерывного сигнала, для мим S к 0:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
H (S) = lim |
(Si |
) S log |
2 |
(S |
) S |
= |
|
|
||||||||||||||
|
|
|
S →0 |
|
i |
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
b |
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
log |
(bc) = log |
a |
b + log |
a |
c; |
|
lim |
|
y x |
= |
|
f ( x)dx |
|
= |
|||||||||
a |
|
|
|
|
|
|
|
|
|
x →0 |
|
i |
|
i |
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
a |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= lim |
(Si ) S log |
|
|
1 |
|
+ lim log |
|
1 |
|
(Si ) S = |
||||||||||||||
2 |
(S |
) |
2 |
S |
||||||||||||||||||||
|
S →0 |
i |
|
|
|
|
|
|
S →0 |
|
|
|
|
i |
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
||
|
= |
(S) log2 |
|
|
dS |
+ lim log2 |
|
(S)dS |
|
|
||||||||||||||
|
(S) |
S |
|
|
||||||||||||||||||||
|
|
− |
|
|
|
|
|
|
S →0 |
|
|
− |
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
чего устре-
(17)
Во втором слагаемом
(S )dS
−
=
1
, тогда можно записать формулу эн-
тропии источника непрерывных сообщений
|
|
|
1 |
|
|
1 |
H (S ) = |
(S) log |
|
dS + lim log |
|
||
2 |
(S ) |
2 |
S |
|||
− |
|
|
S →0 |
|
||
|
|
|
|
|
|
(18)
Здесь первое слагаемое является конечной величиной, которая определяется плотностью распределения ω(S). Она называется дифференциальной энтропией сигнала и обычно рассматривается как вспомогательная величина при проведении расчетов.
Второе слагаемое при S → 0 стремиться к бесконечности. Это означает, что при переходе от дискретной к непрерывной величине энтропия неограниченного возрастает, поскольку при S → 0 вероятности попадания сигнала становятся бесконечно малыми значениями. В результате неожиданность, или непредсказуемость, реализаций становится неограниченно большой.
При любой ω(ξ) всегда справедливо неравенство
|
|
|
|
1 |
|
|
|
|
|
h( ) = |
|
( ) log |
2 |
d log |
2 |
2 e 2 |
(19) |
||
|
|||||||||
|
( ) |
||||||||
|
|
|
|
|
|
||||
|
− |
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
Знак равенства имеет смысл только в том случае, когда процесс является гауссовским.
Тема «Пропускная способность дискретного канала связи»
Изучаемые вопросы:
1.Свойства условной энтропии дискретного канала связи.
2.Свойства взаимной информации дискретного канала связи.
3.Свойства пропускной способности дискретного канала связи.

4. Пропускная способность двоичного симметричного канала связи без памяти.
Свойства условной энтропии дискретного канала связи
Рассмотрим дискретный канал связи без памяти, на входе и выходе которого имеются ансамбли дискретных сообщений A и B соответственно. Задача заключается в том, чтобы определить количество информации, переданной по этому каналу связи. Иначе говоря, необходимо найти информацию, содержащуюся в принятом сообщений bj при передаче сообщения ai.
Пусть известны P(ai, bj) – совместная вероятность реализаций ai и bj, а также P(ai | bj) – условная вероятность реализации ai, если на выходе канала связи появилось сообщение bj. По теореме умножения вероятностей
P(a |
,b |
) = P (a )P(b |
j |
| a ) = P(b |
)P(a |
i |
| b |
) |
|
i |
j |
i |
i |
j |
|
j |
|
(1)
Введем понятие условной энтропии, которую определим как математическое ожидание, аналогичное математическому ожиданию, принятому для энтропии источника сообщений:
H ( A | B) = P(ai ,bj |
) log |
|
1 |
|
|||
2 |
P(a |
|
| b |
) |
|||
i |
j |
|
|
i |
|||
|
|
|
j |
|
Свойства условной энтропии:
H(A | B) ≥ 0.
(2)
H(A | B) ≤ H(A), то есть условная энтропия меньше или равна энтропии источника на выходе канала связи. При этом равенство имеет место в том слу-
чае, если P(ai | bj) = P(ai) при всех a A и b B, то есть, когда a и b взаимно независимы. Это означает, что с получением сообщения bj никакой информа-
ции о сообщении ai не поступает, следовательно, неопределенность не уменьшается. Данная ситуация может соответствовать полной потере информации.
Учитывая свойства, условную энтропию обычно трактуют как количество информации, которое теряется из-за помех и не поступает к получателю. Полная потеря информации является крайним случаем и в реальных условиях практически не встречаются. Величину H(A | B) также называют ненадежностью (энтропия потерь).
Свойства взаимной информации дискретного канала связи
Определим количество информации I(A, B), передаваемой по каналу связи, как разность между количеством информации на входе, равным энтропии источника H(A), и количеством потерянной информации, равным

условной энтропии H(A | B). Величину I(A, B) также называют взаимной информацией и определяют выражением
|
|
|
1 |
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|||||
I ( A, B) = H ( A) − H ( A | B) = M log2 |
P(a ) |
|
− M log |
2 |
P(a |
| b |
) |
|
= |
|||
|
|
|
|
|
|
|
||||||
|
|
i |
|
|
i |
j |
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
(3) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P(a |
| b |
) |
|
|
|
|
|
|
|
|
|
= M log2 |
|
i |
j |
|
|
|
|
|
|
|
|
|
P(a ) |
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|||
|
|
i |
|
|
|
|
|
|
|
|
С учетом теоремы умножения вероятностей можно записать
|
|
P(b |
)P(a |
i |
| b |
j |
) |
|
|
P(a |
,b |
) |
|
|
|
j |
|
|
|
|
|
i |
j |
|
|
||
I ( A, B) = M log |
2 |
P(bj )P(ai ) |
|
|
= M log |
2 |
P(bj )P(ai |
|
|||||
|
|
|
|
|
|
) |
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(4)
Раскрывая эту формулу, получим выражение для взаимной информации в симметричном виде:
I ( A, B) = P(ai ,bj |
) log |
2 |
P(a |
,b ) |
|
|||
|
i |
j |
|
|
||||
|
|
|
|
|
|
|
||
i |
j |
|
|
P(b |
)P(a |
) |
||
|
|
j |
|
|
i |
|
Свойства взаимной информации:
(5)
1.I(A, B) ≥ 0, что следует из свойств энтропии, причем I(A, B) = 0 при обрыве канала связи, то есть, когда вся информация теряется из-за помех.
2.I(A, B) ≤ H(A), причем равенство достигается при отсутствии помех, то есть H(A|B) = 0.
3. I(A, B) = I(B, A) = H(B) – H(B|A), где энтропия на выходе канала связи H(B) и условная энтропия H(B|A) определяется аналогично найденным ранее значениям энтропии. Данное свойство вытекает из симметрии выражения для взаимной информации.
4. I(A, B) ≤ H(B), что следует из предыдущего свойства, причем равенство имеет место, если H(B|A) = 0.
5. Приняв в выражении для взаимной информации A = B, получим
H(A|A) = 0, I(A|A) = H(A).
Если известно время передачи сообщения T, то по аналогии с производительностью источника, можно рассчитать скорость передачи информации по каналу связи как количество информации, переданной за единицу времени.
Скорость передачи информации по каналу связи:
I '( A, B) = |
1 |
I ( A, B) = k I ( A, B) , |
(6) |
|
T |
||||
|
|
|
где υ = 1/T – скорость передачи символов по каналу связи, то есть число символов, поступающих в канал связи в течение секунды, бит/с.
Свойства пропускной способности дискретного канала связи
Ранее было показано, что количество информации, переданной по дискретному каналу связи, зависит от двух факторов:
1.от свойств источника сообщений, или от его энтропии H(A);
2.от свойств самих каналов связи, то есть от ненадежности канала связи
(H(A|B)).
Следовательно, взаимная информация I(A, B) не может в полной мере охарактеризовать канал связи, как средство передачи сообщений, поэтому более удобной характеристикой является пропускная способность канала связи.
Пусть на вход дискретного канала связи поступают сообщения от всевозможных источников, которые описываются различными распределениями вероятностей P(A). В каждом таком случае, количество информации, передаваемое по каналу связи, будет иметь свое значение.
Пропускная способность канала связи (информативная емкость) – это максимальное количество информации, которое рассчитывается по всевозможным распределениям вероятностей на входе канала связи:
C = max I ( A, B)
P( A)
Пропускная способность рассчитывают на единицу времени [бит/с]:
(7)
C ' = k C = max I '( A, B) |
(8) |
P( A) |
|
Основные свойства пропускной способности:
1. C' ≥ 0, C' = 0 при обрыве канала связи, что следует из первого свойства количества информации.
2. C' ≤ VklogN, N – объем алфавита источника сообщений. Причем C' = VklogN при отсутствии помех в канале связи, что следует из свойств энтропии и взаимной информации.
Пропускная способность двоичного симметричного канала связи без памяти
Определим пропускную способность данного канала, который задается переходными вероятностями:
|
|
q = 1 − P, j i |
|
P(bj |
| ai |
) = |
|
|
|
P, |
j i |
Тогда пропускная способность будет равна
C = max I (B, A) = max H (B) − H (B | A)
(9)
(10)
P( A) |
P( A) |

Поскольку канал связи без помех, условная вероятность равна
|
|
1 |
|
|
|
1 |
|
|
1 |
|
|
|
|
= (1 − P) log2 |
|
|
|||
H (B | A) = M log |
2 |
P(bj |
| ai |
|
|
+ P log |
2 |
|
|
|
|
) |
|
1 − P |
|
|
P |
||
|
|
|
|
|
|
|
|
|
|
Тогда
C = max |
H (B) − (1 − P)log |
|
|
|
1 |
− P log |
|
1 |
|
|
|
|
|
|
|
|
|||
P( A) |
|
2 |
1 |
− P |
|
2 |
|
||
|
|
|
|
|
P |
(11)
(12)
В этом выражении H(B) зависит от распределения вероятностей, поэтому максимум количества переданной информации будет определяться при максимальном значении этой величины. При N = 2 максимальное значение H(B) = log22 = 1 бит, реализуется при равновероятностных и взаимозависимых символах bj на выходе канала связи, что обеспечивается только при равновероятностных и взаимозависимых символах ai на входе канала связи:
P(a ) = P(a |
) = 0.5 |
|
1 |
2 |
|
Согласно формуле полной вероятности:
(13)
|
|
2 |
|
|
|
2 |
|
|
|
|
P(b |
) = |
|
P(a )P(b |
j |
| a ) = 0.5 |
P(b |
j |
| a ) = 0.5 (1 − P) + P = 0.5 |
||
j |
|
i |
i |
|
|
|
i |
|||
|
|
i=1 |
|
|
|
i=1 |
|
|
|
|
В этом случае |
|
|
|
|
|
|
|
|||
|
|
|
|
|
max H (B) |
= log |
2 |
2 = 1 |
||
|
|
|
|
|
P( B ) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Тогда пропускная способность равна
C = 1 + P log |
2 |
P + (1 − P) log |
(1 − P) |
|
2 |
|
Пропускная способность в расчете на единицу времени [бит/с]:
C ' = k C = k 1 + P log2 P + (1 − P) log2 (1 − P)
(14)
(15)
(16)
(17)
Анализ полученных зависимостей показывает, что C = C' = 0, при P = 0.5 (это обрыв канала связи). Если P = 1 или P = 0 (канал связи без помех), то пропускная способность C = 1. Причем это не противоречит здравому смыслу, т.к. при P = 1 правильный прием символов достигается при их инвертировании.
В общем случае пропускная способность равна |
|
||
R = |
H (B) − H (B | A) |
, |
(18) |
|
|||
|
и |
|
где H(B) – энтропия на выходе канала связи; H(B|A) – энтропия потерь; τи – среднее время передачи одного символа.

Энтропия на выходе канала связи и энтропия потерь равны
H (B) =
m − P(bj ) logm j=1
P(b |
j |
|
)
,
(19)
n |
m |
|
H (B | A) = − P(ai ) P(bj | ai ) logm P(bj | ai ) , |
(20) |
|
i=1 |
j=1 |
|
где P(ai) и P(bj) – вероятности появления символов ai и bj на входе и выходе канала связи соответственно (i = 1÷n, j = 1÷m); P(bj | ai) – переходная вероятность появления символа bj на выходе канала связи при наличии символа ai на входе канала связи; n и m – соответственно, количество символов на входе и выходе канала связи.
Задача. Определите энтропию на входе двоичного канала связи без памяти, если при обработке информации установлено, что вероятности появления символов «0» и «1» на входе канала связи равны 0.5, а вероятности появления символов «0» и «1» на выходе канала связи при наличии этих символов на его входе, равны соответственно P(0|0) = 0.8 и P(1|1) = 0.9.
Решение. Приведем модель канала связи графически в виде переходных вероятностей
Ps0 «0» |
P(0|0) |
«0» P's0 |
|
Ps1 «1» |
P(1|1) |
«1» P's1 |
|
В соответствии с формулой (19) энтропия на выходе канала связи
m
H (B) = − P(bj ) logm P(bj ) = −P 's 0 log2 P 's 0 − P 's1 log2 P 's1 j=1
Вероятности P's0 и P's1 равны соответственно
P 's0 = Ps0 P(0 | 0) + Ps1P(0 |1) = 0.5(P(0 | 0) + P(0 |1))
P 's1 = Ps1P(1| 0) + Ps1P(1|1) = 0.5(P(1| 0) + P(1|1))
Таким образом получим
H (B) = −0.5(P(0 | 0) + P(0 |1))log2 0.5 P(0 | 0) + P(0 |1) −
− 0.5 P(1| 0) + P(1|1) log2 0.5 P(1| 0) + P(1|1)
Ответ: H(B) = 0.993 бит.