
- •Теория информационных процессов и систем
- •Лекции читает канд.техн.наук, доцент Литвинов Владислав Леонидович
- •Информационные процессы и сигналы
- ••Выше мы обсуждали передачу информации в канале связи посредством дискретных сигналов. Однако при
- ••Ограничения на значения этой функции задаются величиной средней
- ••Явный вид функции помех заранее неизвестен. Поэтому для количественного описания прохождения сигналов по
- ••Белый шум — стационарный шум, спектральные составляющие которого равномерно распределены по всему диапазону
- •Спектр шума, который можно считать белым
- ••Определим количество информации, передаваемое по непрерывному сигналу с помехами. Доказано, что нормальное распределения
- ••Взаимная информация входного и выходного сигнала равна:
- ••Дисперсия непрерывных величин для любых законов распределения вводится следующим образом:
- ••Замечание. Для реального гауссовского канала с ограниченной
- •Приведем характеристики некоторых каналов связи .
- •Теорема Шеннона для непрерывных
- ••Эпсилон-энтропией Hε(X) называется минимальное среднее количество информации, содержащееся в одном отсчете сообщения Z(t)
- ••Теорема Шеннона для непрерывного канала с помехами (третья теорема):
- •Вопросы и задачи к главе
- ••2. Источник генерирует три символа первичного алфавита: А, В и С с вероятностями
- ••3. В информационном канале используется алфавит с четырьмя различными символами. Длительности всех символов
- ••5. Источник создает последовательность из алфавита в 16 равновероятных и статистически независимых букв.
- •9. На флоте при передаче сообщений прожектором используется два световых сигнала: длинный и
- ••Вычислим энтропию сигнала:
- ••10. Сообщения передаются в двоичном коде. Длительность передачи

Вопросы и задачи к главе
•1.Насколько снижается пропускная способность канала, если средняя частота появления ошибки при передаче сообщения в двоичном симметричном канале составляет 1 ошибочный сигнал на 100 переданных?
•Решение. Очевидно, вероятность появления ошибки передачи p = 0.01. Следовательно, по формуле (4.15) получаем:
С0 1 p log2 p (1 p) log2 (1 p) ≈ 0.9192.
•т.е. пропускная способность канала снизилась приблизительно на 8%.C

•2. Источник генерирует три символа первичного алфавита: А, В и С с вероятностями 0.5, 0.25 и 0.25 соответственно. В передатчике символы кодируются равномерным бинарным кодом. При передаче сообщения по каналу связи возможны искажения: знак 0 искажается в 1 с вероятностью 0.1, знак 1 не искажается. Построить канальную матрицу.
•Решение. Закодируем символ А словом 00, символ В словом 01, символ С
словом 10. С учетом того, что P(0→1)=0.1, P(0→0)=0.9, P(1→0)=0, P(1→1)=1, получим P(A|A)=P(0|0)∙P(0|0)=0.81, P(B|A)=P(0|0)∙P(1|0)=0.09, P(C|A)=P(1| 0)∙P(0|0)=0.09, P(A|B)=P(0|0)∙P(0|1)=0,… Кроме того, приемник будет получать код 11, не соотнесенный ни с одним символом первичного алфавита. Обозначим этот код буквой Z и получим канальную матрицу:
|
|
A |
B |
C |
Z |
|
A |
|
0.81 |
0.09 |
0.09 |
0.01 |
|
|
|
|
|
|
|
|
B |
|
0 |
0.9 |
0 |
0.1 |
|
C |
|
0 |
0 |
0.9 |
0.1 |
|
|
|
|||||
|
|
|
|
|
|
|

•3. В информационном канале используется алфавит с четырьмя различными символами. Длительности всех символов одинаковы и равны t = 1 мкс. Определить пропускную способность канала при отсутствии шумов.
•4. По каналу в одну секунду передается 106 символов (скорость передачи 106 бод). Символы "0" и "1" поступают на вход канала с равной вероятностью. Определите пропускную способность канала при следующих условиях:
–символ «1» воспринимается как «1» с вероятностью 0.9, и как «0» с вероятности 0.1, так же искажается и символ «0»;
–в пакете из 4-x символов с вероятностью 0.1 искажается один символ.

•5. Источник создает последовательность из алфавита в 16 равновероятных и статистически независимых букв. При передаче по каналу с шумом буквы искажаются так, что четверть всех букв принимается неправильно, причем все ошибки одинаково вероятны. Определить среднюю информацию в принятой букве относительно переданной.
•6. Двоичный стирающий канал является одним из наиболее простых типов канала с шумом. В нем переданные символы могут быть "стертыми", но никогда не могут быть приняты ошибочно. Найти среднее количество информации, переносимое одним символом в таком канале, если вероятность стирания равна 0.1 и не зависит от переданного символа; вероятности символов на входе одинаковы.
•7. Источник генерирует знак z1 с вероятностью 0.8 и z2 с вероятностью 0.2. Постройте
эффективные коды для последовательности из трех знаков zi, zj, zk. Каково среднее число символов на знак? Сравните с энтропией источника.
•8. Сообщения источника с производительностью 850 бит/с поступают на вход двоичного симметричного канала с вероятностью искажения p = 0.05. Длительность символов сигнала в канале t = 10-3 с. Достаточна ли пропускная способность канала для передачи всей информации, поступающей от источника?

9. На флоте при передаче сообщений прожектором используется два световых сигнала: длинный и короткий. Оба сигнала в морской азбуке равновероятны. Длительность длинного сигнала в среднем 0.5 с, а короткого – 0.25 с. В тумане каждую восьмую вспышку не удается рассмотреть (теряется), а каждый десятый длинный сигнал воспринимается как короткий. Короткие сигналы распознаются безошибочно (если не теряются). Определить скорость передачи такого канала связи.
Решение. Составим матрицу переходных вероятностей:
|
Априор |
Длинный |
Короткий |
Потеря |
|
ные |
|
|
|
|
вероятности |
|
|
|
Д |
0.5 |
1-0.1- |
0.1 |
1/8 = 0.125 |
|
|
0.125=0,775 |
|
|
К |
0.5 |
0 |
1- |
1/8 = 0.125 |
|
|
|
0.125=0.875 |
|

•Вычислим энтропию сигнала:
•H(v)=-p(Д)∙log p(Д)-p(К)∙log p(К)-p(П)∙log p(П) =- 0.5∙0,775∙log(0.5∙0.775)-(0.5∙0.1+0.5∙0,875)∙log(0.5∙0.1+0.5∙0.875)- (0.5∙0.125+0.5∙0.125)∙log(0.5∙0.125+0,5∙0,125)=
•-0,3875∙log0.3875-0.4875∙log0.4875-0.125∙log0.125=1.41 (бит)
•Вычислим энтропию шума:
•H(v/u)=-0.5∙(0.775∙log0.775+0.1∙log0.1+0.125∙log0.125)- 0.5(0.875∙log0.875+0.125∙log0.125)=0.77 (бит)
•I(u,v)=H(v)-H(v/u)=0.64 (бит)
•Средняя длительность одного сигнала: 0.5∙0.5(с)+0.5∙0.25(с)=0.375(с)
•Скорость передачи: 0,64/0,375=1,71 (бит/с)

•10. Сообщения передаются в двоичном коде. Длительность передачи
нулевого бинарного символа – τ0 = 1 с, длительность передачи единичного бинарного символа τ1 = 5 секунд. Определить скорость передачи информации для случаев равновероятных символов и неравновероятных символов с вероятностями р(0) = 0.37, р(1) = 0.63.
•Решение.
•1) Символы равновероятны и независимы.
J |
H |
|
|
log2 2 |
1 |
0,33 (бит / с) |
|
|
|
|
3 |
||
cp |
1 |
( 0 1 ) |
||||
|
|
2 |
|
|
• 2) Символы неравновероятны: р0 = 0.37, р1 = 0.63.
|
|
|
1 |
|
|
|
J |
H |
|
pi logpi |
|
0.37 log0.37 0.63 log0.63 |
0,27 (бит / с) |
|
i 0 |
|
||||
|
1 |
|
||||
|
cp |
|
|
1 0.37 5 0.63 |
||
|
|
i pi |
|
|||
|
|
|
|
|
|
|
|
|
|
i 0 |
|
|
|

•11. Источник генерирует символы А и В с вероятностями Р(А)=0.7, Р(В)=0.3. Построить эффективный бинарный код для однобуквенного, двухбуквенного и трехбуквенного кодирования. Оценить среднюю длину кодового слова и эффективность каждого кода.
•Решение.
•1) Составим однобуквенный код. А → 0, В → 1. Энтропия источника Н = 0,88 бит/символ. Средняя длина кода К1 = 1. Коэффициент
эффективности кода КОЭ = 0.88/1 = 0.88.
• 2) Составим двухбуквенный код.
Пар |
Вероятность пары |
Код |
Длина |
а |
|
пары |
кода |
АА |
0.7∙0.7=0.49 |
1 |
1 |
|
|
|
|
АВ |
0.7∙0.3=0.21 |
01 |
2 |
|
|
|
|
ВА |
0.3∙0.7=0.21 |
001 |
3 |
|
|
|
|
ВВ |
0.3∙0.3=0.09 |
000 |
3 |
|
|
|
|

•Средняя длина кода К2=1∙0.49+2∙0.21+3∙0.21+3∙0.09=1.81; в расчете на один символ К1=К2/2=0.905.
•Коэффициент эффективности кода КОЭ = 0.88/0.905 = 0.972.
•3) Составим алфавит из трёхбуквенных комбинаций.
Тро |
Вероятность тройки |
Код |
Длина |
йка |
|
тройки |
кода |
ААА |
0.343 |
11 |
2 |
|
|
|
|
ААВ |
0.147 |
10 |
2 |
|
|
|
|
АВА |
0.147 |
011 |
3 |
|
|
|
|
ВАА |
0.147 |
010 |
3 |
|
|
|
|
АВВ |
0.063 |
0011 |
4 |
|
|
|
|
ВАВ |
0.063 |
0010 |
4 |
|
|
|
|
ВВА |
0.063 |
0001 |
4 |
|
|
|
|
ВВВ |
0.027 |
0000 |
4 |
•Средняя длина кода К3=2.686; в расчете на один символ К1=К3/3=0.895.
•Коэффициент эффективности кода КОЭ = 0.88/0.895 = 0.983.