
- •Лабораторна робота Дослідження функціонування системи передачі дискретних сигналів
- •Контольні питання
- •Лабораторна робота Періодичні сигнали та ряд Фур’є.
- •Контольні питання:
- •Лабораторна робота Спектр неперіодичних сигналів
- •Прямокутний імпульс
- •Графік спектральної щільності ступінчастої функції
- •Контольні питання
- •Лабораторна робота Сигнали з амплітудною модуляцією
- •Теоретичні положення
- •Амплітудна модуляція
- •Багатоканальна ам.
- •К онтрольні питання
- •Лабораторна робота Сигнали з кутової модуляцією
- •Теоретичні положення.
- •Контрольні питання:
- •Лабораторная работа Потери информации в каналах шумами
- •Ключевые положения
- •3. Ключевые вопросы
- •4.Лабораторное задание
- •Задача-пример
- •Значення величин – p log2 p
- •Методика Хафменна
- •Лабораторная работа Помехоустойчивое кодирование в дискретних каналах связи (классический код Хеминга)
- •Классический код хеминга
- •Закодировать свой номер по журналу простым двоичным 5-разрядным кодом, а затем закодировать полученую кодовую комбинацию кодом Хэминга
- •Рассчитать синдром, если известна позиция искаженного символа.
- •Контрольные вопросы
- •Лабораторная работа Помехоустойчивое кодирование в дискретном канале святи (циклический код)
- •Лабораторна робота Оптимальне приймання дискретних сигналів Мета роботи
- •2.Структурні схема оптимального когерентного демодулятора сигналов с ам, чм и офм.
- •Структурна схема оптимального приймача в.А. Котельникова для рівноймовірних сигналів
- •Структурна схема оптимального приймача в.А. Котельникова для рівноймовірних сигналів рівних енергій
- •Структурна схема приймача в.А. Котельникова на узгоджуючих фільтрах.
- •Оптимальная фильтрация сигналов извесной формы
- •2. Ключевые положении
- •3.Ключевые вопросы
Значення величин – p log2 p
-
p
– p log2 p
p
– p log2 p
p
– p log2 p
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,10
0,11
0,12
0,13
0,14
0,15
0,16
0,17
0,18
0,19
0,20
0,21
0,22
0,23
0,24
0,25
0,26
0,27
0,28
0,29
0,30
0,31
0,32
0,33
0,34
0,35
0,0664
0,1129
0,1517
0,1857
0,2131
0,2435
0,2386
0,2915
0,3127
0,3322
0,3503
0,3371
0,3826
0,3971
0,4105
0,4230
0,4346
0,4453
0,4552
0,4644
0,4728
0,4806
0,4877
0,4941
0,5
0,5053
0,5100
0,5142
0,5179
0,5211
0,5238
0,5260
0,5278
0,5292
0,5301
0,36
0,37
0,38
0,39
0,4 0
0,4 1
0,4 2
0,4 3
0,4 4
0,45
0,4 6
0,4 7
0,4 8
0,4 9
0,5 0
0,5 1
0,5 2
0,5 3
0,5 4
0,5 5
0,5 6
0,5 7
0,5 8
0,5 9
0,6 0
0,6 1
0,6 2
0,6 3
0,6 4
0,6 5
0,6 6
0,6 7
0,6 8
0,6 9
0,7 0
0,5306
0,5307
0,5304
0,5298
0,5288
0,5274
0,5256
0,5236
0,5211
0,5184
0,5153
0,5120
0,5083
0,5043
0,5
0,44954
0,4906
0,4854
0,4800
0,4744
0,4684
0,4623
0,4558
0,4491
0,4422
0,4350
0,4272
0,4199
0,4121
0,4040
0,3957
0,3871
0,3784
0,3694
0,3602
0,7 1
0,7 2
0,7 3
0,74
0,7 5
0,7 6
0,7 7
0,7 8
0,7 9
0,8 0
0,8 1
0,8 2
0,8 3
0,8 4
0,8 5
0,8 6
0,8 7
0,8 8
0,8 9
0,9 0
0,9 1
0,9 2
0,9 3
0,9 4
0,9 5
0,9 6
0,9 7
0,9 8
0,9 9
0,3500
0,3412
0,3314
0,3215
0,3113
0,3009
0,2903
0,2793
0,2678
0,2575
0,2462
0,2346
0,2231
0,2113
0,1903
0,1871
0,1748
0,1623
0,1493
0,1338
0,1238
0,1107
0,0974
0,0839
0,0803
0,0535
0,0423
0,0286
0,0140
Лабораторная работа
Эффективное кодирование дискретных сообщений)
Цель работы
Изучение способов увеличения пропускной способности канала без помех
Ключевые положения:
Производительность источника сообщений определяется формулой
Н1(А)=Н(А)/Т ,
где Н(А)-энтропия источника; Т-средняя длительность одного сообщения.
Выдаваемая источником информация в виде отдельных сообщений поступает в канал, где осуществляется ряд преобразований, в результате которых информация переносится уже сигналами имеющими другую природу.
Скорость передачи информации по каналу, это среднее количество информации, которое можно передать по каналу в единицу времени
I1=H(U)/T
Максимально возможная скорость передачи информации по каналу связи при заданных ограничениях называется пропускной способностью канала
С=max I1 =мах H(U)/T бит/с
В реальных каналах число передаваемых сообщений конечно, и энтропия величина ограниченная (т.е. нельзя бесконечно увеличивать число передаваемых символов, чтобы увеличить скорость передачи, а уменьшение скорости передачи приводит к расширению их спектра, что ограничено полосой пропускания канала).
Теорема Шеннона овечат на вопрос:
Как увеличить скорость передачи, приблизив её к пропускной способности канала?
И гласит:
Если производительность источника равна или менше пропускной способности канала на величину , где -сколь угодна малая величина, то всегда существует способ кодирования, позволяющий передать по каналу все сообщения источника.
Н1(А)<=C-
Если Н1(А)>C то передача всех сообщений невозможна
Кодирование при котором осуществляется наилучшее использование пропускной способности канала называется эффективным или оптимальным.
Очевидно для этого надо сделать так, чтобы наиболее часто встречающиеся символы имели мин Т.
Таким образом задача эффективного кодирования предполагает
-
при заданной статистике источника сообщений формировать кодовые комбинации при которых достигается приближение скорости передачи информации к пропускной способности канала.
-
Возможность однозначного декодирования на приемной стороне.
Код Морзе не является оптимальным, т.к. каждая кодовая посылка имеет разделительный знак.
Рассмотрим пример построения оптимального кода
Известно, что скорость передачи будет мах при условии равной вероятности передачи символов 1,0. В соответствии с этим, код Шеннона-Фано строится методом дихотомии (последовательного деления пополам).
Все подлежащие кодированию символы разбиваются на две группы, так, чтобы суммы вероятностей одной группы по возможности были равны другой. Всем символам первой группы приписывается 0, а всем символа 2 группы -1 . Далее процесс повторяется.
Задача.
Р(а1)=0,5
0 а1=0
Р(а2)=0,25
0 а2=10
Р(а3)=0,125
1 1 0 а3=110
Р(а40=0,125
1 а4= 111
Полученный код -- неравномерный. Оценим его. Определим сколько потребуется символов для передачи 1000 сообщений, если в каждом сообщении 2 символа.
Для равномерного кода --2000символов.
А для кода Фано:
Р(а1)=1/2, значит а1 появится 500 раз и т.д. т.е.
А1=500*1
А2=250*2=500
А3=А4=2*125*3=750
Итого: 1750 символов, т.е. виграш состави 1/8.
Недостаток неравномерного кода:
Отсутствует избыточность(т.е. можно применять там, где помехи незначительны.
Задача 2
Закодировать двоичым кодом множество сообщений.
Р(а1)=0,2 а1=00
Р(а2)=0,15 а2=010
Р(а3)=0,15 а3=011
Р(а4)=0,12 а4=100
Р(а5)=0,1 а5=101
Р(а6)=0,1 а6=110
Р(а7)=0,08 а7=1110
Р(а8)=0,06 а8=11110
Р(а9)=0,04 а9=11111
Оценить эффективность полученного кода по сравнению с равномерным двоичным
Определим среднюю длительность кодового слова.
Для равномерного кода, чтобы передать 9 сообщений надо иметь 4 разрада. 23=8
Для неравномерного
A
L= p(ai)*ni , где ni -длина кодового слова.
I=1
I=0.2*2+2*0.15*3+0.12*3+0.08*4+0.06*5+0.04*5=3,08
Код Фано относится к префиксным, т.е к таким, где не ставится разделительный знак, как в Морзе. Если написано 011 100, то понятно, что передано А3 и а6.
При разбиении на подгруппы можно сделать перекос.