 
        
        - •1. Передача информации между двумя оконечными устройствами. Тип соединения оконечных устройств
- •2. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
- •3. Обобщенная структура схемы системы связи
- •4. Источники сообщения в системах связи. Вероятностный характер источников сообщений.
- •5. Форматирование информации. Форматирование текстовых данных. Существующие стандарты.
- •6. Передача сообщений по каналу, искажения, краевые искажения, дробление
- •7. Аналоговые источники сообщений. Преобразование аналоговых сигналов в цифровые. Квантование по уровню. Ошибка квантования.
- •8. Дискретизация аналоговых сигналов по времени. Понятие о теореме Котельникова.
- •9. Преобразование аналоговых сигналов в цифровые. Дискретизация по методу «выборка-хранение». (доработать)
- •10. Сигнал, как реализация процесса. Классификация процессов.
- •11. Классификация процессов. Детерминированные процессы. Гармонические и переходные непериодические процессы.
- •12. Полигармонические и непериодические процессы их спектральные характеристики.
- •13. Определение случайного процесса. Непрерывные и дискретные случайные процессы.
- •14. Измерение случайных процессов.
- •15. Числовые характеристики случайных процессов, их инженерно-физический смысл.
- •16.Законы распределения и основные характеристики случайных процессов
- •17. Автокорреляционная функция случайного процесса. Примеры автокорр. Функций.
- •18. Взаимная корреляционная функция случайных процессов. Примеры применения корреляционных характеристик.
- •19. Усреднение по ансамблю и по времени. Эргодическое свойство случайных процессов.
- •20. Стационарность случайных процессов. Стационарность в широком и узком смыслах.
- •21. Информационные модели сигналов. Формула Хартли.
- •22. Информационные модели сигналов. Формула Шеннона.
- •23. Энтропия источника сообщений. Свойства энтропии источника дискретных сообщений.
- •24. Избыточность при передаче сообщений. Роль избыточности при передаче информации.
- •25. Математические модели сигналов. Временное и частотное представление сигналов.
- •26. Ряд Фурье по произвольной ортогональной системе функций.
- •31. Спектральные характеристики непериодического сигнала. Прямое и обратное преобразования Фурье.
- •32. Оценивание спектральной плотности с помощью дпф
- •33. Дискретное преобразование Фурье (дпф). Гармонический анализ.
- •34. Примеры ортогональных базисов. Функции Уолша.
- •35. Модуляция. Зачем она нужна
- •36. Амплитудная модуляция.Спектр ам сигнала. Примеры модуляторов.
- •37 Амплитудно-модулируемый сигнал сложной формы, его спектр.
- •38 Демодуляция ам сигнала. Работа простейшего амплитудного детектора.
- •43. Спектр колебаний с угловой модуляцией
- •44. Сравнение методов амплитудной и угловой модуляций
- •45. Двоичное представление информации. Механизм восстановления двоичных импульсов.
- •46. Спектральные характеристики случайных процессов.
- •47. Преобразование кодов.
- •48. Корректирующие коды. Ход Хемминга
- •49. Неравномерные коды. Код Хаффмана.
- •50. Неравномерные коды. Код Шеннона-Фано
- •51. Дискретизация аналоговых сигналов по времени. Понятие о теореме котельникова.
- •52. Спектр прямоугольного сиганала
- •53. Свойства энтропии источника дискретных сообщений.
48. Корректирующие коды. Ход Хемминга
Вектор ошибок – кодовая комбинация равная длине сообщения, в котором единицами отмечают разряды, в которых произошла ошибка.
 
Пусть имеется алфавит из N сообщений
 
E*N – возможное количество ошибок
N – разрешённые кодовые комбинации
N0-N – запрещённые кодовые комбинации
 
	 
	    
	 
	        
	 
Код Хемминга
| k | k | 
 | k | 
 | 
 | 
 | K | 
 | 
| a1 | a2 | a3 | a4 | a5 | a6 | a7 | a8 | a9 | 
| 0 | 1 | 1 | 0 | 0 | 1 | 1 | 0 | 0 | 
| 0 | 1 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 
Верхний ряд – отправленное сообщение
Нижний ряд – принятое
Ошибка в разряде a3
| a1 | 0001 | 
| a2 | 0010 | 
| a3 | 0011 | 
| a4 | 0100 | 
| a5 | 0101 | 
| a6 | 0110 | 
| a7 | 0111 | 
| a8 | 1000 | 
| a9 | 1001 | 
Проверка на передаче:
S1-правые разряды с 1 (смотрим в таблице)
S1=a1  a3  a5  a7  a9 = 0  1  0  1  0 =0
S2 – разряд левее S1 и т. д.
S2=a2  a3  a6  a7 = 1  1  1  1 =0
S3=a4  a5  a6  a7 = 0  0  1  1 =0
S4=a8  a9 =0  0 =0
Проверка на приёме:
S1=0  0  0  1  0 =1
S2=1  0  1  1 =1
S3=0  0  1  1 =0
S4=0  0 =0
Считываем суммы в порядке S4, S3, S2, S1 и получаем число 0011, что в десятичной форме равно 3, значит ошибка в разряде a3.
49. Неравномерные коды. Код Хаффмана.
Кодирование по Хаффману выполняется в следующем порядке:
- Размещают символы алфавита источника в первом столбце таблицы в порядке убывания их вероятностей. 
- Суммируют в полученном столбце две последние (наименьшие) вероятности и в результате получают новый столбец таблицы, в котором количество (с учетом суммарной вероятности) значений вероятностей на одну меньше. 
- Располагают все вероятности в новом столбце порядке убывания. 
- Повторяют шаги 2) и 3) до тех пор, пока не подучим столбец, состоящий из одной вероятности, равной 1. 
- По полученным столбцам строится двоичное дерево-граф, начальным узлом которого является последний столбец (вероятность = 1), а выходящие из каждого узла по две ветви отражают процесс объединения вероятностей, выполненный в пунктах 2) и 3). 
- Затем каждой выходящей из любого узла ветви приписывается 1, если она обладает большей вероятностью и 0, если ее вероятность меньше или равна. 
- Теперь искомые двоичные кодовые комбинации, соответствующие каждому из символов алфавита источника, можно прочесть из графа, двигаясь по ветвям дерева из начального узла к концевым точкам-вероятностям, отвечающих первому столбцу таблицы. 
Таблица кодирования строится как процесс формирования дерева (дерево кодирования Хаффмана).
А также в порядке убывания вероятностей.
 
Этим символам ставятся в соответствие листья формируемого дерева. К листу направлена ветвь возле которой записываются вероятности листа. Две самые нижние ветви формируют вершины ветвления, к которой направляется ветвь с суммарной вероятностью далее формируется следующий уровень дерева в которой нижележащие вершины упорядочиваются и так до тех пор пока не будет 1.
После построения дерева ветви исходящие из каждой вершины ветвления. Снабжаются двоичным решением: верхняя ветвь 1, нижняя ветвь 0. Такой алгоритм построения дерева называется методом пузырька т.к. после каждого объединения двух вершин полученная вершина родитель поднимается. Для построения кода осуществляется переход от корня к каждому листу попутно в код заносятся попавшиеся двоичные решения.
На практике можно добиться увеличения эффективности сжатия переопределив алфавит источника следующим образом. Кроме единичных символов в алфавит поместить всевозможные пары символов алфавита. Если считать что символы статистически независимы то вероятности каждого парного элемента будут равны произведению отдельных вероятностей. Затем к полученному алфавиту применить метод Хаффмана. В результате получается код называемый кодом расширения.
