- •1. Основные определения.
- •2. Этапы обращения информации.
- •3. Понятие сигнала и его модели.
- •4. Формы представления детерминированных сигналов.
- •5. Представление сигнала в виде взвешенной суммы базисных функций. Понятие дискретного спектра сигнала и спектральной плотности.
- •6. Ортогональное представление сигналов.
- •7. Временная форма представления сигнала.
- •8. Частотная форма представления сигнала.
- •9. Спектры периодических сигналов.
- •10. Распределение энергии в спектре периодичного сигнала.
- •11. Спектры непериодических сигналов.
- •12. Распределение энергии в спектре непериодического сигнала. Равенство Парсеваля.
- •13. Соотношение между длительностью импульсов и шириной их спектра.
- •14. Спектральная плотность мощности детерминированного сигнала.
- •15. Функция автокорреляции детерминированного сигнала.
- •16. Случайный процесс как модель сигнала. Понятие ансамбля и пространства состояний. Виды случайных процессов.
- •17. Вероятностные характеристики случайного процесса.
- •18. Стационарные и эргодические случайные процессы.
- •19. Спектральное представление случайных сигналов.
- •20. Частотное представление стационарных случайных сигналов. Дискретные спектры.
- •21. Частотное представление стационарных случайных сигналов. Непрерывные спектры.
- •22. Основные свойства спектральной плотности.
- •23. Дискретизация непрерывных величин.
- •24. Квантование по времени. Теорема Котельникова.
- •25. Понятие модуляции.
- •26. Амплитудная модуляция.
- •27. Частотная модуляция.
- •28. Фазовая модуляция.
- •29. Модуляция импульсного тока.
- •30. Кодоимпульсные сигналы.
- •31. Многократная модуляция.
- •32. Количество информации в дискретных сообщениях. Энтропия дискретного источника.
- •33. Свойства энтропии.
- •34. Условия энтропии и ее свойства.
- •35. Передача информации от дискретного источника. Частное количество информации.
- •37. Частная условная энтропия. Условная энтропия источника. Апостериорная энтропия источника.
- •38. Количество информации в переданном сообщении дискретным источником.
- •39. Энтропия квантовой величины.
- •40. Количество информации в непрерывном сообщении. Априорная (безусловная) и апостериорная (условная) дифференциальные энтропии. Симметричность выражения количества информации.
- •43. Количество и скорость передачи информации при нормальном распределении сигнала и помехе (погрешности).
- •42. Количество информации, передаваемое за определенное время. Скорость передачи информации.
- •41. Количество передаваемой информации с учетом наличия аддитивной помехи.
- •44. Количество и скорость передачи информации при равномерном распределении сигнала и нормальном распределении помехи (погрешности).
- •45. Дифференциальная энтропия равномерно распределенной погрешности. Энтропийная погрешность.
- •46. Код, кодирование, кодовые сигналы.
- •47. Системы счисления.
- •48. Числовые коды.
- •49. Коды, не обнаруживающие возможных искажений.
- •50. Коды, обнаруживающие ошибки.
- •51. Информационная способность кода и избыточность.
- •52. Коды с коррекцией искажений.
52. Коды с коррекцией искажений.
Если сигналы составлены таким образом, что один отличается от другого не менее чем тремя элементами, то при искажении одного элемента какого-либо сигнала можно установить, какой сигнал был первоначально послан, т.к. искаженный в одном элементе сигнал будет отличаться от посланного одним элементом, а от всех остальных – минимум двумя элементами.
Это дает возможность скорректировать искаженный в одном элементе сигнал и реализовать его как правильный.
В качестве примера рассмотрим систему пятиэлементных кодовых комбинаций, отличающихся друг от друга не менее чем 3 элементами
-
11010
-
01001
-
00110
-
10101
Пусть принят сигнал, соответствующий кодовой комбинации 01011. Такой комбинации в списке нет, следовательно это искаженный сигнал. Он отличается от первой комбинации двумя элементами, от второй – одним элементом, от третьей – тремя и от четвертой – четырьмя элементами.
Вывод: скорее всего это сигнал 2, искаженный в одном элементе.
Тогда энтропия кода:
Справка. При равных вероятностях Pi всех n состояний энтропия равна
но , тогда
- формула Хартли
Сигнал (символ) любого числового кода на все сочетания несет информацию
где В – основание системы счисления, n – число элементов в сигнале (символе).
Избыточность кода D определяется выражением
(6)
Н – энтропия данного кода, имеющего N сигналов
Н=logN
Минимальное число элементов сигнала, необходимое для образования N комбинаций, как и в рассматриваемом коде
(7)
Иначе
(8)
Hmax – максимальное число сигналов (символов, комбинаций), которые можно организовать из элементов данного кода (фактически это код на все сочетания)
(9)
где n – число элементов сигнала (символа) данного кода.
Тогда
(10)
Отметим, что, как правило, если n0 получается дробным, его округляют до целого числа в большую сторону.
Таким образом, безошибочные передачи при наличии помех возможны лишь теоретически.
Обеспечение передачи информации с весьма малой вероятностью ошибки и достаточно высокой эффективностью возможно лишь при кодировании чрезвычайно длинных последовательностей знаков. На практике степень достоверности и эффективности ограничивается двумя факторами: размерами и стоимостью аппаратуры кодирования и декодирования и временем задержки передаваемого сообщения.