
- •1. Определение информации. Семиотика и ее составные части. Фазы обращения информации.
- •2. Структура системы связи. Основные задачи каждого блока системы связи.
- •3. Измерение информации. Дискретный источник информации. Мера информации по Хартли и ее свойство
- •4. Измерение информации по Шеннону.
- •5. Свойства информации по Шеннону.
- •6. Энтропия нескольких источников информации.
- •7. Энтропия непрерывного источника. Относительная энтропия.
- •8. Избыточность источника сообщений.
- •9. Взаимосвязь между энтропией и числом сообщений.
- •10. Пропускная способность двоичного канала.
- •11. Согласование характеристик сигнала и канала.
- •Амплитудная модуляция
- •12. Пропускная способность непрерывного канала с помехами.
- •13. Классификация методов преобразования непрерывной информации в дискретную форму.
- •14. Теорема дискретизации Котельникова в.А. И ее особенности.
- •Свойства ряда Котельникова:
- •15. Корреляционный критерий дискретизации.
- •16. Адаптивные методы дискретизации.
- •Нулевая степень воспроизводящей функции
- •Первая степень приближающего многочлена
- •17. Квантование по уровню. Шум квантования.
- •О терминах
- •Основные принципы построения цап с резистивными цепочками Первый вариант
- •19. Ацп поразрядного взвешивания. Ацп поразрядного уравновешивания на конденсаторах
- •Первый шаг
- •Быстродействие
- •20. Устройство выборки - хранения. Принцип действия и схемы увх
- •21. Распределение мощности в спектре периодического сигнала.
- •22. Спектр периодической последовательности прямоугольных импульсов. Пример.
- •23. Спектр одиночного прямоугольного импульса. Пример.
- •24.Теорема Парсеваля о распределении энергии в спектре непериодического сигнала.
- •25. Взаимосвязь между длительностью импульса и шириной его спектра.
- •26. Спектральная плотность мощности случайного процесса.
- •27. Цели кодирования. Эффективное кодирование. Методы эффективного
- •Цели изучения темы «Эффективное кодирование».
- •Задачи эффективного кодирования.
- •28. Техническая реализация кодирующего и декодирующего устройств эффективного кода.
- •29. Теорема Шеннона о пропускной способности канала без помех и
- •30. Теорема Шеннона о пропускной способности канала при наличии помех. Классификация помехоустойчивых кодов.
- •31. Общие принципы использования избыточности в блоковых кодах.
- •32. Групповой код. Математическое введение. Определение количества
- •33. Таблицы опознавателей и проверочные уравнения для различных кодов (7;4); (7;3); (8;2); (9;3).
- •34. Техническая реализация группового кода и его матричная запись.
- •35. Циклический код. Математическое введение. Выбор образующего многочлена по требуемой корректирующей способности кода.
- •36.Методы построения циклического кода.
- •6.4.1. Методом умножения
- •6.4.2. Методом деления
- •6.4.3. По методу группового кода
- •37. Техническая реализация кодирующих устройств циклического кода по методу умножения (примеры).
- •38. Техническая реализация кодирующих устройств циклического кода по методу деления (примеры).
- •39. Техническая реализация кодирующих устройств циклического кода по методу группового кода (примеры).
- •40. Техническая реализация декодирующих устройств циклического кода, исправляющих одиночную ошибку. Пример.
- •41. Техническая реализация декодирующих устройств циклического кода, исправляющего 2-ые смежные ошибки. Пример.
- •42. Рекуррентный код. Кодирующее и декодирующее устройства. Пример.
- •43.Итеративные коды. Код с повторениями.
- •Модифицированный код с повторением
31. Общие принципы использования избыточности в блоковых кодах.
Способность кода обнаруживать и исправлять ошибки обусловлена наличием избыточных символов. На вход кодирующего устройства поступает последовательность из k информационных двоичных символов. На выходе ей соответствует последовательность из n двоичных символов, причем n > k.
Всего может быть 2k различных входных и 2n различных выходных последовательностей. Из общего числа 2n выходных последовательностей только 2k последовательностей соответствуют входным. Назовем их разрешенными кодовыми комбинациями. Остальные 2n – 2k возможных выходных последовательностей для передачи не используются. Назовем их запрещенными комбинациями.
Рис. 4.2
Искажение информации в процессе передачи сводится к тому, что некоторые из переданных символов заменяются другими – неверными. Так как каждая из разрешенных комбинаций в результате действия помех может трансформироваться в любую другую, то всего имеется 2k · 2n возможных случаев передачи (рис. 4.2). В это число входят:
2k случаев безошибочной передачи (на рис. 4.2 обозначены жирными линиями);
2k(2k – 1) случаев перехода в другие разрешенные комбинации, что соответствует необнаруживаемым ошибкам (на рис. 4.2 обозначены пунктирными линиями);
2k(2n – 2k) случаев перехода в неразрешенные комбинации, которые могут быть обнаружены (на рис. 4.2 обозначены тонкими сплошными линиями).
Следовательно, часть обнаруживаемых ошибочных кодовых комбинаций от общего числа возможных случаев передачи составляет:
2k(2n – 2k) ⁄ (2k · 2n) = 1 – 2k ⁄ 2n.
Пример 1
Определим обнаруживающую способность кода, каждая комбинация которого содержит всего один избыточный символ (n = k + 1). Общее число выходных последовательностей составляет 2k+1, т.е. вдвое больше общего числа кодируемых входных последовательностей. За подмножество разрешенных кодовых комбинаций можно принять, например, подмножество 2k комбинаций, содержащих четное число единиц (или нулей).
При кодировании к каждой последовательности из k информационных символов добавляется один символ (0 или 1) такой, чтобы число единиц в кодовой комбинации было четным. Искажение любого нечетного числа символов переводит разрешенную кодовую комбинацию в подмножество запрещенных комбинаций, что обнаруживается на приемной стороне по нечетности числа единиц. Часть опознанных ошибок составляет:
1 – 2k ⁄ 2k + 1 = 1 ⁄ 2.
Рассмотрим случай исправления ошибок. Любой метод декодирования можно рассматривать как правило разбиения всего множества запрещенных кодовых комбинаций на 2k непересекающихся подмножеств Mi, каждое из которых ставится в соответствие одной из разрешенных комбинаций. При получении запрещенной комбинации, принадлежащей подмножеству Mi, принимают решение, что передавалась разрешенная комбинация Ai. Ошибка будет исправлена в тех случаях, когда полученная комбинация действительно образовалась из Ai, т. е. в 2n – 2k случаях.
Всего случаев перехода в неразрешенные комбинации 2k(2n – 2k). Таким образом, при наличии избыточности любой код способен исправлять ошибки. Отношение числа исправляемых кодом ошибочных кодовых комбинаций к числу обнаруживаемых ошибочных комбинаций равно.
(2n – 2k) ⁄ [2k(2n – 2k)] = 1 ⁄ 2k.
Способ разбиения на подмножества зависит от того, какие ошибки должны исправляться данным конкретным кодом.
Большинство разработанных до настоящего времени кодов предназначено для корректирования взаимно независимых ошибок определенной кратности и пачек (пакетов) ошибок.
Взаимно независимыми ошибками будем называть такие искажения в передаваемой последовательности символов, при которых вероятность появления любой комбинации искаженных символов зависит только от числа искаженных символов r и вероятности искажения одного символа р.
Кратностью ошибки называют количество искаженных символов в кодовой комбинации.
При взаимно независимых ошибках вероятность искажения любых r символов в n-разрядной кодовой комбинации:
Pn(r) = Cnr· pr(1 – p)n – r.
Если учесть, что р << 1, то в этом случае наиболее вероятны ошибки низшей кратности. Их и следует обнаруживать и исправлять в первую очередь.
Следует учесть, что
,
а Pn(r) представляет собой гипергеометрическое распределение при r = 1, 2, ... n.