- •1. Краткая характеристика курса (теории информации), цель и задачи.
- •2. Амплитудная, частотная и фазовая модуляция.
- •3. Сообщение как случайный процесс
- •4. Сигналы ам и чм в виде временного, спектрального и векторного вида.
- •5. Величина Хартли. Количественная оценка информации.
- •6. Спектральное отличие сигналов чм и фм и частота полосовой ширины.
- •7. Представление об информации.
- •9. Распространение информации по дискретному каналу без помех.
- •10. Способы дискретной модуляции.
- •11. Пропускная способность канала без помех.
- •12. Исправление одиночных или обнаружение двойных ошибок.
- •13. Теорема пропускной способности дискретного канала без помех.
- •14. Циклические коды.
- •15. Математическая модель дискретного канала без помех.
- •16. Методы построения циклических кодов.
- •17. Дискретные каналы с помехами. Понятие помех.
- •Естественные помехи
- •Искусственные помехи
- •18. Рентабельность теоремы о кодировании.
- •19. Скорость передачи информаци и пропускная способность.
- •20. Сообщающие коды об ошибках.
- •23. Пропускная способность дискретных каналов с помехами.
- •24. Циклические линейные коды.
- •25. Теоремы для пропускной способности дискретного канала с помехами.
- •26. Критерии оптимального приёма информации
- •27. Математическая модель дискретного канала с помехами.
- •29. Непрерывный канал. Передача информации в непрерывном канале.
- •30. Синтез Алгоритмов и схем оптимальных приёмников, корреляционный приёмник.
- •31. Дискретизация и принципы восстановления информации.
- •32. Разность модуляции и приема.
- •33. Разложение непрерывного сигнала в ортогональные ряды.
- •34. Многоканальная связь.
- •35. Ряды Фурье и применение их в технике связи.
- •36. Методы частотного, временного и фазового разделения сигналов.
- •37. Теорема Котельникова (основная теорема Шеннона).
- •38. Разделение сигналов по форме (кодовое разделение).
- •39. Пропускная способность непрерывного канала.
- •40. Комбинационное разделение.
- •41. Модель непрерывного канала связи.
- •42.Цифровые методы распространение непрерывной информации.
- •43. Методы формирования и преобразования сигналов в системе связи.
- •44. Аналого-цифровые и цифро-аналоговые преобразователи.
- •45. Модуляция гармонических сигналов.
- •46. Импульсно-кодовая модуляция (икм). Дифференциальные икм.
- •47. Цифровые методы передачи информации.
- •48. Дискретизация по времени и квантование.
- •49. Краткая характеристика курса (теории информации), цель и задачи.
- •50. Теорема об эффективном кодировании.
- •51. Общие принципы использования избыточности
- •52. Понятие помехи. Методы борьбы с помехами.
- •53. Корректирующая способность кода.
- •54. Задачи дискретизации (общая постановка)
- •55. Геометрическая интерпретация блоковых корректирующих кодов.
- •56. Структура кадра икм-30
- •57. Линейные коды
- •58. Критерии оптимального приема сообщений
- •59. Определение проверочных равенств
- •60. Оптимальные когерентные демодуляторы на согласованных фильтрах.
- •61. Составление таблиц опознавателей.
- •62. Оптимальные когерентные приемники (алгоритмы и структурные схемы).
- •63. Математическое введение к линейным кодам.
- •64. Дискретизация по методу наибольшего отклонения.
- •65. Бчх коды.
- •66 Критерии качества восстановления (кода)
- •67. Блоковые коды.
- •68. Свойства энтропии.
- •70. Методы модуляции носителей информации.
- •71. Коды Голея.
- •72. Виды помех.
- •73. Коды Шеннона-Фано-Хаффмена.
- •Алгоритм вычисления кодов Шеннона-Фано
- •74. Математическая модель дискретного канала с помехами.
- •75 Коды Рида-Соломона
- •76. Теорема Котельникова (основная теорема Шеннона)
- •77. Формы представления детерминированных сигналов.
- •78. Модель непрерывного канала.
- •79. Основные этапы обращения информации.
- •2 Достоверность и полнота
- •3 Обработка и систематизация
- •4 Интерпретация
- •80. Балансовая и однополосная модуляция.
66 Критерии качества восстановления (кода)
Критерии качества - это числовые уровни факторов, поставленные в качестве целей. Объективно оценить или измерить критерии качества непосредственно довольно трудно. Поэтому, были введены метрики качества, которые легче измерять и оценивать. Оценки принимают значения от 0 до 10:
Удобство проверки на соответствие стандартам (auditability)
Точность управления и вычислений (accuracy)
Функциональная полнота (completeness)
Однородность используемых правил проектирования и документации (consistency)
Степень стандартности форматов данных (data commonality)
Устойчивость к ошибкам (error tolerance)
Эффективность работы (execution efficiency)
Расширяемость (expandability)
Широта области потенциального использования (generality)
Независимость от аппаратной платформы (hardware independence)
Полнота протоколирования ошибок и других событий (instrumentation)
Модульность (modularity)
Удобство работы (operability)
Защищенность (security)
Простота работы (simplicity)
Независимость от программной платформы (software system independence)
67. Блоковые коды.
Различают разделимые и неразделимые блоковые коды. При кодировании разделимыми кодами выходные последовательности состоят из символов, роль которых может быть отчетливо разграничена. Это информационные символы, совпадающие с символами последовательности, поступающей на вход кодера канала, и избыточные (проверочные) символы, вводимые в исходную последовательность кодером канала и служащие для обнаружения и исправления ошибок.
При кодировании неразделимыми кодами разделить символы выходной последовательности на информационные и проверочные невозможно.
Пусть кодируемая информация делится на фрагменты длиной k бит, которые преобразуются в кодовые слова длиной n бит. Тогда соответствующий блоковый код обычно обозначают (n,k). При этом число называется скоростью кода.
Если исходные k бит код оставляет неизменными, и добавляет n − k проверочных, такой код называется систематическим, иначе несистематическим.
Задать блоковый код можно по-разному, в том числе таблицей, где каждой совокупности из k информационных бит сопоставляется n бит кодового слова. Однако, хороший код должен удовлетворять, как минимум, следующим критериям: - способность исправлять как можно большее число ошибок; - как можно меньшая избыточность; - простота кодирования и декодирования.
Нетрудно видеть, что приведенные требования противоречат друг другу. Именно поэтому существует большое количество кодов, каждый из которых пригоден для своего круга задач.
Практически все используемые коды являются линейными. Это связано с тем, что нелинейные коды значительно сложнее исследовать, и для них трудно обеспечить приемлемую легкость кодирования и декодирования.
68. Свойства энтропии.
Ансамблем U, наз полная совокупность состояний с вероятностями их появления, составляющими в сумме единицу:
причем
Мера
неопределенности выбора дискретным
источником состояния из ансамбля U,
удовлетворяющая
указанным условиям, была предложена
американским ученым К. Шенноном. Ее
называют энтропией
дискретного
источника информации или энтропией
конечного ансамбля:
где С — произвольное положительное число.
СВОЙСТВА ЭНТРОПИИ
1. Энтропия является вещественной и неотрицательной величиной, так как для любого i(1<=i<=N) рi изменяется в интервале от 0 до 1, log pi отрицателен и, следовательно, — pi log pi положительна.
2. Энтропия — величина ограниченная. Для слагаемых - pi log pi в диапазоне 0<р<=i1 ограниченность очевидна. Остается определить предел, к которому стремится слагаемое — pi log pi, при рi—>0, поскольку — log pi при этом неограниченно возрастает:
Обозначив = 1/рi и воспользовавшись правилом Лопиталя, получим
3. Энтропия обращается в нуль лишь в том случае, если вероятность одного из состояний равна единице; тогда вероятности всех остальных состояний, естественно, равны нулю. Это положение соответствует случаю, когда состояние источника полностью определено.
4.Энтропия максимальна, когда все состояния источника равновероятны.
5. Энтропия источника и с двумя состояниями u1 и u2 изменяется от нуля до единицы, достигая максимума при равенстве их вероятностей:
p(u1)=p(u2)=p=0,5
6. Энтропия объединения нескольких статистически независимых источников информации равна сумме энтропии исходных источников.
7. Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля. При ее определении используют только вероятности состояний, полностью игнорируя их содержательную сторону. Поэтому энтропия не может служить средством решения любых задач, связанных с неопределенностью. Например, при использовании этой меры для оценки неопределенности действия лекарства, приводящего к полному выздоровлению больных в 90 % случаев и улучшению самочувствия в остальных 10 % случаев, она получится такой же, как и у лекарства, вызывающего в 90 % случаев смерть, а в 10 % — ухудшение состояния больных.
69. Коды Хэмминга (d=4).
Кодом Хэмминга называется (n,k)-код, проверочная матрица которого имеет r = n-k строк и 2r-1 столбцов, причем столбцами являются все различные ненулевые последовательности.
Пример. Для (7,4)-кода Хэмминга проверочная матрица в упорядоченном виде имеет вид:
Пусть переданное кодовое слово v(1,0)=1101001,а принятое слово - v(1,0)=1101101.
Синдром, соответствующий принятому слову будет равен
Вычисленный синдром указывает на ошибку в пятой позиции.
Элементы синдрома определяются из выражений
S0=v1+v3+v5+v7=1+0+1+1=1
S1=v2+v3+v6+v7=1+0+0+1=0
S2=v4+v5+v6+v7=1+1+0+1=1
Корректирующая способность кода Хэмминга может быть увеличена введением дополнительной проверки на четность. В этом случае проверочная матрица для рассмотренного (7,4)-кода будет иметь вид
а кодовое расстояние кода d0=4.
Проверочные уравнения используются для построения кодера, а синдромные - декодера кода Хэмминга.
