
- •1.Количество информации (логический вывод формулы) и энтропия источника сообщений.
- •2.Условная энтропия (вывод формулы), избыточность и производительность источника сообщений.
- •3.Взаимная информация; информация в непрерывных сигналах и дифференциальная энтропия (вывод формулы для Гауссовского процесса).
- •4.Теорема кодирования для источника сообщений и теорема кодирования для канала с помехами (шумами).
- •5.Пропускная способность дискретного канала связи (вывод формулы).
- •6.Пропускная способность непрерывного канала связи (вывод формулы).
- •7.Эпсилон-энтропия и эпсилон-производительность (вывод формулы)
- •8.Эффективное кодирование. Цель и принцип. Коды Хаффмена и Шеннона-Фано.
- •9.Помехоустойчивое кодирование. Цель и принцип. Основные параметры пу кодов.
- •10.Линейный двоичный блочный код. Кодирование и декодирование. Синдром. Аппаратные средства создания и проверки данного кода.
- •11. Непрерывные помехоустойчивые коды. Сверточный код. Кодирование (схема кодера) и декодирование (решетчатая диаграмма – иметь схему с собой на листочке).
- •17. Потенциальная помехоустойчивость при когерентном приеме (вывод формулы).
- •19. Алгоритм оптимального приема аналогового (непрерывного) сигнала в шумах (Объяснение правила). Корреляционный интеграл. Схема следящего измерителя.
- •20. Помехоустойчивость при оптимальном приеме непрерывных сигналов. Выигрыш (понятие, основная формула).
- •21. Выигрыш при ам (вывод формулы).
- •22. Выигрыш при фм (вывод формулы).
- •23. Выигрыш при чм (вывод формулы).
- •24. Икм. Принцип и основные соотношения. Мощность шумов квантования и ложных импульсов.
- •25. Дикм. Принцип работы и структурная схема.
- •26. Дм. Принцип работы и структурная схема.
- •27. Многоканальная система связи с врк. Принцип и структурная схема.
- •28. Многоканальная система связи с чрк. Принцип и структурная схема.
- •29. Многоканальная система связи с кодовым разделением каналов (по форме сигналов). Принцип, структурная схема и пример используемых сигналов.
- •30. Асинхронно-адресные системы связи. Принцип, преимущества и недостатки, пример используемых сигналов.
1.Количество информации (логический вывод формулы) и энтропия источника сообщений.
Количество информации – это некоторая количественно мера, позволяющая оценивать содержащуюся в сообщении и переносимую сигналом информацию. Свойства: 1) Количество информации – аддитивная величина I(a)=I(a1)+I(a2); 2) Количество информации в сообщении о достоверном событии равно нулю; 3) Количество информации не зависит от качественного содержания сообщения.
P(a) – это вероятность того, что источник
сообщений выдает сообщение а. Поскольку
P(a)≤1, используют 1/P(a), чтобы значение
логарифма было положительным. Основание
логарифма может быть любым, но обычно
его выбирают равным 2, поскольку для
передачи информации в системах связи,
как правило, используются двоичные
коды.
Энтропия – это количество информации, приходящемся в среднем на одно сообщение источника, т.е. математическое ожидание. Свойство: 1) Энтропия неотрицательна; 2) Энтропия аддитивна; 3) Энтропия максимальна в равновероятных событиях.
2.Условная энтропия (вывод формулы), избыточность и производительность источника сообщений.
Избыточность показывает какая доля от максимально возможной энтропии не передается источником, а могла бы передаваться. Избыточность меняется от нуля, до единицы.
Производительностью (бит/с) источника сообщений H’(A) называют суммарную энтропию сообщений, переданных за единицу времени
где
Vu - количество
сообщений, выдаваемых источником в
секунду.
Условная энтропия H(B|A) – это мера неопределенности ансамбля B при условии, что какое-то из сообщений ансамбля A уже было принято.
Вывод:
зафиксируем
ансамбль сообщений А: пусть A=a1,
т.е. получатель интерпретирует любое
сообщение из ансамбля B
как a1. То же самое делаем
и для A=a2.
усредним и подставим предыдущее выражение
в эту формулу
3.Взаимная информация; информация в непрерывных сигналах и дифференциальная энтропия (вывод формулы для Гауссовского процесса).
Взаимная информация – это количеством информации, содержащейся в В относительно А и наоборот: I(A,B) = H(A)–H(A|B) = H(B) –(B|A), где H(A|B) – это ненадежность канала, а (B|A) – это энтропия шума.
Информация в непрерывных сигналах:
г
де
S
– это непрерывная величина, w(S)
– е плотность распределения вероятности.
Кол-во
информации:
Энтропия:
I(S,Z) = h(S)–h(S|Z), где h(S) - дифференциальная энтропия, а h(S|Z) - условная дифференциальная энтропия
Вывод дифференциальной энтропии для гауссовского случайного процесса:
Подставляем
(2) в (1) с учетом свойств логарифмов:
4.Теорема кодирования для источника сообщений и теорема кодирования для канала с помехами (шумами).
Теорема кодирования для источника:
если количество кодовых символов на
одно сообщение Vk/Vu
больше энтропии источника
то существует способ кодирования,
при котором потери информации сводятся
к сколь угодно малой величине
(практически к нулю). Если же соотношение
не выполняется, то такого способа не
существует, и потери информации при
кодировании неизбежны.
Теорема кодирования для канала с помехами: если производительность источника сообщений H’(A) меньше пропускной способности канала H’(A) < С, то существует способ кодирования (преобразования сообщения в сигнал) и декодирования (преобразования сигнала в сообщение), при котором вероятность ошибочного декодирования и ненадежность канала H(A|B) могут быть сколь угодно малы. Если же H’(A) > С, то таких способов кодирования и декодирования не существует.