
- •О.Т.Данилова Теория информации
- •Введение
- •Глава 1. Основные понятия теории информации
- •1.1. Свойства информации
- •1.2. Этапы обращения информации
- •1.3. Определение системы передачи информации. Каналы связи.
- •1.4. Алфавит сообщения
- •1.5. Источник информации
- •Глава 2. Количество информации
- •2.1. Объемный подход к измерению информации
- •2.2. Количественная мера информации р.Хартли
- •2.3. Мера информации к. Шеннона
- •2.4. Условная собственная информация. Взаимная информация
- •1 (Бит), где m – мощность алфавита.
- •Глава 3. Энтропия дискретной последовательности. Энтропия непрерывной случайной величины
- •3.1. Частная энтропия
- •Прологарифмировав последнее равенство, получим
- •3.2. Энропия типичных и нетипичных комбинаций
- •3.3. Условная энтропия
- •3.4. Энтропия объединения ансамблей
- •3.5. Канальные матрицы
- •3.6. Количество информации при неполной достоверности и статистической зависимости сообщений
- •3.7. Избыточность источника
- •3.8. Энтропия непрерывной случайной величины
- •3.9. Количество информации для непрерывных систем
- •3.10. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (3.7) в (3.4):
- •3.11. Эпсилон энтропия
- •Глава 4. Общие сведения из теории сигналов
- •4.1. Классификация сигналов и систем
- •Характеристики сигналов передаваемых по каналу
- •4.3. Модуляция сигналов. Виды и характеристики носителей
- •4.4. Спектры сигналов
- •4.5. Тригонометрическая форма
- •4.6. Комплексная форма
- •4.7. Определение погрешности
- •Глава 5. Скорость передачи и пропускная способность канала связи
- •5.1. Скорость передачи информации в дискретной системе связи
- •5.2. Пропускная способность однородного симметричного канала связи
- •5.3. Пропускная способность непрерывного канала связи
- •5.4. Обмен мощности сигнала на ширину его спектра
- •5.5. Сравнение пропускной способности непрерывного и дискретного каналов связи.
- •5.6. Эффективность систем связи
- •Глава 6. Критерии описания реальных дискретных каналов
- •6.1. Описание источника ошибок на основе цепей Маркова
- •6.2. Описание источника ошибок на основе процессов восстановления
- •6.3. Описание источника ошибок на основе процессов накопления
- •6.4. Модель Гилберта
- •6.5. Модель Эллиота-Гилберта. Модель Элиота
- •6.6. Модель Беннета-Фройлиха
- •6.7. Модель Попова - Турина
- •Глава 7. Кодирование информации
- •7.1. Статистическое кодирование дискретных сообщений
- •7.2. Статистическое кодирование кодовых слов
- •Средняя длина кодового слова
- •7.3. Кодирование информации для канала с помехами
- •7.3. Разновидности помехоустойчивых кодов
- •7.4 Общие принципы использования избыточности
- •7.5. Связь корректирующей способности кода с кодовым расстоянием
- •7.6. Понятие качества корректирующего кода
- •7.7. Линейные коды
- •7.7. Математическое введение к линейным кодам
- •7.8. Линейный код как пространство линейного векторного пространства
- •7.9. Построение двоичного группового кода
- •7.10. Составление таблицы опознавателей
- •7.11. Определение проверочных равенств
- •7.12. Мажоритарное декодирование групповых кодов
- •7.13. Матричное представление линейных кодов
- •7.14. Построение циклических кодов
- •Математическое введение к циклическим кодам
- •7.17. Обнаружение одиночных ошибок
- •Исправление одиночных или обнаружение двойных ошибок
- •7.18. Обнаружение ошибок кратности три и ниже
- •7.19. Обнаружение и исправление независимых ошибок произвольной кратности
- •7.20. Методы образования циклического кода
- •7.21. Матричная запись циклического кода
- •7.22. Укороченные циклические коды
- •Глава 8. Сжатие информации
- •8.1. Основные понятия
- •8.2. Методы сжатия без потерь
- •8.3. Методы сжатия с потерями
- •8.4. Сжатие графики
- •Прямое дкп
- •8.5. Сжатие звука
- •8.6. Сжатие видеоинформации
- •Вопросы для самопроверки
- •Список литературы
3.5. Канальные матрицы
Для
полного и всестороннего описания канала
связи необходимо задать: канальную
матрицу вида
и безусловные вероятности вида
или канальную матрицу вида
и безусловные вероятности вида
,
или канальную матрицу вида
.
Вероятности, которые расположены по
диагонали матриц, определяют правильный
прием, остальные - ложный. Значение цифр,
заполняющих колонки канальной матрицы,
обычно уменьшаются по мере удаления от
главной диагонали и при полном отсутствии
помех все, кроме цифр, расположенных на
главной диагонали, равны нулю.
Если описывать
канал связи со стороны источника
сообщений, то прохождение данного вида
сигнала в данном канале связи описывается
распределением условных вероятностей
вида
,
так для сигнала
распределением
вида
Сумма вероятностей распределения (13) всегда равно 1. При этом канальная матрица имеет вид:
Y X |
y1 y2 … yj … ym |
x1
x2 …
xi … xm |
……………………………………………………………….
………………………………………………………………. |
Потери информации,
которые приходятся на долю сигнала
,
описываются при помощичастной
условной энтропии
вида
.
Суммирование производится по j, так как i-е состояние (в данном случаи первое) остается постоянным.
Чтобы учесть потери при передаче всех сигналов по данному каналу связи, следует просуммировать все частные условные энтропии, т. е. произвести двойное суммирование по i и j. При этом в случае равновероятностных появлений сигналов на выходе источника сообщений
(на m делим, так как энтропия есть неопределенность на один символ).
В случае не равновероятного появления символов источника сообщений следует учесть вероятность появления каждого символа, умножив на нее соответствующую частную условную энтропию. При этом общая условная энтропия
.
Если канал связи
исследуется со стороны приемника
сообщений, то с получением сигнала
предполагаем, что был послан какой-то
из сигналов
При этом канальная матрица будет иметь
вид
Y X |
y1 y2 … yj … ym |
x1 x2
…
xi …
xm |
……………………………………………………………….
……………………………………………………………….
|
В этом случае единице должны равняться суммы условных вероятностей не по строкам, а по столбцам канальной матрицы
.
Частная условная энтропия определяется как
а общая условная энтропия
Если заданы
канальная матрица вида
и безусловные вероятности вида
,
то безусловные вероятности приемника
находим как
,
т.е. если заданы безусловные вероятности
источника и канальная матрица, то может
быть вычислена энтропия приемника
и наоборот, если
заданы вероятности вида
и канальная матрица, описывающая канал
связи со стороны приемника сообщений,
то
а
значит может быть определена энтропия
источника сообщений
Энтропия объединения может быть подсчитана при помощи матрицы вида
Такая матрица
обладает замечательным свойством: Сумма
значений матрицы по столбцам дает
безусловные вероятности вида
а сумма по строкам дает безусловные
вероятности вида
.
Это свойство, в свою очередь, позволяет
вычислять энтропию как источника, так
и приемника сообщений непосредственно
по канальной матрице
,
.
Суммирование производится по i и j, так как для того, чтобы найти безусловные вероятности, необходимо суммировать их по одной координате (имея в виду матричное представление вероятностей), а для нахождения энтропии суммирование производится по другой координате.
Напомним, что условные вероятности могут быть найденными из выражений:
Зная условные и безусловные вероятности, можно найти Н(X), Н(Y), Н(X/Y) и Н(Y/X).