- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
Матрица для нахождения условной вероятности
y1 y2
Найдем полную условную энтропию системы y относительно x
График функции имеет следующий вид:
C Наибольшее значение эта функция принимает
при p=0 (то есть
при отсутствии помех)
n
и при p=1 (то есть
при негативной передаче).
При p=1/2 пропускная способность минимальна.
0 0,5 p
Рис.3.3. График функции С=f(p)
Пример 3.2. Рассмотрим общий случай передачи по дискретному каналу. Найдем пропускную способность m-ичного канала связи.
На рис. 3.4 представлена модель передачи m-ичных сигналов, где x1,х2,…,хm источники информации, y1,y2,…,ym приемники информации. Вероятность ошибки p. Вероятность безошибочной
передачи сигналов равняется 1p,
а в случае ошибки
X1
1
p
Y1
переданный
сигнал может с одинаковой
вероятностью
(равной
)
быть
Х2 Y2 воспринятым как любой из m1 отличных
от него сигналов.
Xm 1 p Ym
Рис.3.4. mичный канал передачи информации
Матрица условных вероятностей имеет вид
Полная условная энтропия системы Y относительно X будет равна
График функции С(p) пропускной способности канала связи при m=4 представлен на рис.3.5
C
nlog
m
0
0.75 1 P
Рис.3.5. График функции C(p)
Эта
функция максимальна при p=0,
при вероятности
.
При p=1
.
Для дискретных каналов с помехами Шеннон дал вторую теорему.
2. Теорема Шеннона.
Пусть имеется источник информации X, энтропия которого в единицу времени равна H(X), и канал с пропускной способностью C. Если H(X)>C, то при любом кодировании передача сообщений без задержек и искажений невозможна. Если же H(X)<C, то любое достаточно длинное сообщение можно всегда закодировать так, что оно будет передано без задержек и искажений с вероятностью сколь угодно близкой к единице.
3.4. Пропускная способность непрерывных каналов связи
Непрерывные
сигналы, имеющие спектр частот F
могут быть переданы в виде дискретных
отсчетов через интервалы времени
(по теореме Котельникова). Пусть в канале
связи на передаваемое сообщение x(t)
накладывается помеха n(t).
Будем считать, что длительность сообщения
составляет T.
Количество
информации, содержащееся в принятых
сообщениях Y
относительно переданных X,
определяется равенством
Значение
H(Y/X)
обусловлено только шумами и может быть
заменено H(N).
Тогда
При этом H(Y)=H(y1, y2,…,y2FT), H(N)=H(n1, n2,…,n2FT)
