- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
Упражнения
1.1. Чему равно количество информации, если получили сообщение о выходе из строя одного из восьми станков в данном цехе?
Решение
I = log 8 =3 бит.
1.2. Алфавит состоит из букв а, b, с, d. Вероятности появления букв равны соответственно 0,25; 0,25; 0,34; 0,16. Определите количество информации, приходящееся на символ сообщения, составленного с помощью такого алфавита
Решение.
Количество информации на символ алфавита есть энтропия данного алфавита. Так как символы алфавита не равновероятны, то энтропия равна
При вычислениях удобно воспользоваться таблицей значений функции Н(р) = -р log p (Табл.1 приложения 1).
1.3. Определите объем и количество информации в сообщении "Завтра ожидается ясная погода", переданном 7-элементным телеграфным кодом.
Решение.
Число принятых символов, включая пробел, k = 29. Объем информации Q = 29·7 = 203 бит. Количество информации для равновероятного алфавита I = k·H = 29· 1оg 32 == 29·5 = 145 бит.
1.4. Определите энтропию системы, состояние которой описывается случайной величиной X с рядом распределения
1.5. Определите максимально возможную энтропию системы, состоящей из четырех элементов, каждый из которых может быть в четырех состояниях равновероятно.
1.6. Вероятность появления сигнала на выходе канала связи - p, а вероятность не появления q = 1-p. При каком значении p наибольшая неопределенность появления или не появления сигнала?
1.7. Определить энтропию, содержащуюся в изображении, при условии, что последнее разлагается на 625 строк по 840 элементов в каждой строке. Яркость каждого элемента передается восемью квантованными уровнями, а яркости разных элементов некоррелированные.
1.8. Определить энтропию физической системы, состоящей из двух самолетов (истребителя и бомбардировщика), участвующих в воздушном бою. В результате боя система может оказаться в одном из четырех возможных состояний: х1 - оба самолета не сбиты; х2 - истребитель сбит, бомбардировщик не сбит; х3 - истребитель не сбит, бомбардировщик сбит; х4 - оба самолета сбиты. Состояние системы дастся схемой
1.9. В двух корзинах имеется по 15 яблок, причем в первой урне - 5 красных, 7 белых и 3 черных, а во второй соответственно 4,4 и 7. Из каждой корзины вынимается по одному яблоку. Определите, для какой из корзин исход опыта является более определенным, (то есть вынуть задуманное яблоко).
1.10. Из многолетних наблюдений за погодой известно, что для определенного пункта вероятность того, что 15 июня будет идти дождь, равна 0,4, а вероятность того, что в указанный день дождя не будет, равна 0,6. Пусть далее для этого же пункта вероятность того, что 15 ноября будет идти дождь, равна 0,65; вероятность, что будет идти снег, равна 0,15, вероятность, что не будет осадков, равна 0,2. В какой день из двух перечисленных дней погоду следует считать более неопределенной?
1.11. По заданным значениям энтропии Н(Х) и Н(Y) случайных величин X и Y и средней условной энтропии H(X/Y) случайной величины Х относительно Y определите среднюю условную энтропию H(X/Y) случайной величины Y относительно Х.
1.12. В корзине два белых и три красных яблока. Из корзины вынимают подряд два яблока. Найдите энтропию появления двух белых яблок.
1.13. Сигнал формируется в виде двоичного кода с вероятностями появления символов 1 и 0, равными соответственно 0,6 и 0,4. Появление любого из символов взаимосвязано условными вероятностями
Определите условную энтропию.
1.14. Имеются две системы X и Y, объединяемые в одну, вероятности состояний которой представлены следующей матрицей:
Определите полную условную энтропию H(Y/X).
Решение.
Вычисляем безусловные вероятности как суммы совместных вероятностей по строкам и столбцам исходной матрицы
Определяем условные вероятности по формуле p(y/x) = p(x,y)/p(x) и составляем матрицу условных вероятностей
H(Y,X) = 0,6 (0,333 log 0,333 + 0,5 log 0,5 + 0,167 log 0,167) = 0,87 бит
1.15. Взаимодействие двух систем Х и Y описывается следующей матрицей:
Определите безусловную энтропию системы Х и системы Y.
1.16. На шахматной доске в одной из клеток произвольным образом поставлена шахматная фигура. Все положения фигуры на доске одинаково вероятны: а) необходимо определить информацию, получаемую из сообщения, в какой именно клетке находится фигура; б) определить частную информацию от сообщения, что фигура находится в одной из угловых клеток доски.
1.17. На экране индикатора РЛС, представляющем поле с 12 вертикальными и 12 горизонтальными полосами, появляется изображение объекта в виде яркостной отметки. Определить количество информации, содержащееся в сообщениях:
а) объект находится в 33м квадрате экрана;
б) объект находится в 4м вертикальном столбце и 7й горизонтальной строке экрана.
1.18. По телеграфному 7элементному каналу связи пришло сообщение: Завтра ожидается ясная погода. Определите объем и количество полученной информации.
1.19. В памяти компьютера хранится файл, содержащий 20 экранных страниц текстовой информации. Каждая страница содержит примерно 40 строк по 70 символов. Каков объем файла?
1.19. Вероятность вывода истребителяперехватчика наземными системами наведения в район цели p1=0,8. Вероятность обнаружения цели бортовой РЛС истребителя p2=0,9. Сколько информации содержится в сообщении о том, что цель перехвачена? Какова неопределенность перехвата цели?
1.20. Канал связи с помехами описан матрицей
Определите I(Х, Y).
1.21. Канал связи описан следующей канальной матрицей:
Вычислите среднее количество информации, которое переносится одним символом сообщения, если вероятности появления символов источника сообщений равны р(х1) = 0,7; р(х2) = 0,2; р(х3) = 0,1. Чему равны информационные потери при передаче сообщения из 1000 символов алфавита х1, x2, x3? Чему равно количество принятой информации?
Решение.
Энтропия источника сообщений
Общая условная энтропия
Потери в канале связи I будут равны
I = kH(Y/X) = 10000,473 = 473 бит
Энтропия приемника
Учитывая, что p(y1) = p(xi)p(y1/xi),
H(Y) = - (0,726 log 0,726 + 0,187 log 0,187 +
+ 0,087 log 0,087) = 1,094 бит
Среднее количество полученной информации
I = k[H(Y) – H(Y/X)] = kH(Y) - I = 1094 – 473 = 621 бит
1.22. Определите информационные потери в канале связи, описанном следующей канальной матрицей:
