- •Н.Н. Куцый, в.Н. Сизых введение в теорию информации учебное пособие
- •Оглавление
- •Часть 1. Вероятностные основы теории информации
- •Часть 2. Основы прикладной теории информации
- •Введение
- •Часть 1. Вероятностные основы теории информации
- •Определение априорной и апостериорной вероятностей дискретного источника
- •Дискретные источники сообщений
- •Основные определения и оценка случайного события
- •Способы определения случайных событий
- •Определение априорной вероятности
- •Элементы комбинаторики
- •Схемы подсчетов априорной вероятности по формуле (1.1)
- •Задачи для самостоятельной работы
- •Определение апостериорной вероятности
- •Задачи для самостоятельной работы
- •2. Условная и полная вероятности дискретного источника
- •2.1. Условная вероятность
- •Свойства независимых несовместных событий а1 и а2
- •Свойства зависимых событий а1 и а2
- •Задачи для самостоятельной работы
- •2.2. Полная вероятность
- •Задачи для самостоятельной работы
- •3. Случайные величины дискретных источников
- •3.1. Случайные величины
- •Задача для самостоятельной работы
- •4. Законы распределения дискретных случайных величин
- •4.1. Числовые характеристики дискретных св
- •4.2. Типовые законы распределения вероятностей дискретных св
- •Задачи для самостоятельной работы
- •5. Системы дискретных случайных величин
- •5.1. Характеристики систем дискретных случайных величин
- •5.2. Закон распределения системы дискретных случайных величин
- •Задачи для самостоятельной работы
- •6. Дискретные случайные процессы
- •6.1. Случайные процессы
- •6.2. Потоки событий
- •7. Марковские цепи
- •7.1. Марковские цепи с дискретными состояниями
- •7.2. Марковские цепи
- •7.3. Расчет цепи Маркова для стационарного режима
- •Задачи для самостоятельной работы
- •Часть 2. Введение в прикладную теорию информации
- •8. Энтропия как мера неопределенности
- •8.1. Энтропия
- •8.2. Условная энтропия
- •Задачи для самостоятельной работы
- •9. Оценка информационных характеристик дискретных источников
- •9.1. Условные и безусловные вероятности появления символов в виде стохастического вектора и матрицы дискретного источника
- •Снятые статистические данные источника
- •9.2. Информационные характеристики дискретного источника
- •Задача для самостоятельной работы
- •10. Основы теории кодирования и передачи информации
- •10.1. Кодирование информации
- •10.2. Формирование экономичного кода алфавита
- •10.2.1. Код Шеннона–Фано
- •10.2.2. Код Хаффмена
- •Задачи для самостоятельной работы
- •Решения и ответы задач для самостоятельной работы
- •Дополнительные задачи по курсу «Теория информации» Задача 1
- •Задача 2
- •Задача 3
- •Задача 8
- •Задача 22
- •Задача 23
- •Задача 24
- •Задача 25
- •Приложения Приложение 1. MatLab – программы для расчета цепи Маркова
- •Приложение 2. MatLab – программа для определения энтропии дискретного источника
- •Приложение 3. MatLab – программа для оценки информационных характеристик дискретных источников с памятью
- •Приложение 4. Алгоритмы кодирования и декодирования
- •Алгоритм построения кодового дерева кода Хаффмена
- •MatLab-программа декодирования арифметического кoда
8.2. Условная энтропия
Если α и β – независимые случайные объекты (явления), то
|
(8.4)
|
то есть энтропия двух или нескольких независимых объектов или явлений равна сумме энтропий этих объектов или явлений. Это свойство аддитивности энтропии.
Если α и β – зависимые случайные объекты или явления, то
|
(8.5) |
где
Н(β\α)
или Н(α
определяются как математические ожидания
энтропии условного распределения
(условной
энтропии).
Для
всех случайных объектов или явлений
имеет место неравенство Н(α)≥
Н(α
,
что согласуется с интуитивным
представлением о том, что знание состояния
может только уменьшить неопределенность
,
а если они независимы (
),
то оставить её неизменной.
Пример 8.3. Неопределенность даты проведения ежегодного мероприятия можно определить двумя путями:
1).
|
где 365 – число дней в году;
2).
|
где 12 – число месяцев в году; 30 – число дней в месяце.
Пример 8.4. Специалист, занимающийся проблемой В, для информационного обеспечения своей интеллектуальной деятельности воспользовался автоматизированной информационно – поисковой системой (АИПС). В базе АИПС содержится 2% статей, непосредственно относящихся к заданной проблеме. Система поиска в АИПС точно обнаруживает эти статьи по запросу. В то же время ввиду некоторой близости тематики других статей к проблеме В эта система с равной вероятностью может представить или не представить специалисту статьи, не относящиеся непосредственно к проблеме В. Определить эффективность системы поиска, используя меру снятия неопределенности по отношению к проблеме В.
Решение. Формализуем представленную ситуацию. Определение отношения той или иной статьи к проблеме В представим как опыт β, имеющий два возможных исхода:
В1 – не относится; В2 – относится.
Определение эффективности системы поиска представим как опыт , также имеющий две возможных исхода:
А1 – определен признак В; А2 – не определен признак В.
Вероятности определения и неопределения признака В соответственно равны:
|
Неопределенность отношения той или иной статьи к проблеме В:
|
Это есть неопределенность базы АИПС по отношению к проблеме В.
В целом, с учетом эффективности работы системы поиска, то есть опыта α, неопределенность АИПС можно вычислить через условную энтропию Н(α\β).
Для этого определим:
1) условные вероятности исходов В1 и В2 опыта β при условии исходов А1 и А2 опыта α:
|
так как из 51 случая, когда система поиска давала положительный ответ, 49 статей не относились к проблеме В, а 2 статьи относились,
что вполне очевидно;
2) Условные энтропии АИПС (при условии исходов А1 и А2):
|
Тогда средняя условная энтропия опыта β (неопределенность АИПС) при условии существования системы поиска (опыт α) будет равна математическому ожиданию энтропии условного распределения
|
Если
сравнить значение
с
ранее полученным значением неопределенности
базы АИПС
,
то можно сделать вывод, что система
поиска недостаточно эффективна, поскольку
снимает неопределенность всего на 2 %.
