- •Н.Н. Куцый, в.Н. Сизых введение в теорию информации учебное пособие
- •Оглавление
- •Часть 1. Вероятностные основы теории информации
- •Часть 2. Основы прикладной теории информации
- •Введение
- •Часть 1. Вероятностные основы теории информации
- •Определение априорной и апостериорной вероятностей дискретного источника
- •Дискретные источники сообщений
- •Основные определения и оценка случайного события
- •Способы определения случайных событий
- •Определение априорной вероятности
- •Элементы комбинаторики
- •Схемы подсчетов априорной вероятности по формуле (1.1)
- •Задачи для самостоятельной работы
- •Определение апостериорной вероятности
- •Задачи для самостоятельной работы
- •2. Условная и полная вероятности дискретного источника
- •2.1. Условная вероятность
- •Свойства независимых несовместных событий а1 и а2
- •Свойства зависимых событий а1 и а2
- •Задачи для самостоятельной работы
- •2.2. Полная вероятность
- •Задачи для самостоятельной работы
- •3. Случайные величины дискретных источников
- •3.1. Случайные величины
- •Задача для самостоятельной работы
- •4. Законы распределения дискретных случайных величин
- •4.1. Числовые характеристики дискретных св
- •4.2. Типовые законы распределения вероятностей дискретных св
- •Задачи для самостоятельной работы
- •5. Системы дискретных случайных величин
- •5.1. Характеристики систем дискретных случайных величин
- •5.2. Закон распределения системы дискретных случайных величин
- •Задачи для самостоятельной работы
- •6. Дискретные случайные процессы
- •6.1. Случайные процессы
- •6.2. Потоки событий
- •7. Марковские цепи
- •7.1. Марковские цепи с дискретными состояниями
- •7.2. Марковские цепи
- •7.3. Расчет цепи Маркова для стационарного режима
- •Задачи для самостоятельной работы
- •Часть 2. Введение в прикладную теорию информации
- •8. Энтропия как мера неопределенности
- •8.1. Энтропия
- •8.2. Условная энтропия
- •Задачи для самостоятельной работы
- •9. Оценка информационных характеристик дискретных источников
- •9.1. Условные и безусловные вероятности появления символов в виде стохастического вектора и матрицы дискретного источника
- •Снятые статистические данные источника
- •9.2. Информационные характеристики дискретного источника
- •Задача для самостоятельной работы
- •10. Основы теории кодирования и передачи информации
- •10.1. Кодирование информации
- •10.2. Формирование экономичного кода алфавита
- •10.2.1. Код Шеннона–Фано
- •10.2.2. Код Хаффмена
- •Задачи для самостоятельной работы
- •Решения и ответы задач для самостоятельной работы
- •Дополнительные задачи по курсу «Теория информации» Задача 1
- •Задача 2
- •Задача 3
- •Задача 8
- •Задача 22
- •Задача 23
- •Задача 24
- •Задача 25
- •Приложения Приложение 1. MatLab – программы для расчета цепи Маркова
- •Приложение 2. MatLab – программа для определения энтропии дискретного источника
- •Приложение 3. MatLab – программа для оценки информационных характеристик дискретных источников с памятью
- •Приложение 4. Алгоритмы кодирования и декодирования
- •Алгоритм построения кодового дерева кода Хаффмена
- •MatLab-программа декодирования арифметического кoда
Задачи для самостоятельной работы
Задача 7.1. Для условий в примере 7.2 найдите финальные вероятности, предположив, что за период t только одна ЭВМ может быть отремонтирована. Составьте MatLab – программу, используя различные способы решения СЛАУ (различные модификации метода исключения Гаусса, обращение матриц). Результаты вычислений сравните между собой.
Задача 7.2. Измерительный прибор находится в одном из четырех состояний: s1 – исправно работает; s2 – плановый ремонт; s3 – текущий ремонт; s4 – простой. Граф состояний приведен на Рисунке 7.6.
Рисунок 7.6 – Граф состояний измерительного прибора
Вероятности переходов p12=0,2; p14=0,3; p21=0,6; p31=0,1; p32=0,2; p43=0,4. Запишите систему уравнений и найдите финальные вероятности состояний. Составьте MatLab – программу, используя различные способы решения СЛАУ (различные модификации метода исключения Гаусса, обращение матриц). Результаты вычислений сравните между собой.
Задача 7.3. Составьте граф состояний студента в период обучения (от абитуриента s0, первокурсника s1 до выпускника s6). Выпишите матрицу переходов, приняв вероятность успешной сдачи экзаменов в летней сессии p=0,9.
Часть 2. Введение в прикладную теорию информации
8. Энтропия как мера неопределенности
Теория вероятностей, определившая математический аппарат описания случайных процессов и явлений, заложила основу целого ряда теорий, получивших весьма распространенный прикладной характер. Многие из этих теорий определили, в свою очередь, математические основы современных информационных технологий. В ряду этих теорий важнейшее место занимает теория информации, в основе которой лежат труды Клода Шеннона, его вероятностная интерпретация количественной меры информации. Характерно, что изначальным понятием, или категорией, этой теории является неопределенность, в качестве меры которой была принята энтропия.
8.1. Энтропия
Неопределенность события определяется вероятностью его появления, неопределенность СВ – числовой характеристикой функции плотности вероятностей, например, вторым центральным моментом (или дисперсией). Однако для случайных процессов (объектов) или явлений, состояния которых различаются качественно, а не количественно, использование дисперсии невозможно.
В общем случае мера неопределенности, связанная с распределением вероятности, должна быть некоторой ее числовой характеристикой, не зависящей от того, в какой шкале измеряются реализации случайного процесса или явления. В качестве такой меры К. Шеннон предложил использовать энтропию Н для случайного процесса Х:
|
(8.1)
|
где р1, р2,…, рn – вероятности случайных событий а1,а2,…,аn, характеризующие возможные состояния случайного процесса α. При этом
|
(8.2) |
Из
формул (8.1) (8.2) следует, что неопределенность
отсутствует только в том случае, когда
одно из значений рi
равно
1. Максимальная неопределенность
достигается при р1=р2...=рn=
,
то есть когда существует равновероятное
распределение случайных событий,
отражающих состояние случайного процесса
(объекта или явления).
Принцип максимума информации (энтропии) был сформулирован Джейнсом (Jenes Principal). Этот принцип имеет фундаментальное значение для различных приложений к системам и процессам в физике, химии и биологии.
Его доказательство в нашем случае сводится к следующему.
Потребуем, чтобы условие
выполнялось при ограничении
|
Экстремум (8.1) при ограничении (8.2) может быть найден с помощью метода множителей Лагранжа. Суть метода состоит в том, что (8.2) умножается на неизвестный пока постоянный параметр λ, и затем полученное произведение прибавляется к левой части уравнения (8.1)
|
|
Затем определяется экстремум
Из
последнего выражения следует, что
рi=const.
Тогда из условия
определяется вероятность
npi=1,
Из
равенства
вычисляется множитель Лагранжа:
|
Для равнозначного распределения вероятностей неопределенность возрастает с увеличением n. Последнее свидетельствует о том, что энтропия (8.1) является как мерой неопределенности, так и мерой разнообразия. Это означает, что чем сложнее случайный процесс, тем большей неопределенностью он обладает, или другими словами, тем менее прогнозируемыми становятся объекты или явления.
В
случае, когда α
представляет собой континуум (
)
(например, для случайной величины Х,
принимающей бесконечное несчетное
множество значений (
)),
энтропия вычисляется по формуле
|
(8.3)
|
|
|
Основание логарифма в формулах (8.1), (8.2) не оказывает качественного влияния на оценку энтропии, а лишь определяет её размерность.
Для непрерывных случайных процессов при теоретическом анализе, включающем интегрирование и дифференцирование математических выражений, наиболее удобно использовать натуральные логарифмы. При этом энтропия определяется в натуральных единицах – нитах (или хартли). В более общем случае информационная энтропия (макроэнтропия) для непрерывных случайных процессов имеет размерность времени (секунда). В термодинамике на молекулярном уровне вводится понятие энергетической энтропии (микроэнтропии), которая определяется количеством тепла. Размерность микроэнтропии – джоуль (Дж).
При анализе цифровых машин и других устройств, работающих в двоичном коде, как правило, используются двоичные логарифмы и соответственно двоичные единицы – биты.
При анализе измерительных устройств, работающих в десятичном коде, удобнее применять десятичные логарифмы и десятичные единицы – диты.
Между этими единицами существуют определенные соотношения: 1 дит=2,3 нит=3,3 бит; 1нит=1,45 бит=0,43 дит; 1 бит=0,69 нит=0,3 дит.
Пример 8.1. Для такого объекта как монета (подбрасывание монеты) характерны два равновероятных случайных состояния (события): выпадение решки или орла. Энтропия этого явления
|
Пример 8.2. Для бутерброда также возможны два состояния: хлеб и масло. На основании известного в народе «закона» о том, что бутерброд всегда падает маслом вниз,
|
При n=2 неопределенность исхода в подбрасывании максимальна в случае с монетой; для бутерброда неопределенность отсутствует.
