Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Введение в теорию информации.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
3.78 Mб
Скачать

Задачи для самостоятельной работы

Задача 7.1. Для условий в примере 7.2 найдите финальные вероятности, предположив, что за период t только одна ЭВМ может быть отремонтирована. Составьте MatLab – программу, используя различные способы решения СЛАУ (различные модификации метода исключения Гаусса, обращение матриц). Результаты вычислений сравните между собой.

Задача 7.2. Измерительный прибор находится в одном из четырех состояний: s1 – исправно работает; s2 – плановый ремонт; s3 – текущий ремонт; s4 – простой. Граф состояний приведен на Рисунке 7.6.

Рисунок 7.6 – Граф состояний измерительного прибора

Вероятности переходов p12=0,2; p14=0,3; p21=0,6; p31=0,1; p32=0,2; p43=0,4. Запишите систему уравнений и найдите финальные вероятности состояний. Составьте MatLab – программу, используя различные способы решения СЛАУ (различные модификации метода исключения Гаусса, обращение матриц). Результаты вычислений сравните между собой.

Задача 7.3. Составьте граф состояний студента в период обучения (от абитуриента s0, первокурсника s1 до выпускника s6). Выпишите матрицу переходов, приняв вероятность успешной сдачи экзаменов в летней сессии p=0,9.

Часть 2. Введение в прикладную теорию информации

8. Энтропия как мера неопределенности

Теория вероятностей, определившая математический аппарат описания случайных процессов и явлений, заложила основу целого ряда теорий, получивших весьма распространенный прикладной характер. Многие из этих теорий определили, в свою очередь, математические основы современных информационных технологий. В ряду этих теорий важнейшее место занимает теория информации, в основе которой лежат труды Клода Шеннона, его вероятностная интерпретация количественной меры информации. Характерно, что изначальным понятием, или категорией, этой теории является неопределенность, в качестве меры которой была принята энтропия.

8.1. Энтропия

Неопределенность события определяется вероятностью его появления, неопределенность СВ – числовой характеристикой функции плотности вероятностей, например, вторым центральным моментом (или дисперсией). Однако для случайных процессов (объектов) или явлений, состояния которых различаются качественно, а не количественно, использование дисперсии невозможно.

В общем случае мера неопределенности, связанная с распределением вероятности, должна быть некоторой ее числовой характеристикой, не зависящей от того, в какой шкале измеряются реализации случайного процесса или явления. В качестве такой меры К. Шеннон предложил использовать энтропию Н для случайного процесса Х:

(8.1)

где р1, р2,…, рn – вероятности случайных событий а1,а2,…,аn, характеризующие возможные состояния случайного процесса α. При этом

(8.2)

Из формул (8.1) (8.2) следует, что неопределенность отсутствует только в том случае, когда одно из значений рi равно 1. Максимальная неопределенность достигается при р1=р2...=рn= , то есть когда существует равновероятное распределение случайных событий, отражающих состояние случайного процесса (объекта или явления).

Принцип максимума информации (энтропии) был сформулирован Джейнсом (Jenes Principal). Этот принцип имеет фундаментальное значение для различных приложений к системам и процессам в физике, химии и биологии.

Его доказательство в нашем случае сводится к следующему.

Потребуем, чтобы условие

выполнялось при ограничении

Экстремум (8.1) при ограничении (8.2) может быть найден с помощью метода множителей Лагранжа. Суть метода состоит в том, что (8.2) умножается на неизвестный пока постоянный параметр λ, и затем полученное произведение прибавляется к левой части уравнения (8.1)

Затем определяется экстремум

Из последнего выражения следует, что рi=const. Тогда из условия определяется вероятность

npi=1,

Из равенства вычисляется множитель Лагранжа:

Для равнозначного распределения вероятностей неопределенность возрастает с увеличением n. Последнее свидетельствует о том, что энтропия (8.1) является как мерой неопределенности, так и мерой разнообразия. Это означает, что чем сложнее случайный процесс, тем большей неопределенностью он обладает, или другими словами, тем менее прогнозируемыми становятся объекты или явления.

В случае, когда α представляет собой континуум ( ) (например, для случайной величины Х, принимающей бесконечное несчетное множество значений ( )), энтропия вычисляется по формуле

(8.3)

Основание логарифма в формулах (8.1), (8.2) не оказывает качественного влияния на оценку энтропии, а лишь определяет её размерность.

Для непрерывных случайных процессов при теоретическом анализе, включающем интегрирование и дифференцирование математических выражений, наиболее удобно использовать натуральные логарифмы. При этом энтропия определяется в натуральных единицах – нитах (или хартли). В более общем случае информационная энтропия (макроэнтропия) для непрерывных случайных процессов имеет размерность времени (секунда). В термодинамике на молекулярном уровне вводится понятие энергетической энтропии (микроэнтропии), которая определяется количеством тепла. Размерность микроэнтропии – джоуль (Дж).

При анализе цифровых машин и других устройств, работающих в двоичном коде, как правило, используются двоичные логарифмы и соответственно двоичные единицы – биты.

При анализе измерительных устройств, работающих в десятичном коде, удобнее применять десятичные логарифмы и десятичные единицы – диты.

Между этими единицами существуют определенные соотношения: 1 дит=2,3 нит=3,3 бит; 1нит=1,45 бит=0,43 дит; 1 бит=0,69 нит=0,3 дит.

Пример 8.1. Для такого объекта как монета (подбрасывание монеты) характерны два равновероятных случайных состояния (события): выпадение решки или орла. Энтропия этого явления

Пример 8.2. Для бутерброда также возможны два состояния: хлеб и масло. На основании известного в народе «закона» о том, что бутерброд всегда падает маслом вниз,

При n=2 неопределенность исхода в подбрасывании максимальна в случае с монетой; для бутерброда неопределенность отсутствует.