- •Н.Н. Куцый, в.Н. Сизых введение в теорию информации учебное пособие
- •Оглавление
- •Часть 1. Вероятностные основы теории информации
- •Часть 2. Основы прикладной теории информации
- •Введение
- •Часть 1. Вероятностные основы теории информации
- •Определение априорной и апостериорной вероятностей дискретного источника
- •Дискретные источники сообщений
- •Основные определения и оценка случайного события
- •Способы определения случайных событий
- •Определение априорной вероятности
- •Элементы комбинаторики
- •Схемы подсчетов априорной вероятности по формуле (1.1)
- •Задачи для самостоятельной работы
- •Определение апостериорной вероятности
- •Задачи для самостоятельной работы
- •2. Условная и полная вероятности дискретного источника
- •2.1. Условная вероятность
- •Свойства независимых несовместных событий а1 и а2
- •Свойства зависимых событий а1 и а2
- •Задачи для самостоятельной работы
- •2.2. Полная вероятность
- •Задачи для самостоятельной работы
- •3. Случайные величины дискретных источников
- •3.1. Случайные величины
- •Задача для самостоятельной работы
- •4. Законы распределения дискретных случайных величин
- •4.1. Числовые характеристики дискретных св
- •4.2. Типовые законы распределения вероятностей дискретных св
- •Задачи для самостоятельной работы
- •5. Системы дискретных случайных величин
- •5.1. Характеристики систем дискретных случайных величин
- •5.2. Закон распределения системы дискретных случайных величин
- •Задачи для самостоятельной работы
- •6. Дискретные случайные процессы
- •6.1. Случайные процессы
- •6.2. Потоки событий
- •7. Марковские цепи
- •7.1. Марковские цепи с дискретными состояниями
- •7.2. Марковские цепи
- •7.3. Расчет цепи Маркова для стационарного режима
- •Задачи для самостоятельной работы
- •Часть 2. Введение в прикладную теорию информации
- •8. Энтропия как мера неопределенности
- •8.1. Энтропия
- •8.2. Условная энтропия
- •Задачи для самостоятельной работы
- •9. Оценка информационных характеристик дискретных источников
- •9.1. Условные и безусловные вероятности появления символов в виде стохастического вектора и матрицы дискретного источника
- •Снятые статистические данные источника
- •9.2. Информационные характеристики дискретного источника
- •Задача для самостоятельной работы
- •10. Основы теории кодирования и передачи информации
- •10.1. Кодирование информации
- •10.2. Формирование экономичного кода алфавита
- •10.2.1. Код Шеннона–Фано
- •10.2.2. Код Хаффмена
- •Задачи для самостоятельной работы
- •Решения и ответы задач для самостоятельной работы
- •Дополнительные задачи по курсу «Теория информации» Задача 1
- •Задача 2
- •Задача 3
- •Задача 8
- •Задача 22
- •Задача 23
- •Задача 24
- •Задача 25
- •Приложения Приложение 1. MatLab – программы для расчета цепи Маркова
- •Приложение 2. MatLab – программа для определения энтропии дискретного источника
- •Приложение 3. MatLab – программа для оценки информационных характеристик дискретных источников с памятью
- •Приложение 4. Алгоритмы кодирования и декодирования
- •Алгоритм построения кодового дерева кода Хаффмена
- •MatLab-программа декодирования арифметического кoда
7.3. Расчет цепи Маркова для стационарного режима
Для нахождения финальных вероятностей необходимо составить систему алгебраических уравнений, исходя из правила – для стационарного режима суммарный поток, переводящий систему из других состояний в состояние sj, равен суммарному потоку вероятностей событий, выводящих систему из состояния sj
|
(7.7) |
К
этим уравнениям надо добавить нормировочное
условие
,
отбросив одно любое из уравнений (7.7).
Полученная система уравнений с n
неизвестными имеет единственное решение.
Пример 7.1. Вычислительная машина находится в одном из следующих состояний: s1 – исправно работает; s2 – несправна, тестируется; s3 – неисправна, настраивается программное обеспечение; s4 – находится на профилактике; s5 – ремонтируется, модернизируется. Размеченный граф состояний показан на Рисунке 7.4. Составить систему уравнений и найти предельные вероятности состояний.
Решение. Рассмотрим состояние s5. В это состояние направленно две стрелки. Поэтому согласно (7.7) в левой части уравнения для j=5 будут два слагаемых. Следовательно, в правой части будет одно слагаемое. Таким образом,
Аналогично запишем уравнения для вершин 2, 3, 4:
Рисунок
7.4. – Размеченный граф состояний к
примеру 7.1
В качестве пятого уравнения возьмем условие нормировки
Уравнение для узла s1 отбрасываем. Его можно затем использовать для контроля полученного решения.
Перепишем систему уравнений в виде
;
В результате решения системы линейных алгебраических уравнений (СЛАУ) методом подстановок получим
p1=0,597; p2=0,1; p3=0,071; p4=0,066; p5=0,166.
Пример 7.2. В локальной вычислительной сети работают три ЭВМ. Через определенные промежутки времени t все ЭВМ тестируются, в результате чего каждая признается либо исправной, либо требующей ремонта. Вероятность того, что за время t исправная ЭВМ выйдет из строя, равна r, а что неисправная будет отремонтирована, равна q. Процессы выхода ЭВМ из строя и их восстановление протекают независимо друг от друга. Полагая, что r=0,2; q=0,3, найти финальные вероятности.
Решение. Построим граф состояний (Рисунок 7.5), нумеруя их по числу исправных ЭВМ: s0 – нет ни одной неисправной, s1 – одна неисправна, s2 – две неисправны, s3 – все три неисправны.
Рисунок 7.5. – Граф состояний
Для того чтобы система перешла из состояния s0 в s1, нужно, чтобы одна из трех ЭВМ за время t вышла из строя.
Эта вероятность определяется согласно закону распределения Бернулли
Аналогично находим:
Для проверки убедимся, что
Для того чтобы система из состояний s1 перешла в состояние s0, нужно, чтобы неисправная ЭВМ за время t была отремонтирована (А), а две исправные не вышли из строя (В). Тогда
Аналогично находим
Проверочное
условие:
Рассуждая подобным образом, определим оставшиеся вероятности:
Проверочное
условие:
Проверочное
условие:
Из вычисленных вероятностей составим переходную матрицу при r=0,2; q=0,3
Для
определения финальных вероятностей
выпишем СЛАУ (7.6):
с исключенным третьим узлом s3:
После преобразований получим СЛАУ AX=B:
Протокол решения СЛАУ (программа в М-файле MatLab) имеет вид:
Таким образом, искомые финальные вероятности равны:
