- •Н.Н. Куцый, в.Н. Сизых введение в теорию информации учебное пособие
- •Оглавление
- •Часть 1. Вероятностные основы теории информации
- •Часть 2. Основы прикладной теории информации
- •Введение
- •Часть 1. Вероятностные основы теории информации
- •Определение априорной и апостериорной вероятностей дискретного источника
- •Дискретные источники сообщений
- •Основные определения и оценка случайного события
- •Способы определения случайных событий
- •Определение априорной вероятности
- •Элементы комбинаторики
- •Схемы подсчетов априорной вероятности по формуле (1.1)
- •Задачи для самостоятельной работы
- •Определение апостериорной вероятности
- •Задачи для самостоятельной работы
- •2. Условная и полная вероятности дискретного источника
- •2.1. Условная вероятность
- •Свойства независимых несовместных событий а1 и а2
- •Свойства зависимых событий а1 и а2
- •Задачи для самостоятельной работы
- •2.2. Полная вероятность
- •Задачи для самостоятельной работы
- •3. Случайные величины дискретных источников
- •3.1. Случайные величины
- •Задача для самостоятельной работы
- •4. Законы распределения дискретных случайных величин
- •4.1. Числовые характеристики дискретных св
- •4.2. Типовые законы распределения вероятностей дискретных св
- •Задачи для самостоятельной работы
- •5. Системы дискретных случайных величин
- •5.1. Характеристики систем дискретных случайных величин
- •5.2. Закон распределения системы дискретных случайных величин
- •Задачи для самостоятельной работы
- •6. Дискретные случайные процессы
- •6.1. Случайные процессы
- •6.2. Потоки событий
- •7. Марковские цепи
- •7.1. Марковские цепи с дискретными состояниями
- •7.2. Марковские цепи
- •7.3. Расчет цепи Маркова для стационарного режима
- •Задачи для самостоятельной работы
- •Часть 2. Введение в прикладную теорию информации
- •8. Энтропия как мера неопределенности
- •8.1. Энтропия
- •8.2. Условная энтропия
- •Задачи для самостоятельной работы
- •9. Оценка информационных характеристик дискретных источников
- •9.1. Условные и безусловные вероятности появления символов в виде стохастического вектора и матрицы дискретного источника
- •Снятые статистические данные источника
- •9.2. Информационные характеристики дискретного источника
- •Задача для самостоятельной работы
- •10. Основы теории кодирования и передачи информации
- •10.1. Кодирование информации
- •10.2. Формирование экономичного кода алфавита
- •10.2.1. Код Шеннона–Фано
- •10.2.2. Код Хаффмена
- •Задачи для самостоятельной работы
- •Решения и ответы задач для самостоятельной работы
- •Дополнительные задачи по курсу «Теория информации» Задача 1
- •Задача 2
- •Задача 3
- •Задача 8
- •Задача 22
- •Задача 23
- •Задача 24
- •Задача 25
- •Приложения Приложение 1. MatLab – программы для расчета цепи Маркова
- •Приложение 2. MatLab – программа для определения энтропии дискретного источника
- •Приложение 3. MatLab – программа для оценки информационных характеристик дискретных источников с памятью
- •Приложение 4. Алгоритмы кодирования и декодирования
- •Алгоритм построения кодового дерева кода Хаффмена
- •MatLab-программа декодирования арифметического кoда
7. Марковские цепи
7.1. Марковские цепи с дискретными состояниями
Рассмотрим физическую систему, множество S дискретных состояний которой конечно, S={s1, s2,…,si,…,sn}.
Для рассмотрения возможности системы S переходить из одного состояния si в другое состояние sj удобно пользоваться наглядной схемой, называется графом состояний. Вершины графа соответствуют состояниям системы. Стрелки, ведущие из вершины si в sj, обозначают возможность перехода системы из одного состояния в другое.
Примером такой системы S является техническое устройство со следующими возможными состояниями: s1 – исправная работа; s2 – профилактический осмотр и обслуживание; s3 – ремонт; s4 – списание за негодностью (Рисунок 7.1).
Рисунок 7.1. – Граф состояния системы
Из анализа видно, что из состояния исправной работы s1 система может переходить в состояние профилактического осмотра s2 и опять возвращаться в состояние s1, или переходить в состояние ремонта s3, либо в состояние негодности в эксплуатации s4. Состояние s4 является конечным, так как переход у него невозможен. Переход из s1 в состояние s1 означает задержку в этом состоянии.
7.2. Марковские цепи
На
практике часто встречаются системы,
состояния которых образуют цепь, в
которой каждое состояние si
(кроме
крайних s0
и sn)
связано прямой и обратной связями с
двумя соседними
,
а крайнее – с одним соседним (Рисунок
7.2).
Рисунок
7.2. – Цепь состояний
Примером такой системы является техническое устройство, состоящее из однотипных узлов. Каждое состояние системы характеризуется числом неисправных в данный момент времени t узлов.
При анализе случайных процессов с дискретными состояниями важную роль играют вероятности состояний – вероятности событий, состоящих в том, что в момент времени t система S будет в состоянии si:
|
(7.1) |
Очевидно,
что в любой момент времени t
сумма вероятностей состояний:
и определяется как сумма вероятностей
полной группы несовместных событий.
Определение 7.1. Случайный процесс, протекающий в системе S с дискретными состояниями, называют марковским, если для любого момента времени t0 вероятность каждого из состояния системы в будущем (при t>t0) зависит только от её состояния в настоящем (t=t0) и не зависит от того, когда и как она пришла в это состояние, то есть не зависит от её поведения в прошлом (t<t0).
При дискретном времени изменения состояний системы каждый переход от одного состояния к другому состоянию называют шагом.
Из определения марковской цепи следует, что для нее вероятность перехода системы S в состояние на k+1 шаге зависит только от того, в каком состоянии sj находилась система на предыдущем k-ом шаге.
Основной задачей исследования является нахождение вероятностей состояния si на любом k-ом шаге
|
(7.2) |
Для нахождения этих вероятностей необходимо знать условные вероятности перехода системы S на k-ом шаге в состояние sj, если известно, что на предыдущем k–1-ом шаге она была в состоянии si. Обозначим эти вероятности как
|
(7.3) |
Вероятности pij(k) называют переходными вероятностями марковской цепи на k-ом шаге. Вероятность pij есть вероятность того, что на k-ом шаге системы останется в состоянии si.
Цепь Маркова называют однородной, если переходные вероятности не зависят от номера шага: pij(k)=pij=const.
Переходные
вероятности записываются в виде
квадратной матрицы размера
|
(7.4)
|
Вероятность состояния системы на следующем шаге определяется по рекуррентной формуле:
|
(7.5) |
Цепь Маркова называется неприводимой, если в ней содержится не более одного замкнутого множества. Цепь Маркова неприводима, в частности, тогда, когда все ее состояния достижимы друг от друга.
Состояние i называется периодическим, если существует такое t>1, что вероятность перехода из i в i за n шагов равна нулю при всех n, не кратных t. Цепь, не содержащая периодических состояний, называется непериодической.
Определение 7.2. Непериодическая неприводимая цепь Маркова называется эргодической.
При этих условиях (эргодичность, однородность, отсутствие циклов) в цепи Маркова устанавливается стационарный режим, в котором вероятности состоянии системы уже от номера шага не зависят
|
|
Такие вероятности называют предельными (или финальными) вероятностями цепи Маркова
|
(7.6) |
Вероятность переходов непосредственно записывается на стрелках графа марковской цепи. Пример размеченного графа состояний системы S показан на Рисунке 7.3.
Рисунок 7.3. – Размеченный граф
