- •Предисловие
- •Лист студента
- •Лист рецензии
- •Раздел 1. Теория вероятностей
- •Тема 1.1. События и вероятность
- •1.1.1. Элементы комбинаторики
- •1.1.2. События
- •1.1.3. Понятие вероятности
- •1. Статистическое определение вероятности.
- •2. Классическое определение вероятности.
- •1.1.4. Алгебра событий
- •1.1.5. Теорема сложения
- •1.1.6. Условные вероятности и теорема умножения
- •1.1.7. Формула полной вероятности. Формулы Байеса
- •Тема 1.2. Повторение испытаний (схема Бернулли)
- •1.2.1. Формула Бернулли
- •1.2.2. Формула Пуассона
- •1.2.3. Локальная формула Лапласа
- •1.2.4. Интегральная формула Лапласа
- •Тема 1.3. Случайные величины
- •1.3.1. Дискретные случайные величины
- •1.3.2. Непрерывные случайные величины
- •Тема 1.4. Законы распределения случайных величин
- •1.4.1. Биномиальное распределение
- •1.4.2. Геометрическое распределение
- •1.4.3. Распределение Пуассона
- •1.4.4. Равномерное распределение
- •1.4.5. Показательное (экспоненциальное) распределение
- •1.4.6. Нормальное распределение
- •Тема 1.5. Система двух случайных величин
- •1.5.1. Дискретные двумерные случайные величины
- •1.5.2. Функция распределения двумерной случайной величины
- •Основные свойства функции распределения:
- •1.5.3. Непрерывные двумерные случайные величины
- •Свойства плотности распределения:
- •1.5.4. Независимые и зависимые случайные величины. Коэффициент корреляции
- •Свойства коэффициента корреляции
- •Тема 1.6. Закон больших чисел
- •1.6.1. Неравенства Маркова и Чебышева
- •1.6.2. Закон больших чисел
- •Теорема Чебышева
- •Закон больших чисел
- •1.6.3. Теорема Бернулли
- •Теорема Бернулли
- •1.6.4. Понятие о центральной предельной теореме
- •Центральная предельная теорема
- •Тема 1.7. Цепи Маркова
- •1.7.1. Понятие марковского случайного процесса
- •1.7.2. Цепи Маркова с дискретным временем
- •1.7.3. Цепи Маркова с непрерывным временем
- •Правила составления системы дифференциальных уравнений Колмогорова
- •Раздел 2. Математическая статистика
- •Тема 2.1. Вариационные ряды и их характеристики
- •2.1.1. Генеральная и выборочная совокупности
- •2.1.2. Вариационный ряд и его графические изображения
- •2.1.3. Числовые характеристики вариационных рядов
- •Тема 2.2. Оценка параметров генеральной совокупности
- •2.2.1. Точечные оценки параметров
- •2.2.2. Основные законы распределения статистических оценок
- •2.2.2.1. Распределение «хи-квадрат»
- •2.2.2.2. Распределение Стьюдента
- •2.2.2.3. Распределение Фишера-Снедекора
- •2.2.3. Интервальные оценки параметров
- •Тема 2.3. Проверка статистических гипотез
- •2.3.1. Основные понятия и определения
- •2.3.2. Проверка гипотезы о равенстве средних значений
- •2.3.3. Проверка гипотезы о равенстве генеральных дисперсий
- •2.3.4. Проверка гипотезы о распределении генеральной совокупности. Критерии согласия
- •Тема 2.4. Однофакторный дисперсионный анализ
- •2.4.1. Понятие о дисперсионном анализе
- •2.4.2. Факторная и остаточная дисперсии и их отыскание
- •2.4.3. Сравнение нескольких средних методом дисперсионного анализа
- •Тема 2.5. Корреляционно-регрессионный анализ
- •2.5.1. Формы представления исходных для анализа данных
- •2.5.2. Выборочный коэффициент корреляции
- •Свойства выборочного коэффициента корреляции
- •2.5.3. Выборочное корреляционное отношение
- •2.5.4. Линейная регрессия
- •2.5.5. Статистический анализ уравнения регрессии
- •Литература
1.7.2. Цепи Маркова с дискретным временем
Способы математического описания марковского случайного процесса, протекающего в системе с дискретными состояниями, существенно зависят от того, в какие моменты времени происходят переходы (скачки) системы из состояния в состояние.
Марковский случайный процесс называется процессом с дискретным временем, если переходы системы из состояния в состояние возможны только в определенные, заранее фиксированные, моменты времени t1, t2, …. Причем в промежутках времени между этими моментами система сохраняет свое состояние.
Эти заранее известные моменты времени принято называть шагами процесса и рассматривать случайный процесс, происходящий в системе, как функцию целочисленного аргумента – номера шага k.
Пусть
имеется система S,
которая имеет возможные состояния
.
Обозначим как
событие, состоящее в том, что после k
шагов система находится в состоянии
.
Обозначим вероятность события
через
и назовем эту вероятность – вероятностью
i-го
состояния после k-го
шага. Очевидно, что для любого шага k
события
образуют полную группу, т.к. система
может находиться только в одном из своих
состояний, поэтому можно записать:
.
Случайная
последовательность событий
называется цепью
Маркова,
если для каждого шага вероятность
перехода системы из любого состояния
в любое состояние
не зависит от того, когда и каким образом
система пришла в состояние
.
Вероятности
перехода системы из любого состояния
в любое состояние
за один шаг можно записать в виде
квадратной матрицы
переходных вероятностей
.
В этой матрице некоторые элементы могут
быть равны нулю, что означает невозможность
перехода системы из i-го
состояния в j-е,
а на главной диагонали располагаются
вероятности
задержки системы в состоянии
.
Цепь Маркова называется однородной, если переходные вероятности не зависят от номера шага, т.е. не изменяются от шага к шагу. В противном случае цепь Маркова называется неоднородной.
Для определения вероятностей состояний системы после любого k-го шага используется формула, которая называется равенством Маркова:
Как следует из этой формулы, вероятности состояний системы после k-го шага определяются через вероятности состояний после предыдущего (k – 1)-го шага. При проведении практических расчетов чаще используется равенство Маркова, записанное в матричной форме:
-
,
где
матрица-строка вероятностей состояний
после (k
– 1)-го
шага, а
матрица-столбец искомых вероятностей
после k-го
шага.
ПРИМЕР:
Найдите вероятности состояний после 2
шага некоторой системы, для которой
известно, что в начальный момент она
находится в состоянии
,
а матрица переходных вероятностей имеет
вид:
Согласно
условию, для начального момента (k
= 0)
запишем:
.
Для вероятностей состояний системы
после первого шага, используя равенство
Маркова в матричной форме, можно записать:
Искомые вероятности состояний после второго шага будут равны:
Таким
образом, после второго шага вероятнее
всего система будет находиться в
состоянии
.
