
- •С.Е.Игнатова теория вероятностей
- •Санкт-Петербург
- •Утверждено редакционно-издательским советом сПбГиэу
- •Игнатова с.Е.
- •Содержание:
- •Предисловие
- •Введение
- •Краткая историческая справка.
- •1. Правила действия со случайными событиями и вероятностями их осуществления.
- •1.1. Предмет теории вероятностей.
- •1.2. Основные формулы комбинаторики.
- •1.3. Испытания и события.
- •1.4. Виды случайных событий.
- •1.5. Классическое определение вероятности.
- •1.6. Статистическая вероятность.
- •1.7. Геометрическая вероятность.
- •1.8. Аксиоматика а.Н. Колмогорова.
- •1.9. Алгебра событий.
- •1.10. Теоремы сложения вероятностей.
- •1.11. Условные вероятности, независимость событий и экспериментов.
- •1.11.1. Теоремы умножения вероятностей.
- •1.11.2. Формула полной вероятности.
- •1.11.3. Вероятность гипотез. Формула Байеса.
- •1.11.4. Схема независимых испытаний (схема Бернулли).
- •2. Случайные величины и законы распределения вероятностей.
- •2.1. Виды случайных величин.
- •2.2. Закон распределения вероятностей дискретной случайной величины.
- •2.2.1. Функция распределения вероятностей случайной величины.
- •2.2.2. Плотность распределения вероятностей непрерывной случайной величины.
- •2.3. Основные числовые характеристики случайных величин.
- •2.3.1. Математическое ожидание.
- •2.3.2. Дисперсия.
- •2.3.3. Среднее квадратическое отклонение.
- •2.3.4. Мода и медиана.
- •2.4. Производящие функции моментов.
- •2.5. Законы распределения вероятностей, наиболее распространенные в практике статистических исследований.
- •Вероятностный смысл параметров:
- •2.5.1. Вероятность попадания в заданный интервал нормальной случайной величины.
- •2.5.2. Вычисление вероятности заданного отклонения.
- •2.5.3. Правило трёх сигм.
- •2.6. Последовательности случайных величин в дискретном вероятностном пространстве.
- •3. Закон больших чисел и центральная предельная теорема.
- •4. Совместное распределение случайных величин.
- •4.1. Закон распределения двумерной случайной величины.
- •4.2. Вычисление основных числовых характеристик случайных величин х и y.
- •4.3. Условные распределения.
- •4.4. Зависимые и независимые случайные величины.
- •4.5. Коэффициент корреляции двух случайных величин и его свойства.
- •4.6. Независимость и некоррелированность.
- •4.7. Нормальный закон распределения на плоскости.
- •Вероятностный смысл параметров:
- •4.8. Линейная регрессия. Прямые линии среднеквадратической регрессии.
- •5. Последовательности, образующие цепь Маркова.
- •5.1. Равенство Маркова.
- •5.2. Финальные вероятности.
- •Заключение
- •Список литературы:
- •Сведения об авторе.
5. Последовательности, образующие цепь Маркова.
А.А. Марков (1856 - 1922гг) – великий русский математик, ученик П.Л. Чебышёва, заложивший основы новой ветви теории вероятностей – теории случайных, или «стохастических» процессов.
Определение: Цепью Маркова называют последовательность испытаний, в каждом из которых появляется только одно из k несовместных событий А1, А2, …, Аk полной группы, причем условная вероятность рij(s) того, что в s-м испытании наступит событие Aj (j=1, 2, …, k), при условии, что в (s-1)-м испытании наступило событие Ai (i=1, 2, …, k), не зависит от результатов предшествующих испытаний.
Пример: Если последовательность испытаний образует цепь Маркова и полная группа состоит из четырех несовместных событий А1, А2, А3, А4, причем известно, что в шестом испытании появилось событие А2, то условная вероятность того, что в седьмом испытании наступит событие А4, не зависит от того, какие события появились в первом, втором, и т.д., в пятом испытаниях.
Заметим, что независимые испытания являются частным случаем цепи Маркова. Таким образом, понятие цепи Маркова является обобщением понятия независимых испытаний.
Пусть некоторая система в каждый момент времени находится в одном из k состояний: в первом, втором, и т.д., k-ом. В отдельные моменты времени в результате испытания состояние системы изменяется, то есть система переходит из одного состояния, например i, в другое, например j. В частности, после испытания система может остаться в том же состоянии («перейти» из состояния i в состояние j=i).
Таким образом, события называют состояниями системы, а испытания – изменениями её состояний.
Определение цепи Маркова можно дать в новой терминологии следующим образом.
Определение: Цепью Маркова называют последовательность испытаний, в каждом из которых система принимает только одно из k состояний полной группы, причем условная вероятность pij(s) того, что в s-ом испытании система будет находиться в состоянии j, при условии, что после (s-1)-го испытания она находилась в состоянии i, не зависит от результатов остальных, ранее произведенных испытаний.
Различают цепи Маркова с дискретным и непрерывным временем.
Определение: Цепью Маркова с дискретным временем называют цепь, изменение состояний которой происходит в определенные фиксированные моменты времени.
Определение: Цепью Маркова с непрерывным временем называют цепь, изменение состояний которой происходит в любые случайные возможные моменты времени.
Дадим еще два необходимых определения.
Определение: Цепь Маркова называют однородной, если условная вероятность pij(s) (перехода системы из состояния i в состояние j) не зависит от номера испытания.
Поэтому вместо pij(s) пишут просто pij.
Определение: Переходной вероятностью pij называют условную вероятность того, что из состояния i (в котором система оказалась в результате некоторого испытания, безразлично какого номера) в итоге следующего испытания система перейдет в состояние j.
Таким образом, в обозначении pij первый индекс i – номер предшествующего состояния, а второй индекс j – последующего.
– вероятность «перехода» из 1-го состояния в 1-ое;
–
вероятность
перехода из 2-го
состояния в 3-е.
Пусть число состояний конечно и равно k.
Определение: Матрицей перехода системы называют матрицу, которая содержит все переходные вероятности этой системы: