- •Ю.Я. Кацман Теория вероятностей, математическая статистика и случайные процессы
- •Теория вероятностей, математическая статистика и случайные процессы
- •Издано в авторской редакции
- •Отпечатано в Издательстве тпу в полном соответствии с качеством предоставленного оригинал-макета
- •Введение
- •Раздел 1. Теория вероятностей Глава 1. Основные понятия теории вероятностей
- •1.1. Элементы комбинаторики
- •1.2. Пространство элементарных событий. Случайные события
- •1.3. Статистическое определение вероятности
- •1.4 Классическая вероятностная схема
- •1.5. Аксиоматическое построение теории вероятностей
- •1.6. Геометрическое определение вероятности
- •Глава 2. Основные теоремы теории вероятностей
- •2.1. Теорема сложения вероятностей несовместных событий
- •2.2. Теорема сложения вероятностей совместных событий
- •2.3. Независимость событий
- •2.4. Теорема умножения вероятностей
- •2.5. Формула полной вероятности
- •2.6. Теорема гипотез (Формула Байеса)
- •Глава 3. Повторение испытаний
- •3.1. Схема Бернулли
- •3.1.1. Обобщение схемы Бернулли
- •3.2. Теорема Пуассона (Закон редких событий)
- •3.3. Локальная теорема Муавра-Лапласа
- •3.4. Интегральная теорема Муавра-Лапласа
- •Глава 4. Случайные величины
- •4.1. Классификация случайных величин. Закон распределения дискретной случайной величины
- •4.1.1. Интегральная функция распределения
- •4.2. Непрерывная случайная величина, плотность распределения
- •4.2.1. Основные свойства плотности распределения
- •4.3. Характеристики положения случайной величины
- •4.4. Числовые характеристики одномерной случайной величины
- •4.4.1. Свойства математического ожидания
- •4.5. Моменты случайной величины
- •4.5.1. Свойства дисперсии
- •4.5.2. Асимметрия и эксцесс
- •Глава 5. Многомерные случайные величины
- •5.1. Многомерная случайная величина и закон ее распределения
- •5.1.1. Свойства двумерной функции распределения
- •5.2. Плотность вероятности двумерной случайной величины
- •5.2.1. Условная плотность распределения
- •5.3. Числовые характеристики системы случайных величин
- •5.3.1. Свойства коэффициента корреляции
- •Глава 6. Основные законы распределения
- •6.1. Нормальный (гауссов) закон распределения
- •6.1.1. Вероятность попадания на интервал
- •6.1.2. Свойства нормальной функции распределения
- •6.2. Распределение ("хи–квадрат")
- •6.3. Показательный (экспоненциальный) закон распределения
- •6.3.1 Числовые характеристики показательного распределения
- •6.3.2. Функция надежности
- •6.4. Распределение Парето
- •Глава 7. Закон больших чисел
- •7.1. Неравенство Чебышева
- •7.2. Теорема Чебышева
- •7.3. Обобщенная теорема Чебышева
- •7.4. Теорема Маркова
- •7.5. Теорема Бернулли
- •7.6. Центральная предельная теорема
- •Раздел 2. Математическая статистика Глава 8. Основные понятия и задачи математической статистики
- •8.1. Выборочные распределения
- •8.1.1. Группирование данных, гистограмма, полигон
- •8.2. Статистическая (эмпирическая) функция распределения
- •8.3. Выборочные значения и оценка параметров.
- •8.3.1. Требования "хороших оценок"
- •Несмещённость.
- •Эффективность.
- •Состоятельность.
- •Глава 9. Интервальное оценивание
- •9.1. Интервальная оценка математического ожидания при известной дисперсии
- •9.2 Интервальная оценка математического ожидания при неизвестной дисперсии
- •9.3. Интервальная оценка выборочной дисперсии
- •Глава 10. Статистические критерии
- •10.1. Проверка гипотез
- •10.2. Ошибки проверки гипотез
- •Раздел 3. Случайные процессы Глава 11. Основные понятия и модели случайных процессов
- •11.1. Классификация случайных процессов
- •11.2. Основные характеристики случайного процесса
- •Свойства математического ожидания сп
- •Свойства дисперсии сп
- •Свойства корреляционной (автоковариационной) функции сп
- •Свойства нормированной корреляционной функции сп
- •11.2. Стационарные случайные процессы
- •11.3. Марковские случайные процессы
- •11.4. Потоки событий (Пуассоновские потоки)
- •11.5. Непрерывный марковский процесс. Уравнения Колмогорова
- •Заключение
- •Список литературы Основная
- •Дополнительная
Свойства корреляционной (автоковариационной) функции сп
Корреляционная функция при одинаковых значениях аргументов равна дисперсии СП:
(11.12)
Корреляционная функция не меняется при перестановке аргументов местами:
(11.13)
Если к СП прибавить неслучайную функцию, то корреляционная функция не изменится, то есть, если
,
то:
(11.14)
При умножении СП
на
неслучайный множитель
его корреляционная функция умножается
на произведение
,
то есть,
если
,
то:
(11.15)
Наряду
с корреляционной функцией СП вводится
также нормированная
корреляционная
(автоковариационная)
функция
,
определяемая равенством
(11.16)
По
смыслу
аналогична коэффициенту корреляции
СВ, но не является константой и зависит
от аргументов
и
.
Свойства нормированной корреляционной функции сп
Свойства нормированной корреляционной функции аналогичны свойствам коэффициента корреляции:
ПРИМЕР
3: Используя
условие
ПРИМЕРА 1, найдем корреляционную и
нормированную корреляционную функции
СП
.
РЕШЕНИЕ: Согласно (11.11) вычислим:
Теперь, согласно (11.16), получим:
11.2. Стационарные случайные процессы
Важным классом СП являются стационарные случайные процессы, которые не изменяют свои характеристики с течением времени. Такие процессы имеют вид непрерывных случайных колебаний вокруг неслучайного значения, например: флуктуация напряжения в электрической сети, давление газа в трубопроводе, температура в тепловом (ядерном) реакторе.
Случайный
процесс
называется
стационарным
в широком смысле,
если его математическое ожидание
постоянно, а корреляционная функция
зависит только от разности аргументов,
(11.17)
Из
этого определения следует, что
корреляционная
функция стационарного процесса есть
функция одного аргумента:
где
Случайный процесс называется стационарным в узком смысле, если все его характеристики зависят не от значений аргументов, а лишь от их взаимного расположения. Так для функций распределения сечений процесса должно выполняться равенство:
(11.18)
при
любых
.
Большинство стационарных СП обладают важным для практики эргодическим свойством.
Эргодическое
свойство стационарной случайной функции
заключается в том, что любая ее реализация
обладает одними и теми же свойствами и
на достаточно большом интервале
аргумента
ведет себя в среднем так же, как и все
другие реализации. Рис. 11.2 иллюстрирует
связь между классами СП.
Рис. 11.2. Соотношение классов случайных процессов
11.3. Марковские случайные процессы
Случайный
процесс, протекающий в системе, называется
марковским (или процессом
без последействия), если для любого
момента времени
вероятность любого состояния системы
в будущем
зависит только от ее состояния в настоящем
и не зависит от того, как и каким образом
система пришла в это состояние.
Пусть имеется
некоторая физическая система
,
в которой протекают СП. Под влиянием
случайных факторов с течением времени
система может переходить из одного
состояния в другое.
Случайный
процесс называется процессом с
дискретными состояниями, если множество
его возможных состояний
конечно или счетно, а переход из одного
состояния в другое осуществляется
скачком, причем переходы возможны только
в определенные моменты времени
.
Рассмотрим
марковский случайный процесс описывающий
систему с дискретными состояниями и
дискретным временем функционирования.
Процесс, происходящий в такой системе,
можно представить в виде цепочки
случайных событий
Такая случайная последовательность
называется дискретной марковской
цепью, если для каждого шага
вероятность перехода из любого состояния
в любое состояние
не зависит от того, как система пришла
в состояние
Марковский процесс служит моделью для многих процессов в биологии (распространение эпидемии, рост популяции), в физике (радиоактивный распад), в теории массового обслуживания.
Рассмотрим свойства марковских случайных процессов на примере известной игры «Тише едешь – дальше будешь».
Вспомним правила игры:
В этой игре фишка играющего должна пройти некоторое конечное число пунктов
.Переход из одного пункта в другой каждый раз определяется исходом бросания игральной кости.
Таким
образом, если на данном шаге фишка
находится в пункте
,
то правилами игры устанавливается пункт
перехода ее на следующем шаге, в
зависимости от числа очков, выпавших
на игральной кости. Отметим очевидное
свойство марковских случайных процессов.
Из
любого пункта
фишка с некоторой вероятностью
переходит в один из пунктов
,
независимо от характера ее движения до
попадания в пункт i.
Это свойство цепей Маркова часто называют
системами без
последствия,
или системами
с отсутствием памяти.
Пусть
имеется система, которая может находиться
в одном из фазовых состояний
.
Состояние системы меняется в зависимости
от некоторого параметра
,
причем переход из состояния в состояние
зависит от случайного фактора. Будем
условно называть параметр
временем и считать, что
пробегает либо целые, либо действительные
числа.
Пусть
– состояние системы в момент времени
t,
и пусть соблюдается закономерность:
если в данный момент времени
система находится в фазовом состоянии
,
то в последующий момент времени
будет находиться в состоянии
с некоторой вероятностью
независимо от поведения системы до
указанного момента
.
Вероятности
(11.19)
называются переходными вероятностями марковской цепи .
Марковская
цепь
называется однородной, если переходные
вероятности
зависят лишь от разности
:
.
Полным описанием однородной марковской цепи может служить квадратная матрица переходных вероятностей
. (11.20)
Очевидно, что для
каждого состояния (номера шага) возможные
переходы образуют полную группу событий,
то есть
.
Переходные вероятности, соответствующие
невозможным переходам, равны нулю.
Вероятности, расположенные по главной
диагонали матрицы, соответствуют тому
факту, что состояние системы не изменилось.
Дискретная марковская цепь называется неоднородной, если переходные вероятности меняются с изменением номера шага.
Отметим, что переход системы из одного состояния в другое в последовательных опытах может происходить непосредственно либо пошагово:
(11.21)
В этом выражении верхний
индекс указывает число шагов, за которые
система из состояния
переходит в состояние
.
Рассмотрим несколько примеров, иллюстрирующих свойства цепей маркова и матрицы переходных вероятностей.
ПРИМЕР 4: Имеется конечная марковская цепь с соответствующей матрицей вероятностей переходов
.
Анализ данной матрицы переходных вероятностей свидетельствует о том, что не для каждого состоянии существует отличная от нуля вероятность перехода в другое состояние. Более того, для данной системы существует тупиковое состояние, из которого ни в какое другое состояние перейти невозможно.
Класс эквивалентности (множество состояний) это класс, в котором для каждой пары состояний существует отличная от нуля вероятность перехода из одного состояния в другое.
У нас три класса эквивалентности:
Рассмотрим переходы из первого класса эквивалентности во второй и третий. Обратный переход невозможен. Поэтому первый класс называется устойчивым.
Второй и третий классы находятся в равновесии и являются замкнутыми, то есть если система перешла в один из этих классов, то переход в другой класс невозможен. Эти два класса называются эргодическими классами эквивалентностей. Третий класс имеет единственное эргодическое состояние, называемое поглощающим. Марковская цепь, в которой каждое эргодическое состояние является поглощающим, называется поглощающей цепью.
ПРИМЕР 5: «Случайное блуждание».
Рассмотрим случайное блуждание частицы по целочисленным значениям действительной оси (прямой). Частица на каждом шаге с вероятностью p смещается на +1 и с вероятностью q = 1 – p смещается на –1.
РЕШЕНИЕ: Пусть
ξ(n)
– положение частицы через n
– шагов, тогда последовательность ξ(0),
ξ(1), ξ(2), … образует марковскую цепь.
Если частица находится в какой-то точке
i,
то ее дальнейшее поведение не зависит
от обстоятельств, предшествующих
попаданию в точку i.
За последующие n
шагов частица с вероятностью
переходит в соответствующее состояние
j.
Отметим очевидные свойства:
При |i – j| > n переход из состояния i в состояние j невозможен, и тогда
.За n шагов частица может перейти лишь в те состояния j, для которых выражение |i – j| имеет ту же четность, что и n. Переход возможен только в те состояния, для которых число m является целым:
Если
,
то попасть в состояние j
можно тогда и только тогда, когда из
всех n
шагов ровно m
шагов совершается в положительном
направлении. Вероятность этого события
вычислим по формуле Бернулли:
Аналогично вычислим вероятность перехода из i в j, если
:
