- •7. Элементы теории случайных процессов
- •7.1.Общие понятия
- •7.2. Виды и модели случайных процессов
- •7.3. Марковские процессы
- •7.3.1. Общее понятие.
- •Марковский процесс полностью описывается переходными вероятностями (или условной плотностью вероятности) и одномерным распределением.
- •7.3.2. Однородные марковские цепи
7.2. Виды и модели случайных процессов
По сути, все процессы, с которыми нам приходится сталкиваться в жизни, надо рассматривать как случайные. Но между ними есть существенные различия.
Прежде всего, случайные процессы можно разделить в зависимости от возможности проведения объективных испытаний по получению нескольких реализаций. В одних случаях такая возможность есть. Такие случайные процессы можно назвать массовыми. Например, можно подвергнуть стендовым испытаниям на износ несколько двигателей одного наименования и исполнения по одной и той же методике. В качестве параметра х может быть взят средний зазор между поршнем и цилиндром двигателя, который со временем t постепенно увеличивается. Можно проводить также испытания лекарств на нескольких животных, испытания методик обучения на нескольких учениках, испытания правил приема в вузы в нескольких вузах. Одной из главных задач здесь является задача выбора параметра х. Но большинство процессов, протекающих в социально-экономической и политической сферах и обычно требующих прогнозирования, уникально, нет возможности получения даже двух реализаций. Их так и можно назвать – уникальными случайными процессами. В этих случаях спектр возможных реализаций должны определять эксперты.
Случайные процессы делят также в зависимости от того, являются ли параметры х и t дискретными или непрерывными. В связи с этим различают процессы с непрерывными и дискретными значениями, а также процессы с непрерывным и дискретным “временем”. Процессы, с непрерывными значениями и непрерывным параметром t называют диффузионными. Процессы с дискретными значениями и непрерывным параметром t называют разрывными, а также сепарабельными. Процессы с дискретными значениями и дискретным параметром t называют цепями. Дискретными моделями часто описывают и процессы, у которых параметры изначально непрерывны.
Самыми простыми моделями случайных процессов являются квазидетерминированные процессы. Это процессы, описываемые функциями со случайными параметрами. Например, линейными функциями: X(t)=At+B, где параметры A и B – независимые случайные величины с заданными функциями распределения. У этой модели вид плотности распределения f(x;t) можно выразить через распределения параметров функции. Если воспользоваться свойствами числовых характеристик случайных величин, то можно сразу (не определяя f(x;t)) найти выражения для математического ожидания процесса, его дисперсии и автокорреляционной функции:
M[X(t)]=M[A]·t+M[B], D[X(t)]=D[A]·t2+D[B],
r(t1,t2)=
.
где M[A]·и M[B]– математические ожидания случайных величин A и B,
D[A] и D[B] – их дисперсии.
Из последней формулы видно, что r(t1,t2)=1 если t1=t2 либо D[A]=0, либо D[B]=0. Однако, из линейной модели следует, что как только при каких-либо значениях t1, t2 будут точно измерены х1 и х2, то при любых t>t2 значения параметра x будут определены однозначно, что на практике редко встречается. Тем не менее, такие модели использовались, в частности, в теории износа машин и механизмов.
К простейшим моделям случайных процессов относятся также процессы с независимыми значениями. Это такие процессы, у которых можно считать K(t1,t2)=0 при всех t1 и t2≠t1. Для их описания достаточно одномерного распределения. К таким процессам можно отнести и регрессионные модели, при построении которых значения одного из параметров задаются исследователем, а не являются значениями случайной величины (см. раздел “математическая статистика”).
Используются также модели, называемые процессами с независимыми приращениями. В основе такой модели лежит предположение о независимости всевозможных пар приращений ∆1=X(t2)-X(t1) и ∆2=X(t3)-X(t2) при любых t1,t2,t3 (t1<t2<t3). К ним относится, в частности, уже известный процесс Пуассона (если X при любом t – дискретная случайная величина, принимающая значения 0, 1, 2, 3,…), который в новых обозначениях описывается формулой для условной вероятности:
Pу(x2;
t2
/
x1;t1)=
,
где m=x2-x1,
причем x2≥x1 (при x2<x1 Pу(x2; t2 / x1;t1)=0).
Различают также стационарные и нестационарные процессы. Нестационарные процессы часто представляют в виде суммы обычной (неслучайной) функции и стационарного случайного процесса.
Процесс называется стационарным в узком смысле, если для любых n, h, ti
Fn(x1,x2,…,xn; t1,t2,…,tn)= Fn(x1,x2,…,xn; t1+h,t2+h,…,tn+h).
Процесс называется стационарным в широком смысле, если а(t)=const, D(t)=const, K(t1,t2)= K(s), где t2=t1+ s. Очевидно, при s=0 K(s)=2. Автоковариационные функции в одних случаях имеют вид затухающей экспоненты, в других (если процесс имеет в себе ярко выраженную периодическую составляющую) – вид затухающей синусоиды. Отрезок [0;tk], на котором K(s) существенно отличается от нуля, называют интервалом корреляции. Значения X1 и X2, соответствующие значениям t1 и t2 > t1+ tk, можно считать независимыми случайными величинами.
Стационарные процессы называют эргодическими, если для оценивания основных его характеристик достаточно иметь одну реализацию x(t) на некотором отрезке [0,t0]. В качестве математического ожидания и дисперсии процесса в этом случае берут средние по времени. В случае непрерывных параметров t и x имеем:
M[X(t)]a≈
;
D[X(t)]
2≈
Автоковариационную функцию процесса тогда можно вычислять по формуле:
K(s)
≈
,
где
=x(t)-a,
а вычисления интеграла можно производить
лишь для фиксированных значений s<t0.
Реализацию эргодического случайного процесса можно разбить на несколько частей и каждую такую часть представлять в качестве новой реализации. Статистическая обработка совокупности новых реализаций должна дать те же результаты.
Процессы различаются также видами распределений, используемых для их описания. Наибольшее значение имеют гауссовские или нормальные процессы, т.е. процессы, описываемые n-мерным нормальным распределением (при любом n). На практике обычно ограничиваются описанием процесса двумерной плотностью распределения (см. п.2.4.7.). Одномерная плотность распределения, учитывая, что математическое ожидание a(t) и дисперсия D(t) процесса в общем случае являются функциями от t, имеет вид:
f1(x1;t1)=
В зависимости от форм протекания процессов выделяют колебательные случайные процессы, а также монотонные. Колебательные стационарные случайные процессы обычно подвергаются спектральному разложению с целью выделения гармонических (синусоидальных) составляющих с преобладающими частотами и случайными амплитудами. Для этого вводится понятие спектральной плотности стационарного случайного процесса, которая однозначно определяется через автокорреляционную функцию. Колебательные процессы нашли широкое применение в радиофизике, вибромеханике, виброакустике и других сферах.
Особенностью монотонных процессов является то, что у них каждая реализация является неубывающей (невозрастающей) кривой. Такие процессы не могут быть гауссовскими. Если для описания монотонного процесса использовать двумерную плотность распределения, то ее предпочтительнее представлять в виде произведения одномерной плотности распределения и условной:
f2(x1,x2;t1,t2)= f1(x1;t1)·φ(x2; t2 / x1;t1).
Тогда закон для условного распределения следует подбирать таким, чтобы плотность распределения была равна 0 при x2 - x1 <0 для неубывающей функции и при x2 - x1 >0 – для невозрастающей. Например, для неубывающей функции можно использовать закон Релея как для одномерной, так и для условной плотности распределения:
f1(x1;t1)=
· φ(x2;
t2
/ x1;t1)=
,
где b1(t1), b2(t1,t2) – некоторые функции, являющиеся параметрами одномерного и условного распределений при фиксированных значениях параметров t1, t2. Математическое ожидание и дисперсия случайной величины Х определенным образом выражаются через параметр b1 или b2 (см. метод моментов в разделе “математическая статистика”). Относительно функций b1(t1), b2(t1,t2) можно, в частности, сделать предположение, что одна из них пропорциональна времени t1, а другая – времени t2 - t1. Это предположение можно проверить методами математической статистики, предварительно проведя статистическую обработку нескольких реализаций случайного процесса с целью оценить математическое ожидание процесса M[X(t)]a(t), его дисперсию D[X(t)]D(t), автокорреляционную функцию K(t1,t2), а затем – функции b1(t1), b2(t1,t2).
В приложениях к различным практическим задачам широкое применение получили процессы броуновского движения (случайного блуждания). Название взято из физики (броуновским движением называется непрерывное беспорядочное движение частицы, взвешенной в однородной жидкости и испытывающей хаотическое столкновение с молекулами жидкости), хотя эти процессы применимы в самых разных сферах. Дискретный аналог простейшей модели одномерного случайного блуждания состоит в следующем. В начальный момент времени t=0 частица находится в состоянии x=0. Положение частицы рассматривается лишь в дискретные моменты времени t=k∙∆t, где k=0, 1, 2, …. Изменение положения происходит таким образом, что, находясь в точке x, частица независимо от предшествующего поведения переходит с равными вероятностями в одну из соседних точек x+∆ x или x-∆ x, причем ∆ x=const. Такой процесс является процессом с независимыми приращениями, имеет нулевое математическое ожидание и дисперсию D(t), пропорциональную времени: D(t)=σ2∙t, где σ2 – величина постоянная и называется коэффициентом диффузии.
Широкое практическое применение находят также ветвящиеся процессы. Это процессы изменения во времени количества элементов (частиц) некоторой совокупности, которые могут размножаться и гибнуть или только размножаться. Поэтому они относятся к процессам с дискретными значениями. Наиболее простое описание процесса размножения состоит в предположении, что каждый элемент через некоторое время t может породить группу из n элементов с одинаковой для всех элементов вероятностью рn(t). Тогда число элементов X(t) к моменту времени t будет представлять собой однородный марковский процесс (см. далее). Эти процессы широко используются при описании ядерных процессов, фотохимических реакций, процессов рождения и гибели и т.д. Ветвящийся процесс можно интерпретировать как процесс случайного блуждания.
В рамках таких дисциплин, как статистика, эконометрика, строят модели случайных процессов, называемые моделями временных рядов или просто временными рядами. При этом случайный процесс представляется в виде суммы детерминированной и одной или нескольких случайных функций. Моделями временных рядов успешно описываются многие экономические процессы, в том числе такие, на характер поведения которых влияет сезонный фактор. Одна из простейших моделей временного ряда является регрессионной моделью.
