Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Учебное пособие 2003

.pdf
Скачиваний:
3
Добавлен:
30.04.2022
Размер:
3.84 Mб
Скачать

 

p11

p12 ...

p1l

 

P =

p21

p22 ...

p2l

,

... ... ... ...

 

 

 

pl1

pl 2 ...

pll

 

составленной из вероятностей перехода, которую называют матрицей перехода. Отметим, каким условиям должны удовлетворять элементы матрицы перехода.

Прежде всего как вероятности они должны быть неотрицательными числами, то есть при всех i и j

0≤pij≤1.

Далее, из того, что при переходе из состояния ei система переходит в одно и только одно из состояний еj (j=1,2,...,l), следует равенство

l

pij 1

i 1, 2,...,l ,

i

то есть сумма элементов каждой строки матрицы перехода равна единице.

Первая задача, которую нам надо решать для теории цепей Маркова, состоит в определении вероятности того, что система через п шагов будет находиться в состоянии еj, если ранее она находилась в состоянии ei. Обозначим эту вероятность через pij(п).

Через п-1 шагов система обязательно будет находиться в одном из состояний ek (k=1,2,...,l), причем в еk она будет c вероятностью pik(n-1). После этого за оставшийся шаг из состояния п-1 она перейдет в состояние j c вероятностью pkj(1). Используя формулу полной вероятности, получаем

 

e

 

pij n

pik n 1 pkj (1), pkj (1) pkj .

(1)

k

1

 

Формула (1) называется равенством Маркова. Легко видеть, что матрица P (n) , составленная из чисел pij(п), равна

произведению матрицы составленной из чисел pij(п-1) на матрицу P , составленную из чисел pij ; иными словами

121

P (n) P (n 1) P = P n-1 P = P n .

Это означает, что вероятности pij(п) образуют матрицу, равную п –ой степени матрицы P . В частности, при п =2, имеем

P (2) P (1) P = P 2 .

Пример. Задача о стопке книг.

На столе лежит стопка книг. Если обозначить каждую книгу соответствующим номером, то порядок их расположения сверху вниз можно описать перестановкой из m чисел (i1, i2,…, im), где i1 - номер книги, лежащей сверху, i2 - номер следующей и так далее, im - номер книги, лежащей в самом низу. Предположим, что каждая книга берется с определенной вероятностью, скажем, книга c номером k берется c вероятноcтью pk (k=1,2,…,m), причем при возвращении она кладется сверху.

Возьмем произвольное cоcтояние (i1, i2,…, im). На следующем шаге оно либо остается неизменным, что происходит с вероятностью pii при выборе лежащей сверху книги с номером i1, либо меняется на одно из т-1 состояний вида (ik, i1,…, im), что происходит c вероятностью pik при

выборе книги с номером ik. Перед нами

цепь Маркова с

соcтояниями,

каждое

из

которых

описывается

соответствующей перестановкой (i1, i2,…, im) и указанными переходными вероятностями.

Остановимся на случае двух книг (т=2). Тогда имеются лишь два состояния е1=(1,2) и е2=(2,1).

Переходные вероятности имеют вид

p 11=p21=α, p12=p22=β, α+β=1

и матрица переходных вероятностей есть

P .

Вероятности перехода за два шага

p11(2)=p21(2)=α·α+β·α=α(α+β)=α, p 12(2)=p22(2)=α·β+β·β=β(α+β)=β,

122

P (2)

p11

2

p12

2

.

p21

2

p22

2

 

 

Видно, что P (2)

P 2

P

 

и вообще в этом случае

P (n) = P .

14. 2. Теорема о предельных вероятностях

Состояние еj. называется достижимым из еj, если за некоторое число m шагов система с положительной вероятностью переходит из еi в еj, то есть pij(m)>0 при некотором т.

Рассмотрим цепь Маркова с конечным чиcлом состояний e1, e2, …,em, каждое из которых достижимо из любого другого состояния. Более того, предположим, что существует такие п шагов, что система с положительной вероятностью может перейти из каждого состояния ei в любое другое состояние еj, то есть

min pij n

0 .

(2)

i, j

 

 

Теорема. Если при некотором l>0 все элементы матрицы перехода Pl положительны, то существуют такие постоянные

числа p j j

1, 2,...,l

, что независимо от индекса i имеют место

равенства

lim pij n

p j , j 1, 2,3,..., m .

 

n

 

Теорема принимается без доказательства. Теорема о предельных вероятностях утверждает, что при выполнении условий теоремы вероятность того, что система находится в некотором состоянии ej, практически не зависит от того, в каком состоянии она находилась в далеком прошлом.

Предельные (финальные) вероятности p j , j 1,2,...,m являются решением следующей системы линейных уравнений:

 

m

 

m

p j

pk pkj ,

j 1, 2,3,..., m.

p j 1

 

k 1

 

j 1

 

 

123

 

Эти уравнения получаются, если в формуле (1) перейти к пределу при п→∞.

14.3. Стационарное распределение

Рассмотрим произвольную цепь Маркова с состояниями

е1, е2,… и числа

p0

, i=1,2,..., такие, что p0

0 ,

p0

1,

 

 

i

 

 

i

 

i

 

 

 

 

 

 

 

 

i

 

 

 

 

p0

p0 p

, j=1, 2,….

 

 

 

 

 

j

i 0 j

 

 

 

 

Взяв p0

,

i=1,2,... в качестве начального распределения

i

 

 

 

 

 

 

 

 

вероятностей, получим следующие вероятности pj(n) для нахождения в соответствующих состояниях е через п шагов:

p

j

1

p0 p

p0 ,

p

j

2

 

p 1 p

p0 .

 

 

i

ij

j

 

 

 

i

ij

j

 

 

 

i

 

 

 

 

 

i

 

 

 

Видно, что вероятности

p j

n

p0j

,

j 1, 2,....

Цепь Маркова называется стационарной, если

вероятности рj(п), j

1, 2,...остаются неизменными при всех

п=1,2,3,... .

 

 

 

 

 

 

 

 

 

 

 

Стационарными

называются

и

соответствующие

распределения

вероятности p0j

 

n ,

j

1, 2,... .

Согласно

формуле (1)

распределение

вероятности

pj ,

j 1, 2,...

является стационарным тогда и только тогда, когда оно удовлетворяет системе уравнений (3).

Если при любом начальном распределении существуют одни и те же предельные вероятности p j , то стационарное распределение единственно:

 

p0j p j , j

1, 2,... .

 

Обобщая

полученные

результаты,

можно

сформулировать следующее утверждение.

 

При условии min pij n

0 предельные вероятности

 

i, j

 

 

p j , j 1, 2,3,..., m

являются

единственным

решением

 

124

 

 

системы линейных уравнений (2), удовлетворяющим дополнительному требованию вида

p j 0,

p j 1,

 

j 1

и образуют стационарное распределение вероятностей. Пример. Задача о стопке книг (m=2). Как показывают

проведенные ранее расчеты стационарное распределение вероятностей возникает уже на первом шаге p1(n)=α , р2(п)=β при всех п=1,2,... и любом начальном распределении вероятностей.

15. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ

15.1. Основные определения

Математической статистикой называется наука,

которая основывается на методах теории вероятностей, занимается систематизацией, обработкой и использованием экспериментальных данных для получения научных и практических выводов.

Одним из основных методов исследования случайных явлений в математической статистике является выборочный метод. Рассмотрим основные понятия этого метода.

Пусть рассматривается некоторый случайный эксперимент £, связанный с СВ X, имеющей ФР F(х). Полный набор всех возможных результатов измерений СВ X в

эксперименте £ называют генеральной совокупностью с ФР

F(х).

Число членов n, образующих генеральную совокупность, называют объемом генеральной совокупности.

Отметим, что объем генеральной совокупности может быть как конечным, так и бесконечным.

Выборкой (выборочной совокупностью (ВС)) объемом п из N генеральной совокупности (ГС) называется последовательность х1,х2,...,хп наблюдаемых значений СВ X,

125

соответствующих п независимым повторениям эксперимента

£.

Аналогично определяется выборка в случае, когда случайный эксперимент £ связан с несколькими СВ. Например, выборка объемом п из ГС с ФР F(х,у) есть последовательность (х1,y1),(x2,у2),…,(xn,уn) пар значений СВ X и Y, принимаемых ими в п независимых повторениях случайного эксперимента £.

Метод, состоящий в том, что на основании изучения характеристик и свойств выборки х1,х2,...,хп даются заключения о числовых характеристиках и законе распределения СВ X, называется выборочным методом. Выборка может быть записана в виде вариационного ряда или в виде статистического ряда.

Вариационным рядом выборки х1,х2,...,хп называется способ ее записи, при котором элементы xi упорядочиваются

по величине, то есть записываются в виде последовательности

х1,х2,...,хп , причем х1х2≤...≤хп.

Разность между максимальным и минимальным элементами выборки хп1=ω называется размахом выборки.

Пусть в выборке объемом п элементр xi встречается ni раз. Число ni называется частотой элемента xi. Очевидно, что

k

nni .

i1

Статистическим рядом называется последовательность пар (xi,ni), которая записываетоя обычно в виде таблицы

xi

 

x1

x2

xk

ni

 

n1

n2

nk

k

 

 

 

 

 

ni

n .

 

 

 

i 1

 

 

 

 

 

Отношение ωi=ni/n называется относительной частотой, или частностью элемента xi выборки.

Статистическим распределением СВ X называется последовательность пар (x,ni/n), которая также записывается в

126

виде таблицы

xi

x1

 

x2

 

 

xk

 

 

ni

n

 

n

 

 

 

n

 

 

ωi= n

n

 

n

 

 

n

 

 

 

 

1

 

 

2

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

k

k

 

 

 

 

 

 

 

 

 

ni / n 1

i

 

 

 

 

 

 

 

 

 

i 1

i 1

 

 

 

 

 

 

 

 

 

Пример. Дана выборка из некоторой ГС

11,15,12,9,13,12,6,11,12,13,15,8,9,14,9,11,6. Определить объем,

размах выборки, а также построить вариационный и статистический ряды.

Решение. Объем п=17.Вариационный ряд 6,6,8,9,9,11,11, 11,12,12,12,13,13,14,15,15. Размах ω=12-6=6.

Статистический ряд и статистическое распределение имеют вид

xi

6

 

8

9

 

11

12

13

14

15

n

2

 

1

3

 

3

3

2

1

2

ωi

2/17

 

1/17

3/17

 

3/17

3/17

2/17

1/17

2/17

 

ni

n;

 

i

1

 

 

 

 

При большом объеме выборки ее элементы объединяют в группы (разряды), представляя результаты опытов в виде группированного статистического ряда. Для этого интервал, содержащий все элементы выборки, разбивается на k частичных непересекающихся интервалов.

Обычно выбирают частичные интервалы одинаковой длины b=ω/k. После того, как частичные интервалы выбраны,

определяют частоты -количество ni элементов выборки,

попавших в i-тый интервал (элемент, совпадающий c верхней границей интервала, относится к следующему интервалу ). В группированный статистический ряд в верхнюю cтроку

записываются середины xi интервалов группировки, а в нижний - частоты ni .

127

В зависимости от объема выборки число k интервалов группировки берется от 6 до 20. Наряду с частотами ni удобно

одновременно

подсчитывать

также

накопленные

i

 

 

 

 

 

 

частоты

nj

, относительные частоты и накопленные

j

1

 

 

 

 

 

 

 

i

 

 

 

 

относительные частоты

j

,

i 1, 2,..., k .

 

 

 

 

 

 

 

 

 

j

1

 

 

 

Полученные результаты сводятся в таблицу, называемую таблицей частот группированной выборки.

Следует отметить, что группировка выборки вносит погрешность в последующие вычисления, которая становится

тем больше, чем меньше выбирается число интервалов.

 

Пример. Время решений контрольной работы

студентами 2-го курса дается выборкой

 

 

 

 

38

60

41

51

33

42

45

21

53

60

68

52

47

46

49

49

10

57

54

59

79

47

28

48

58

32

42

58

61

30

61

35

47

72

41

45

44

55

30

40

67

65

39

48

43

60

54

42

59

50

 

Построить выборку в виде таблицы частот

группированной

выборки,

используя

7

интервалов

группировки.

 

 

 

 

 

 

 

 

 

 

Решение. Размах выборки 79-10=69. Длина интервала

b=69/7

10.

 

 

 

 

 

 

 

 

 

Инт.

 

[10-

[20-

[30-

[40-

[50-

[60-

[70-

 

 

 

 

20[

30[

40[

50[

6-[

70[

80[

 

 

 

 

 

 

 

 

xi

 

15

25

35

45

55

65

75

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ni

 

1

2

7

18

12

8

2

ni 50

 

ni

 

1

3

10

28

40

48

50

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

0,02

0,04

0,14

0,36

0,24

0,16

0,04

i

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

0,02

0,06

0,20

0,56

0,80

0,96

1,00

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

128

 

 

 

 

 

15.2. Графическое представление выборки

Для наглядности сгруппированные статистические ряды представляются графиками и диаграммами.

Полигоном частот группированной выборки называется ломаная с вершинами в точках ( xi , ni ), i=1, 2,...,k.

Полигоном относительных частот группированной выборки называется ломаная с вершинами в точках ( xi , i ).

Гистограммой частот группированной выборки называется ступенчатая фигура, составленная из прямоугольников, построенных на интервалах так, что

площадь каждого прямоугольника равна частоте ni , i=1, 2,...,k.

Отсюда следует, что площадь гистограммы частот равна объему выборки п. В том случае, когда длины всех интервалов

одинаковы

и

равны b,

высоты

прямоугольников

равны hi

ni / b , i=1, 2,...,k. Аналогично строится гистограмма

относительных

частот.

Площадь

гистограммы

относительных частот равна единице.

 

 

 

Полигоном

накопленных

частот

группированной

выборки

называется

ломаная

с

вершинами

в точках

i

 

 

 

 

 

 

( xi b / 2;

nj ).

 

 

 

 

 

 

j

1

 

 

 

 

 

 

Полигоном

относительных

накопленных

частот

(кумулятивной кривой, кумулятой) называется ломаная с

 

 

 

 

i

 

 

 

вершинами в точках ( xi

b / 2; (

nj ) / n ).

 

 

 

 

 

j

1

 

 

 

Замечание. Перечисленные графические представления аналогичным образом определяются и в случае негруппированной выборки.

Пример. Для выборки примера 2 построить гистограмму, полигон частот и кумулятивную кривую.

129

 

ni/10

 

 

 

 

 

 

 

 

 

1,8

 

 

 

 

 

 

 

 

 

1,6

 

 

 

 

 

 

 

 

Гисто-

1,4

 

 

 

 

 

 

 

 

1,2

 

 

 

 

 

 

 

 

грамма

 

 

 

 

 

 

 

 

1,0

 

 

 

 

 

 

 

 

 

0,8

 

 

 

 

 

 

 

 

 

0,6

 

 

 

 

 

 

 

 

 

0,4

 

 

 

 

 

 

 

 

 

0,2

 

 

 

 

 

 

 

xi

 

10

20

30

40

50

60

70

80

 

 

Полигон

Кумулята

15.3. Эмпирическая функция распределения (ЭФР)

Эмпирической функцией распределения СВ X называется функция F*(x), определяющая для каждого значения х относительную частоту события (Х<х) F*(x)=nx/n, где nx - число выборочных значений, меньших х, a n - объем выборки.

По значениям накопленных относительных частот ЭФР определяется следующим образом:

F x

ni / n .

xi

x

В отличие от ЭФР, функция распределения генеральной совокупности F(x)=P(X<х) называется теоретической функцией распределения (ТФР).

Отметим, что разница между ТФР и ЭФР состоит в том, что ТФР определяет вероятность события (Х<х), а ЭФР определяет относительную частоту этого же события.

ЭФР обладает всеми свойствами ТФР, то есть: 1) значения F*(х) принадлежат отрезку [0,1];

130