Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Теория вероятностей и математическая статистика _ учебн

.pdf
Скачиваний:
95
Добавлен:
18.01.2021
Размер:
1.94 Mб
Скачать

Середина

Q1

...

Qj

...

Qm

интервала

х1

s11

 

s1j

 

s1m

 

 

 

 

 

 

 

xi

si1

 

sij

 

sim

 

 

 

 

 

 

 

xn

sn1

 

snj

 

snm

Итого

N1

 

Nj

 

Nm

 

x1

 

x

j

 

x

m

где sij

 

– частота появления i-го наблюдения в j-й группе;

N

 

 

n

m

N

 

 

j

s

число наблюдений в j группе

j

N ;

 

 

 

 

 

ij

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

j 1

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

sijxi

 

 

 

 

 

x

j

 

 

i 1

 

 

 

– средняя j-й группы;

 

 

 

 

 

Nj

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

 

 

 

Nj

x

j

 

 

 

 

 

x

 

j 1

 

 

 

– общая средняя.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

Кроме средней арифметической также вычисляют модуи медиану. Мед и а н о й вариационногоряда называется значениепризнака,приходящегосянасерединуранжированногоряданаблюдений. На медиану невлияют изменения крайних членов вариационногоряда.Медианакакпоказательсреднегопредпочтительнеесреднейарифметическойдляряда,укоторогокрайниевариантыпосравнению с большими оказались чрезмерно большими или малыми. М о д о й вариационного ряда называется варианта, которой

соответствует наибольшая частота (модальный интервал). Особенность моды как показателя среднего заключается в том,

что она не изменяется при изменении крайних членов ряда, т. е. обладает устойчивостью к вариации признака.

109

Кроме средних величин для вариационного ряда рассчитывают ещепоказатели вариации.

Выборочная дисперсия и ее свойства

Дисперсией вариационногоряда называетсявеличина

 

 

n

 

 

 

 

n

 

 

 

 

 

ni(xi

x

)2

n

 

 

 

nixi2

 

 

 

DB

(x) 2(X)

i 1

mi(xi

 

x

)2

i 1

 

x

2,

N

N

 

 

i 1

 

 

 

 

 

 

где у нас по-прежнему xi i-я варианта, если признак Х – дискретный, и середина i-го интервала, если Х– непрерывный признак.

B(X) DB(X) – среднеквадратичное отклонениевариационногоряда.

Свойства выборочной дисперсии:

1.DB(CX) = C2DB(X).

2.DB(X ± C) = DB(X).

Понятие групповой, межгрупповой, внутригрупповой и общей дисперсии

Допустим, чтовсе значения признака Х разбиты на ряд групп:

Середина

Q1

...

Qj

...

Qm

интервала

х1

s11

 

s1j

 

s1m

 

 

 

 

 

 

 

xi

si1

 

sij

 

sim

 

 

 

 

 

 

 

xn

sn1

 

snj

 

snm

Итого

N1

 

Nj

 

Nm

 

x1

 

x

j

 

x

m

 

D1

 

Dj

 

Dm

где sij – частота появления i-го наблюдения в j-й группе;

110

N

 

 

n

 

m

N

 

 

j

s

– число наблюдений в j группе

 

j

N ;

 

 

 

ij

 

 

 

 

 

 

 

 

i 1

 

j 1

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

sijxi

 

 

 

 

x

j

 

 

i 1

 

– средняя j-й группы;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Nj

 

 

 

 

 

 

Dj sij (xi xj)2 –групповаядисперсия, характеризуетрас-

Nj

сеяниепризнака Хвнутри j-й группы;

 

m

 

 

 

Nj Dj

 

D

j

1

– среднеарифметическое групповых диспер-

 

 

ВГ

 

N

 

 

 

 

сий, взвешенных пообъемугруппы– внутригрупповаядисперсия;

 

 

 

m

 

 

 

 

 

 

 

 

 

Nj (

x

j

x

)2

 

 

 

D

 

 

j 1

 

 

 

 

 

– межгрупповая дисперсия, характери-

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

зует рассеяние групповых средних вокруг общей средней;

 

 

 

m n

 

 

 

 

 

 

 

 

 

 

si j (xi

x

)2

 

D

 

j 1 i 1

 

 

 

 

 

 

–общаядисперсия,характеризуетрас-

 

 

 

 

 

 

 

общ

 

 

 

N

 

 

 

 

сеяние всей совокупности вокруг общей средней.

Утверждение. Dобщ = DВГ + DМГ.

Длявариационногоряда рассчитываютначальныеи центральные моменты, частными случаями которых являются средняя арифметическая и дисперсия. В число таких показателей входят асимметрия и эксцесс.

111

6.4. Оценивание распределения случайных величин

Пустьимеетсянекотораяслучайнаявеличина (одномернаяили многомерная), распределение которой неизвестно или известно с точностью до некоторого параметра . Имеется некоторая реализация этой случайной величины X1, X2, …, XN (выборка). На основании имеющейся выборки мы должны оценить распределение случайной величины.

Длянахожденияоценкихарактеристикииспользуютдваподхода: 1.Если распределениеслучайнойвеличинынамизвестносточностью до некоторого параметра fX (x, ), то оценив по выборке значение этого параметра, мы получим оценку распределения.fX (x, ) fX (x, ). Такой подход называется параметричеcким.

П р и м е р ы

1) X~N (m; );

 

1

 

 

(x m)2

m

 

 

 

2

fx

(x)

 

 

 

e

 

, тогда

.

 

 

 

 

σ 2π

 

 

 

 

 

 

q

1

2)X~exp( ), ... –неизвестен.

 

 

 

3) X~bi(p);

 

k

 

 

p(x = k) = Cknpkqn – k = p. 4) X~ U(a;b);

 

1

a

fx

(x)

 

, .

b a

 

 

b

Таким образом, имеем fx (x, ), где – неизвестный параметр, и мы этот неизвестный параметр оцениваем, т. е. получаем оценку (приближенноезначение)этогопараметра, котороеназываем .Тогда имеем известную fX (x, ).

2. Непараметрический. Вид функции распределениянамнеизвестен. Тогда составималгоритм расчета значенияфункции в каждой точке.

112

Итак, работаем в рамках первого подхода. fX (x, ) знаем, но параметр не знаем.

1

... –векторнеизвестныхпараметров (изkнеизвестных).

k

Как оценить эти k параметров? Существуют различные виды статистического оценивания параметров.

Виды статистического оценивания параметров: 1. Точечное.

= (х1, х2, ..., хn).

Вообще говоря, , но мы надеемся, что . 2. Интервальное.

Строим интервал, который с заданной вероятностью покрывает истинное значение оцениваемого параметра.

Величину называют уровнем надежности (заданная вероятность накрытия интервалом), т. е. р( ( 1; 2)) = .

Точечное статистическое оценивание неизвестного параметра

1. Метод математических ожиданий/метод аналогий.

Выборочная средняя х xi нам известна. n

= Ех – неизвестная нам величина.

xi – оценка математического ожидания (нам известна). n

x2i – известная нам оценка, тогда как = ЕХ2 нам не- n

известна.

2. Метод моментов (метод Пирсона).

1

 

Пусть ...

– вектор неизвестных параметров.

 

 

k

 

113

n = EXm – начальный момент m порядка.

Ex g1 ( )

 

 

 

 

 

 

 

 

 

 

 

 

 

2

g2 ( )

 

 

 

 

 

 

 

 

 

 

 

Ex

 

 

– система условий на момент распределения.

...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Exm

m

( )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

g ( )

 

 

 

 

 

 

 

 

 

х

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

1

 

 

 

 

 

 

 

 

 

 

 

xi2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g2( )

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

gm( )

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

П р и м е р ы

 

 

 

 

 

 

 

 

 

 

1)Пусть X~ U(0; ).

 

 

 

 

 

 

 

 

 

Методом моментов найдем оценку параметров .

 

 

 

 

 

 

 

 

 

 

θ

 

 

θ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ex

2

;

х

2

=> θMM = 2х.

Заметим, что сколько неизвестных параметров, столько моментов мы используем.

2)ПустьX~exp( ), = .

11 1

Тогда Ex ; х х .

3)Пусть X~ N (m; ); m2 .

Ex m, Ex2 m2 2 , таккак var(X)= E(X –EX)2 = EX2 –(EX)2;

2 Ex2 (Ex )2 Ex2 2 (Ex )2 2 m2;

х m, х m;

xi Ci ( ) i 1, n;

114

 

 

xi2

2

 

2

 

 

 

 

 

 

n

m

;

 

 

 

 

 

 

xi2

 

2

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

x ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

(xi

х

)2

 

xi2

 

 

 

dX

 

 

 

n

 

 

 

 

 

n

х.

 

 

 

 

 

 

 

 

 

 

 

 

3. Метод минимальных расстояний. xi сопоставим с Ci( ) – функция цели.

Рассмотрим xi Ci ( ) i 1, n;

n

C( ) | xi Ci ( )| – метод наименьших модулей;

i1 n

C( ) (xi Ci ( )2 )– метод наименьших квадратов (МНК).

i 1

MD argminC( ).

П р и м е р Неизвестныйпараметр –математическое ожидание, т. е. = ЕХ.

Сi( = ЕХ= ;

n

МНК: (xi )2 min.

i 1

Находим необходимое условие существования экстремума:

С =

C

2

 

(xi ) ;

 

 

 

 

 

 

 

ˆ .

4. Методмаксимальногоправдоподобия(MaximumLikelihood). Этот метод среди всех возможных параметров выбирает тот, для которого вероятность получить данную выборку максимальна. Основуметода максимальногоправдоподобия(ML)составляет

функцияправдоподобия.

L( ) fX1, X2 , ..., Xn )(x1,x2 ,..., xn , ) fxi (xi , );

115

L( ) max;ML = arg max L( ).

П р и м е р

X

–1

0

1

р

 

1,2 – 2

– 0,2

Необходимонайти .

Выборка х1 = 0;х2 =0 независима.

L( )= p((x1 = 0)(x2 = 1))=p(x1 = 0) p(x2=1)= =(1,2–2 )( –0,2) max.

Необходимые условия экстремума таковы:

L =1,2 –2 2 +0,4 –0,24 =0;

1,6–4 =0 ML =0,4;

L =– 4< 0

ML

=0,4.

 

 

Таким образом, получилиоценкуметодом максимальногоправдоподобия, а теперь применим метод моментов (ММ):

EX=– + –0,2=–0,2;

EX2 = + –0,2 =2 –0,2;

 

xi2

2 0,2;

 

 

n

 

 

xi2

 

 

 

 

MM

 

0,1;

 

 

 

 

 

2n

 

02

12

n 2 MM

 

 

 

 

0,1 0,25 0,1 0,35.

 

4

 

 

 

 

 

 

Оценки неизвестного параметра методом максимального правдоподобия и методом моментов оказались разные.

Нахождение оценки n упрощается, если максимизировать не саму функцию L, а lnL, поскольку максимум обеих функций достигается при одном и том же значении .

N

L( ) fX1, X2 ,..., XN x1,..., xN , f xi, ;

i 1

116

L( ) max;ML = arg max L( ).

 

Необходимое условие: L ( ) = 0.

 

 

 

n

 

Рассмотрим l( ) lnL( ) ln fx(xi, );

 

 

 

i 1

 

 

 

ML = arg max l( ),

l =

 

l( )

0, а затем надо отобрать то решение, которое обращает

 

 

 

 

 

функцию lnL в max, т. е. воспользоваться достаточным условием существования экстремума (матрица Гессе).

П р и м е р Найти оценкуметодом максимального правдоподобия.

 

 

m

 

 

 

1

 

 

 

 

(x m)2

 

 

2

 

 

 

 

 

 

2 2

 

 

 

 

 

 

 

 

x N(m,

 

);

 

2

; fx

(x)

 

 

 

 

 

e

;

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

2

 

 

 

1

 

 

 

 

 

 

 

 

 

 

(x m)2

 

 

 

 

 

ln f

x

(x)

 

 

 

ln

 

 

 

 

 

 

 

ln(2 )

 

 

 

;

 

 

 

 

 

 

 

 

 

2

 

 

2 2

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

2

 

 

n

 

 

 

 

 

 

(xi

m)

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

l( ) ln fxi

(xi , )

 

 

 

 

ln

 

 

 

 

 

ln(2 )

 

2

2

;

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

l

 

2

(xi

m)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 2

 

 

0;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

l 2

 

 

 

 

 

 

 

m

 

 

 

(xi

m)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0;

 

 

 

 

 

 

 

 

 

2 2

 

 

 

 

 

2 4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

(xi

 

 

х

)2

 

 

 

 

n 2

 

(xi

х

)2

;

 

 

 

 

 

 

 

2 4

 

 

 

 

 

 

 

 

 

 

 

2 4

 

 

 

 

 

2 2

 

 

 

 

 

 

 

 

2 4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n 2

 

 

 

(xi

 

)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 4

 

 

 

 

2 4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

(xi

 

 

)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ML

 

 

 

 

 

 

 

 

 

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

117

 

 

 

 

 

 

 

 

 

(xi

m) 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

nm 0

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m ML

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

l

 

n

 

0; l 2

 

2

 

n

 

2 (xi m)2

;

 

 

 

 

 

2

 

2 4

2 6

 

 

 

 

 

mm

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(xi

m)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x)

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

 

lm 2

 

 

 

 

0, так как (xi m) (xi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

x

xi

nx

xi xi 0.

 

 

 

Проверим знакоопределенность матрицы Гессе:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(xi

 

 

 

 

 

 

 

 

 

l 2

 

2

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

x)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(xi x)2

 

 

 

 

 

 

 

)2 3

 

 

 

 

 

 

 

 

 

 

 

 

(xi

 

x

 

 

 

 

 

 

 

 

 

 

 

2

 

 

n

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n3

 

 

 

 

 

 

 

 

n3

 

 

 

 

 

 

 

 

 

n3

 

 

 

0;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2( (xi x)2 )2

 

 

( (xi

x)2)2

 

2( (xi x)2)2

 

 

 

n

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

– матрица Гессе.

 

 

 

 

 

 

 

 

 

 

 

n

3

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( (xi х)

 

)

 

 

 

 

 

 

 

 

 

 

 

Значит, действительно, найденная точка является точкой максимума и полученная оценка является оценкой максимального правдоподобия.

6.5. Свойства статистических оценок

Свойства статистических оценок различают на больших и конечных выборках.

118