Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Shpora_2_1

.pdf
Скачиваний:
10
Добавлен:
10.05.2015
Размер:
1.1 Mб
Скачать
( Cnk

1.Основное правило комбинаторики.

Комбинаторика-наука о конечных множествах, занимается подсчетом числа всех возможных способов расположения эл-тов конечного множ-ва. Основное правило– умнож.

n!-произведение первых n чисел натурального ряда. Сочетания-произвольное К элементное подмножество n элементного множества наз. сочетанием из n элем-тов по k.

n! )

k!(n k)!

Различные упорядоченные мн-ва, кот. отличаются лишь порядком эл-тов, т.е. полученные из того же множества наз перестанов ками

( P

n!)n-кол-во

n

 

 

перестановок.

 

Упорядоточенное

К

элементноеное

подмножество,

множ-во состоящее из n эл-тов наз.

размещением.

 

 

 

 

 

 

 

 

A

k

C

k

K!

 

 

 

 

n!

 

 

n

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

(n k)!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Бином Ньютона C k

-коэф.

(a b)

 

 

a

 

c

a

 

 

b

n

 

 

 

 

n 1

 

 

 

 

 

 

 

n

 

 

 

 

n

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

2

a

n 2

b

2

 

... c

n k

a

n k

b

k

 

c

 

 

 

 

n

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

... b

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a, b R, n N ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

n k

 

 

 

 

 

 

(a b)

n

 

 

 

 

 

k

 

b

k

 

 

 

 

 

Cn a

 

 

 

 

 

 

C

 

 

C

 

 

 

k 0

 

 

 

 

 

 

 

 

 

 

0

n

 

1

 

 

 

 

 

 

 

 

 

 

C

n

C

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

n

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

C

n

n

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2. Классификация событий.

1)Случайное событие – может либо произойти, либо нет.(Об. А,В,С)

2)Достоверные события – обязательно произойдет при определенном комплексе условий.

3)Невозможное событие – событие которое никогда не произойдет

4)Несовместные события – такие события А и В, появление одного исключает появление другого.

5)Равновозможные – одно из них не является более возможным. 6)Единственно возможное событие – из нескольких событий обязательно должно произойти хотя бы одно из них(больше/равно 1)

Полную группу событий образуют несовместные и единственно возможные события (=1 и только одно событие)

Противоположные события

два несовместных события из которых 1 обязательно произойдет.

3. Классическое определение вероятности

Вероятность случ. соб. – это численная мера объективной возможности его наступления.

Класс.Опр.Вер.: Пусть мн-во

содержит

 

конечное

число

исходов

 

и

все

они

равновозможны.

 

 

,...,

n

 

 

 

1

 

 

 

Вероятностью

случайного

события (А(Р(А)),

наз. число m ,

n

т.е. отношение числа исходов, благоприятствующих появлению

события

А

к

числу

равновозможных исходов.

Св-ва:

 

 

 

 

1)Для

 

любого

случайного

события

A ,

P( A) 0

 

 

 

 

 

m n

 

2) Для

достоверного

события

вероятность его появления =1

P( )

n

1

 

 

 

n

 

 

 

 

 

 

 

 

3) Если случайное соб. А и В несовместны(нет общих исходов,

то

AB )

Вероятность

суммы

этих

 

 

 

 

 

 

 

 

событий

P( A B) =P(A)+P(B)

 

P( A B)

m

a

m

b

 

m

a

 

 

 

 

 

 

 

n

 

 

 

n

 

 

m

b

P( A) P(B)

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m благоприятствует А и В

 

Недостатки классики:

 

-

 

 

имеет

 

конечное

число

исходов

 

 

 

 

 

 

 

 

 

- условия равновозмож-

 

ностей исходов

 

 

 

 

C

m

 

n(n 1)

 

 

 

 

 

 

 

 

 

n

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4. Аксиоматическое, статистическое, геометрическое определение.

Статистическое:

Частота события А – это отношение числа опытов в которых наблюдалось событие А к общему числу опытов

r( A)

n

A ; P(A)~=r(A)

 

n

 

 

 

 

 

P( A) lim

n

A В кач-ве вероятн.

 

n

 

 

n

соб. А приним.

предел частоты соб. А при неограниченном увеличении числа опытов.

Недостатки:

- невозм. повт. опыт. беск. число раз - заранее (до опыта) ничего

нельзя сказать о вероятности события

Геометрическое:

Геометр. вероятн. соб. А наз. отношение меры области благоприятствующей появлению события А к мере всей области.

*Вероятность попадания точки на отрезок l определяется равенством: P=Длина l/Длина L. *Вероятность попадания точки в

фигуру

g

определяется

равенством:

P=площадь

g/площадь G.

 

Аксиоматическое:

 

Полем

событий(W( )) наз.

совокупность таких подмножеств

, удовлетворяющих след. условиям:

1)

W ( )

2)

А и В произвольные эл-ты из

W( ) ,

__

__

A W ( ), B W ( )

 

 

AB W ( ), A B W ( )

Вероятность

произвольного

события А принадл.

W( ) наз.

любая

функция

P(A)

со

значениями

в

множестве

действительных чисел R и удовл.

3-м аксиомам:

 

 

-

P( A) 0

 

 

-

P( ) 1

 

 

- если АВ=

, то

 

P(A B) P(A) P(B)

5. Действия над событиями. Венн.

При

общем

определении

вероятности

используется

пространство

элементарных

событий, при этом элементарные

события

являются

неопределяемым

понятием, но

относительно

них

предполагается, что в результате

испытаний

 

обязательно

происходит

одно

из

этих

элементарных

 

событий.

Элементарные

события попарно

не совместны и образуют группу

событий.

События,

не

являющиеся

элементарными,

отождествляются

с

теми

элементарными

событиями,

которые

благоприятствуют

ему,

следовательно,

случайные

события

можно

рассматривать

как подмножество в пространстве элементарных событий, поэтому

операции

над

случайными

событиями:

 

объединение

(сложение),

 

пересечение

(умножение), эквивалентность,

отрицание

полностью

совпадают с

соответствующими

операциями

над

множествами.

Операции

объединения

и

пересечения

 

множеств

симметричны, т.е.

 

 

A

 

B

 

=

B

 

A

 

 

 

 

A

B = B

A

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

АВ

 

 

 

 

 

 

 

 

 

 

 

 

 

Диаграмма Венна

6. Теорема сложения вероятностей.

Для 2-х произвольных событий А и В вероятность появления хотя бы одного из них = сумме их вероятностей минус вероятность совместного появления этих событий.

( Пусть есть 2 события А и В, тогда вероятность сумм этих событий равна)

P( A B) P( A) P(B) P( AB)

АВ

Диаграмма Венна

Например, для трех совместных событий Р(А+В+С)=Р(А)+Р(В)+Р(С)-

Р(АВ)-Р(АС)-Р(ВС)+Р(АВС).

7. Условная вероятность.

8. Незав. соб., Несовм.

Теорема умножения.

соб.,Полная группа соб.

Условной вероятностью события

 

А при условии, что событие В

 

произошло Например, для трех

 

совместных

событий

 

Р(А+В+С)=Р(А)+Р(В)+Р(С)-

 

Р(АВ)-Р(АС)-Р(ВС)+Р(АВС).

 

P B | A

P( AB)

 

 

P( A)

 

 

 

 

 

Случайное событие наз. независимым, если условная вероятность соб. А при условии В совпадает с безусловной вер. соб. А.

P(A|B)=P(A)

P(B|A)=P(B)

Теорема умножения

Для произвольных соб. А и В вероятность их произведения равна произведению условной вероятности одного из событий при условии В.

P(AB)=P(A|B)P(B)=P(B|A)P(A)

Если события А и В независимы, то Р(АВ)=Р(А)Р(В)

9. Формула полной вероятности.

Пусть А может произойти с одним из событий Н1, Н2, …, Нn. (А и Н образуют полную группу событий)

Вероятность события А, которое может наступить лишь при появлении одного из несовместных событий (гипотез) Н1,Н2,…,Нn , образующих полную группу, равна сумме произведений вероятностей каждой из гипотез на соответствующую условную вероятность события А:

P( A) P(H

)P( A | H

)

 

 

1

 

 

1

 

P(H

2

)P( A | H

2

) ...

 

P(H

n

)P( A | H

n

)

 

n

 

 

 

 

 

 

P(H i )P( A |

H i )

 

i 1

 

 

 

 

 

 

Д-во:

 

 

 

 

Н1+Н2+…+Нn=

А=А =А(Н1+Н2+…+Н3)

А=АН1+АН2+…+АНn

Р(А)=Р(АН1)+Р(АН2)+…+

Р(АНn)

P( A) P(H

)P( A | H

)

 

 

1

 

 

1

 

P(H

2

)P( A | H

2

) ...

 

P(H

n

)P( A | H

n

)

 

n

 

 

 

 

 

 

P(H i )P( A |

H i )

 

i 1

 

 

 

 

 

 

10. Формула Байеса.

P(H

i|

|

A)

 

P(H

)P( A | H

)

 

 

i

i

 

n

 

 

 

 

P(H i )P( A | H i )

i 1

 

 

 

 

Р(Нi|A)-апостериорные вероятности

Р(Нi)- априорные вероятности

11. Повт. испыт. Ф-ла Бернулли.

Повт. испыт. – это последовательно проведенные n- раз одинаковые опыты или одновременно проведенные n одинаковых опытов.

Биноминальная схема испыт.-

последовательность

испытаний

отвечающих

 

следующим

условиям:

 

 

- при

каждом

испытании

возможны лишь 2 исхода

 

__

 

 

А-успех,

A

-неуд.

 

 

 

 

- испытания явл. независимыми , т.е. вер. успеха в К-м испытании не зависит от исхода любого i-го испытания при i меньше К

-вер. усп. в люб. испыт. постоянна.

Ф-ла Бернулли:

Если вер. Р в каждом испытании постоянна, то вер. того, что

событ.

A K

 

n

наступит К раз в n испытаниях

Pn (K) Cnk Pk qn k

Док-во:

Аn(К)-соб. (в n незав. испыт. ровно К раз)

К=0,1,…,n

P

k

q

n k

-вер. появления суммы

 

 

вер. из таких событий Аn(4) – сумма 4-х событий

Кол-во исходов C k (состоит из 4-

 

 

 

 

 

n

х таких событий)

 

P (K) C

k

P

k

q

n k

n

 

 

n

 

 

 

 

12. Случайные величины Типы.

Случайной наз. величина кот. в результате испытания принимает одно и только одно возможное значение наперед известное и зависящее от случ. причин кот. заранее не могут быть учтены.

Случ. величина Х – это числовая ф-ция, заданная на пространстве

элемент. событий ТИПЫ

1)Непрерывные

2)Дискретные:

-принимают 1 из множества различных значений с вер. появления какого-либо одного значения больше 0.

х1,х2,…,хn

Р(хi)>0 i=1,2,3

13. Закон распр. вероятн. Д.С.В. Многоуг. Распр. xi, i=1,…,n, P(X=xi)

Законом распр. дискр. случ. величины наз. соответствие между возможными значениями и их вероятностями.

Способы задания: 1)Табличный:

х

х1

х2

хi

хn

 

 

 

 

 

P

P1

P2

Pi

Pn

 

 

 

 

 

Х=хi

X=xj i,j= 1,…,n i j

2) Формула бином. распр.

P (K) C

k

k

q

n k

n

P

 

n

 

 

 

3)Графический(многоуг)

(xi;pi)

Р

x

14. Гипергеометрическое распределение

Дано N деталей, бракованные n, выбрали M

Найти вер. того, что среди выбр. дет. М, m- брак.

n N , M N, n=0,1,…,min

стандартн. детали. N-n, M-m X-кол-во брак. дет. среди М выбр.

 

C

m

C

M m

P(x m)

n

N n

 

 

 

 

C

M

 

 

 

 

N

 

 

 

 

15. Геометрическое распределение

Испытания проводят до первого появления события А Х-кол-во провед. испыт.

х-1,2,3,…,к,…

Р(х=к)= q

k 1

P -геометрическая

 

прогр.

 

 

16. Биноминальное распределение.

Формула бином. распр.

P (K) C

k

k

q

n k

n

P

 

n

 

 

 

х-кол-во появлений событий А в n испытаниях

х-1,2,3,…,к,…n

17. Распределение Пуассона.

P (K) C

k

k

q

n k

n

P

 

n

 

 

 

Когда n велико, Р мала ,а

произведение np= const

lim Cnk Pk q n k

k e

k!

n

np p 0

P( X K ) k e k!

,где К не более 5 Х- кол-во появлений успехов К=0,1,2,3,..

18. Математические операции над случайными величинами

Две случайные величины наз. независимыми, если закон распределения одной из них не меняется от того какие возможные значения приняла другая величина.

Х

Х1

Х2

Хn

 

 

 

 

 

Y

Y1

Y2

Yn

 

 

 

 

 

Если Х и Y независ., то Х=хi, i=1,n

Y=yj, j=1,…,m

1)Случ. величена Кх=кх, i=1,…,n

2)x k наз. случ. велич. xik ,

i=1,…,n , с вероятн. pi

3)Суммой (разностью/произведением) случайных величин Х и Y наз. случ. величину Z (Z=X+Y)((Z=X-Y;Z=XY)),

кот. принимает все значения

Zj=Xi+Yj

i=1,…,n

j=1,…,m

Pij=P(X=xi;Y=yj)

Если X и Y независ., то Pij=PiPj

19. Математич. ожидание Д.С.В. Св-ва.

Математическое ожидание дискретной случайной величины Х, наз. сумму произведений всех ее возможных значений на их вероятности.

M ( X ) X

1

P X

2

P ...

 

 

 

 

1

2

 

 

 

n

 

 

 

 

X

P

 

 

X P

 

 

 

n n

 

 

i i

 

 

 

 

 

i 1

 

 

 

 

Св-ва:

1)М(С)=С

М(С)=С*1=С

2)М(КХ)=КМ(Х)

М(КХ)= n KX i Pi

 

 

i 1

 

 

 

n

 

i

i

 

K

 

 

 

 

X

P

 

i 1

 

 

 

 

KM (X )

 

 

 

3) М(Х) алгебраической суммы конечного числа случайной величины = алгебраической сумме их мат. ожиданий

М(Х

Y ) =М(Х)

 

 

 

 

 

n

 

m

 

M ( X Y ) ( X

 

 

 

 

 

i 1

j 1

 

i

 

 

n

 

 

m

 

 

 

 

 

 

 

 

P

 

Xi

 

 

Pij

 

 

 

 

i 1

 

 

j 1

 

 

m

 

Y ;

 

 

 

 

 

n

 

 

 

 

 

 

 

Pij

 

 

 

 

 

 

j 1

 

 

 

i 1

 

 

 

nm

X i Pi Yj Pj

i 1

j 1

 

i

 

 

 

М(Y)

Y

)

j

 

M (X ) M (Y )

4)Мат.ожид. произведения конечного числа независимых

случ. величин равно произведению их мат. ожиданий.

M ( XY ) M ( X )M (Y )

Pij PiPj __ X ;Y независ.

 

n

m

 

M ( XY ) XiYjPij

 

i 1

j 1

=M(Х)М(Y)

n

m

 

XiPi YjPj

 

i 1

j 1

 

 

5)Если все значения случайной величины изменить на пост. вел. С, то на эту же величину изменится и М`(X)

М(Х+С)=М(Х)+С М(Х+С)=М(Х)+М(С)= =М(Х)+С

6)М(Х-М(Х))=М(Х)-М(Х)=0

20. Дисперсия Д.С.В. Свойства.

Д(Х)=М(Х-М(Х))

2

 

Дисперсией случайной величины

Х наз. мат. ожидание квадрата её отклонения от математического ожидания.

Д(Х)=

n

 

 

 

( Xi M ( X ))

2

Pi

 

 

 

 

 

i 1

 

 

 

 

x

 

D( X ) -

 

 

 

 

 

 

 

среднеквадратическое

 

 

отклонение

 

 

Дисп.

 

и

отклонение

положительные величины.

Свойства: 1)Дисп.пост.величины=0

D(C) M (C C)

2

 

 

M (0)

2

0

 

 

 

 

 

2)Пост. множ-во можно вынести за дисп.путем возведения его в квадрат.

2

D( X )

D(KX ) K

3)Упрощенная ф-ла вычисления дисперсии:

2

2

(X )

D(X ) M (X

) M

4)Дисперс. алгебраической суммы конечного числа независимых случ. величин = сумме их дисперсий.

D(X Y ) D(X ) D(Y )

21. Ф-ция распределения вероятностей одномерной случ. велич. Св-ва. Геометрич. интерпр.

Ф-цией распределения случ. величины Х, наз ф-ция F(x), выражающая для каждого х вероятность того, что Х примет значение х.

F

( X ) P(X x)

x

 

Закон распределения дискретной случайной величины.

Х

1

3

4

 

 

 

 

Р

0.1

0.6

0.6

 

 

 

 

Св-ва:

 

 

1)

Ф-ция

распределения

неотрицательна

 

0 F(X ) 1

 

2) Ф-ция распр. случ. величины

неубывающая на всей числовой оси

Если Х2>X1, то F(X2)

F(X1)

3) Вероятн. попадания случ. величины в интервал [X1;X2) равна приращению её ф-ции распределения на этом интервале.

P( X1 X X 2 )

F ( X 2 ) F ( X1 ) [ X1 ; X 2 )

4)

F( ) 0 ,

т.к. это

вероятность

невозможного

события (Х<- )

 

F(+ )=1

т.к.

(X<+ )-

достоверное событие.

 

Случайную величину Х наз.

непрерывной, если её ф-ция распределения непрерывна в любой точке и дифференцируема всюду кроме, быть может отдельных точек.

Т: Вероятность любого отдельно

взятого значения

непрерывной

случайной величины равна 0.

Док-во:

 

P( X x ) lim P(x1 x x2)

1

 

x

x1

2

lim (F(x2) F(x1))

x2 x1

lim F(x2) F(x1) 0

x1x2

22. Ф-ция плотности распределения. Геометрическая интерпр.

Ф-цией плотности распределения (f(x)) непрерывной случайной величины Х, наз. производная её ф-ции распределения.

[x, x+ x]

P(x<X<x+ x) =F(x+ x) ---

F(x)

lim

P(x X x x)

 

x

x 0

 

lim

F (x x) F (x)

 

x

 

 

x 0

 

 

 

F (x)

 

 

 

Свойства:

 

 

 

1)

f (x) 0

,

неотрицат.

производная

 

монотонной

неубывающей ф-ции.

 

 

2) Р(а x b) F(b) F(a)

b

f (x)dx

a

f(x)

x

a b

F(x)

F(b)

F(a)

 

a

b

 

 

 

 

 

 

 

x

 

3)

F ( X )

 

f (x)dx

 

 

 

 

 

X

F(x)=P(X<x)

4)

 

 

 

 

f (x)dx 1

 

 

 

 

 

 

 

x

-достоверное

событие

23. Начальные и центральные теоретические моменты. Асимметрия и эксцесс.

Начальным

моментом

k-го

порядка,

 

который обозначается

как

 

k

,

 

наз. математическое

 

 

 

 

 

 

 

ожидание

 

k-ой

степени

случайной величины:

 

 

 

MX

k

, _ k 1,2,...

 

k

 

 

 

 

 

 

 

 

 

Центральным моментом k-го

порядка,

который

обозначается

как

 

k

,

называется

 

 

 

 

математическое ожидание k-й степени отклонения случайной величины от своего математического ожидания:

 

 

M (X MX )

k

k

 

Ассиметрия:

 

ˆ

 

 

 

3

 

 

 

 

A

 

 

 

 

 

s

 

S

 

 

 

 

 

 

3

 

 

 

 

 

 

Эксцесс:

 

ˆ

 

ˆ

4

 

 

 

 

 

Ex

S

 

 

 

 

 

4

 

 

 

 

 

 

 

24. Мода, медиана, квантили распределения

Модой случайной величины Х наз. её наиболее вероятное значение. В дискретном случае – это такое значение Хi, возможность принять которое является наименьшей (Pi=max)

В непрерывном случае – это значение в кот. ф-ция плотности достигает max.

Медианой случ. величины Х наз. такое её значение для которого выполняется Р(Х<Xme)=P(X>Xme)=1/2 F(Xme)=1/2

(Середина графика)

Квантилью уровня Р непрерывной случайной величины Х наз. такое значение Хр при котором её ф-ция распределения F(x) принимает значение равное Р Хр – критическая точка, процентная точка.

25. Равномерное распределение.

Равномерное (прямоугольное) распределение.

Если

 

1

, приX a, b

f(x)=

a

b

 

 

 

 

0, приX a, b

 

 

 

26. Нормальное распределение.

f (x)

1

2П

 

2

Нормированное

распределение

m=0

x~N(0,1) ; 1

 

1

x

(x)

e

 

 

2П

 

 

 

Лапласа-четная,

Ф(х)=Р(Х<х)

e

с

t 2

2

( x m)

2

 

2

2

 

 

 

нормальное

параметрами

dt

-ф-ция

 

27. Показательное распределение

f (x) e

x

, x 0,

0

 

 

 

 

 

 

 

 

 

 

 

 

 

Правило 3-х сигм: Практически достоверно, что все значения норм. распр. случ. величины заключены в интервале

(m 3 ; m 3 )

28. Неравенство Чебышева.

Если известна дисперсия С.В., то с ее помощью можно оценить вероятность отклонения этой величины на заданное значение от своего мат. ожидания, причем оценка вероятности отклонения зависит лишь от дисперсии.

Соответствующую

оценку

вероятности

дает неравенство

Чебышева.

Неравенство

Чебышева

является

частным

случаем

более

общего

неравенства,

позволяющего

оценить вероятность

события,

состоящего в

том,

что С.В. Х

превзойдет

по

модулю

произвольное число

>0.

Оно справедливо для любых С.В., имеющих дисперсию; оценка вероятности в нем не зависит от закона распределения С.В. Х.

DX – неравенство Чебышева.

 

 

2

- оценка

 

 

P(| X M (x) | )

 

 

 

 

 

 

 

2

 

 

сверху

 

 

 

 

 

 

 

 

 

 

 

2

-

P(| X M (x) | ) 1

 

 

 

 

 

 

2

 

оценка снизу

29. Закон больших чисел.

ффЛемма:

Пусть

Хi

взаимонезависим.

случайные

величины i=1,…,n, с одной и той

же дисперсией

Д (xi)

2

 

и мат. ожиданием M(x)=m

 

 

1

 

n

 

, тогда

 

x

 

 

 

n

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

M ( X ) m

 

 

 

 

 

 

 

2

 

 

 

D( X )

 

 

 

 

n

 

 

 

 

 

 

 

 

 

Из Леммы следует:

-Мат. ожидание среднего арифм. и значение случайной величины независят от числа опытов

-Дисперсия среднего арифм. в n раз меньше дисперсии каждой из этих случайных величин, зависит

от числа опытов

30. Теорема Бернулли

Пусть производится n независимых опытов, в каждом из

которых

событие

А

может

появляться

с

вероятностью

Р(А)=Р.

 

Тогда

при

неограниченном

количестве

опытов

частота

сходится по

вероятности

к

вероятности

события А (

ˆ

 

 

p -частота события

А)

 

 

 

 

ˆ

 

 

 

 

p -сходится к- р.

 

 

P(| pˆ p | E) 1

 

т.е. показана связь между частотой и вероятностью события.

Теорема утверждает, что вероятность больших отклонений частоты случайного события от

его вероятности стремится к 0

при

n .

 

 

Доказательство:

 

 

 

 

 

1, если _ в _ i ом _

x

 

 

 

 

 

 

 

i

 

испытании _ А;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0, в _ противн. _ случае

 

 

 

 

 

 

 

 

i=1,…,n

 

 

 

 

 

Xi

 

 

 

0

 

 

1

 

 

 

 

 

 

 

 

 

 

 

P

 

 

 

 

1-P

 

 

P

 

 

 

 

M(Xi)=P, i=1,…,n

 

 

ˆ

 

 

 

 

 

n

 

 

p

=m/n

m=

xi

,

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

ˆ

xi

 

 

тогда

= i 1

 

 

 

p

x

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

ˆ

=

X

, M ( pˆ ) M (X ) p

p

31. Центральная предельная теорема

(количественная форма закона больших чисел)

Т-№1: Если х1,…,хn независимые случайные величины имеющие один и тот же закон распределения с мат. ожиданием

равным

 

2

,

то

при

 

неограниченном увеличении n закон распределения n равен сумме неограниченно приближенной к нормальному.

M (xi ) m; _ D(xi ) 2 то _ при _ i 1,..., n,

n

при _ n _ Yn xi

i 1

Т-№2: Начало тоже, тогда при

n

функция распределения

F

 

(x)

стремится к функции

x

 

 

 

n

 

 

распределения стандарт. Ф(х), при любом Х.

P(x

 

x), _ г де

 

 

n

 

 

 

 

 

 

1

(x

... x

 

) m

 

 

 

 

 

n

 

 

 

 

n

1

 

 

x

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

x m

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

M (x) m, _ D(x)

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D(x)

 

 

 

 

 

 

x

n

 

 

 

 

 

 

 

 

 

 

 

 

 

F

 

(x) P(x

 

x)

 

 

 

n

 

 

 

x

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

z

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

x

2

 

 

 

 

 

 

 

 

e

 

 

Ф(x)

2П

 

 

 

dz

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

32. Интегральная теор. Лапласа.

Т: Если вероятность наступления события А в каждом испытании постоянна и равна Р (0<p<1), то вероятность того, что событие А в n независимых испытаниях появится от К1 до К2 раз при больших N приближенно равна определенному интегралу, где пределы интегрирования записаны

x

 

K

1

np

 

 

1

 

 

 

npq

 

 

 

 

Knp

x2 2npq

 

 

 

 

 

 

 

 

 

 

x

2

z

2

 

 

 

 

 

 

 

 

 

 

1

 

 

P (K

, K

2

)

 

 

 

e 2

 

 

n

1

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

Pn(K

, K

2

)

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

P (K

1

K K

2

)

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

(

K

2

np

) (

K

1

np

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

npq

 

 

 

 

 

npq

 

33. Основные

понятия

математической

 

статистики.

 

Генеральной

совокупностью

называется

 

 

множество

результатов

 

всех

мыслимых

наблюдений

 

над

значениями

одного

или

нескольких

признаков, которые могли бы быть произведены при данном реальном комплексе условий. Часть объектов генеральной совокупности называется выборкой. Значения признака Х, измеренные на n объектах, называются выборкой объема n и обозначаются:

X : x , x

,..., x

1

2

n

 

Основные задачи математической стат:

-оценка параметров; -проверка статистических

гипотез. В основе статистических выводов о свойствах генеральной совокупности лежит выборочный метод. Сущность его состоит в том, что выводы распространяются на всю генеральную совокупность Выборка должна быть репрезентативной (представительной), то есть она должна давать обоснованное представление о генеральной совокупности. Репрезентативность обеспечивается случайностью отбора элементов выборки.

Вариационный ряд- это такая последовательность выборки в которой эл-ты упорядочены по возрастанию.

ni-частота i-го появляемого значения.

Wi-относительная частота

Wi=ni/n

34. Вариационные ряды

Пусть дана выборка наблюдений объема n

X : x , x

,..., x

1

2

n

 

Вариационным рядом выборки называется такая последовательность наблюдений

x

,

в

которой

элементы

 

 

 

 

i

 

 

 

 

упорядочиваются

по

возрастанию.

Число

 

n

,

 

 

 

i

 

показывающее,

сколько

 

раз

встречается значение

z

 

в

 

 

i

 

 

 

 

 

выборке, называется частотой i-го значения признака. Дискретным вариационным рядом называют расположенные в возрастающем порядке значения признака, указанные вместе с соответствующими частотами. Дискретный вариационный ряд представляют в виде таблицы.

Значение

Количество

Признака

наблюдений

 

 

 

z1

n1

 

. . .

. . .

 

zi

ni

 

. . .

. . .

 

zk

nk

 

 

 

 

Всего

n

 

 

 

Wi-относительная частота

Wi=ni/n

Интервальным вариационным рядом называют расположенные в возрастающем порядке границы интервалов группирования, указанные с соответствующими частотами.

 

 

Граница

 

 

Серед

Кол-во

 

 

Интерва

 

 

интерв

наблю

 

 

ла

 

 

 

 

д

 

 

 

 

 

 

 

 

 

c0 - c1

 

 

z1

n1

 

 

c1 – c2

 

 

z2

n2

 

 

. . .

 

 

 

. . .

. . .

 

 

ci-1 - ci

 

 

zi

ni

 

 

. . .

 

 

 

. . .

. . .

 

 

ck-1 - ck

 

 

zk

nk

 

 

 

 

 

 

 

 

 

Всего

 

 

 

n

 

 

 

 

 

 

Середина:

Zi

Ci 1 Ci

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

Накопленная

 

частота:

 

 

н

 

i

 

 

 

 

n

n

j

 

 

 

 

 

 

i

 

j 1

 

 

 

 

 

 

 

 

 

 

Относит. накопл. част.: wiн niн

n

35. Основные выборочные числовые характеристики-это приближенные значения соответствующих числовых характеристик генеральной совокупности определяемые по выборочным значениям х1,…,хn ДВР: Zi-i-ое наблюд. знач. ni-кол-во набл zi ИВР:Zi-середина i-го интервала группирования

ˆ

 

-Выборочная мода – это

X

Mo

 

 

такое значение признака которое наблюдается с большей частотой.

ˆ -Выборочная медиана-это

X Me

серединное значение вариационного ряда.

36. Начальные и центральные моменты Вариац. Ряда.

Центральный

момент

m-го

порядка:

 

 

 

 

 

1

k

 

 

 

 

ˆ m

(Zi

X )

m

ni

 

 

 

n

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

Начальный момент:

 

 

ˆ

1

n

 

 

 

 

m

 

 

 

 

 

 

 

 

 

Vm

n

xi

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

37.Графическое представление вариационного ряда.

Графические изображения вариационных рядов:

-полигон частот;

-гистограмма;

-график эмпирической функции распределения.

a) Полигон частот служит для

изображения

 

дискретного

вариационного

ряда.

Для

построения

полигона

в

прямоугольной

 

 

системе

координат наносят

точки с

координатами

(z ,n )

,

затем

 

 

 

 

i

i

 

 

соседние точки соединяют отрезками прямых. В результате получают ломаную линию.

рабочих

10

 

 

 

 

 

 

 

 

8

 

 

 

 

 

 

 

Количество

6

 

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

0

1

2

3

4

5

6

7

Тарифный разряд

b) Гистограмма служит для изображения интервального вариационного ряда. Для ее построения в прямоугольной системе координат по оси абсцисс откладывают отрезки, изображающие интервалы, и на этих отрезках как на основании строят прямоугольники с высотами, равными частотам соответствующего интервала (абсолютным или относительным). В результате получается ступенчатая фигура, состоящая из прямоугольников и называемая гистограммой.

частота

0,4

 

 

 

Относительная

0,3

 

 

 

 

0,2

 

 

 

 

0,1

 

 

 

 

0

 

 

 

 

3.7-4.6

4.6 - 5.5 5.5 - 6.4 6.4 - 7.3

7.3 - 8.2

 

 

 

Размер прибыли

 

c) График эмпирической функции распределения для дискретного вариационного ряда представляет собой кусочно-постоянную функцию, по аналогии с функцией распределения дискретной случайной величины. График имеет скачки в точках zi ,

соответствующих наблюдаемым значениям признака.

1

 

 

 

 

 

 

 

 

 

 

 

 

 

0,5

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

0

1

2

3

4

5

6

7

8

9 10 11

 

При

 

построении

 

 

 

графика

функции

 

 

 

 

 

Fn(x)

 

 

для

 

 

 

 

 

 

 

 

 

 

интервального

 

 

вариационного

ряда

 

наносят

 

 

точки

с

координатами

 

(c

, w

н

)

, то

есть

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

i

 

 

 

по оси абсцисс откладывают правую границу интервала, а по оси ординат относительную накопленную частоту интервала.

(ломаная прямая )

38. Понятия оценки параметра, требования.

Обозначим

F(x, )

-

функцию

 

 

 

 

распределения

 

 

случайной

величины Х,

где

-

параметр

распределения,

 

 

значение

которого

 

 

неизвестно.

Определение.

Точечной

оценкой

~

 

 

параметра

 

неизвестного

называется приближенное значение этого параметра, полученное по выборке.

О: Любая функция от результатов наблюдения

 

 

, ~ ~

 

называет

x , x ,..., xn (x , x ,..., xn)

1

2

1

2

 

ся

 

статистикой.

Основными

свойствами

 

оценок:

несмещенностью,

 

состоятельностью

и

 

 

 

 

~

эффективностью.О: Оценка

называется несмещенной оценкой

параметра

 

,

если

 

ее

математическое

ожидание

равно

оцениваемому

параметру,

 

т.е.

 

~

.

 

 

 

 

 

 

 

M[ ]

 

 

 

 

 

 

 

 

О:Оценка

~

~

 

~

 

 

 

 

 

n

(x , x ,..., xn)

 

 

 

 

 

 

1

2

 

 

называется

 

 

состоятельной

оценкой параметра

, если по

мере

 

увеличения

 

числа

наблюдений

 

n

(т.е.

 

при

n

)

она

стремится

по

вероятности

к

 

оцениваемому

значению

 

. То есть для любого

малого >0

 

~

 

 

 

при

 

 

 

 

P{ } 0

 

 

n .

Достаточное условие

состоятельности

:

оценки

~

параметра

 

 

 

если

 

 

 

 

n

 

 

 

 

 

 

 

 

 

математическое

 

ожидание

и

дисперсия оценки удовлетворяют условию

 

~

 

 

~

 

 

 

M[ n]

и D[ n] 0 при

 

n ,

то

~

-

состоятельная

оценка

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

параметра

. Из

двух

оценок

параметра

 

лучшей считается

оценка,

обладающая наименьшей

 

 

 

 

 

 

 

~

дисперсией. О: Оценка

 

параметра

 

 

называется

эффективной, если среди всех прочих оценок этого параметра она обладает наименьшей дисперсией.

Эффективность является решающим свойством в определении качества оценки.

39. Выборочная оценка математического ожидания.

Обозначим

математическое

ожидание

признака

Х

M[ X ] m;

и

дисперсию

D[ X ]

2

. Теорема

:

Оценка

 

 

 

 

 

 

 

 

 

является несмещенной,

X

1

n

 

 

 

 

 

x

 

 

 

 

n

 

 

 

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

 

состоятельной и эффективной оценкой математического ожидания m в классе всех линейных оценок, т.е. оценок вида:

~

n

 

,

 

n

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

m c x

 

c

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

i i

 

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доказательство.

Выборочные

значения

 

x

 

 

 

- независимые

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

случайные

 

величины,

 

 

имеющие

один

 

закон

 

 

распределения

с

математическим

ожиданием

M[x ] m

и дисперсией

 

 

 

 

 

]

2

.

 

 

 

 

 

 

 

 

D[x

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

1.

 

Покажем,

 

 

 

несмещенность

используя

 

 

 

 

 

 

 

 

 

 

свойства

математического ожидания.

 

 

 

 

 

 

 

1

n

 

 

1

 

n

 

1

 

n

 

 

 

 

 

M[X ] M[

x ]

M[x ]

 

m m

 

n

n

n

 

 

 

 

 

 

i 1

 

i

i

1

i

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2.

 

 

 

 

Найдем

 

 

дисперсию

выборочного среднего,

 

используя

свойства

 

 

 

 

 

 

 

 

дисперсии

(состоятельность):

 

 

 

 

 

 

 

 

 

 

D[X ] D[

1

 

n

 

]

1

n

D[x ]

 

1

n

2

 

2

n

 

x

 

2

 

 

 

2

 

n

 

 

 

i 1

i

 

n

i 1

i

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отсюда видно, что выполняется

достаточное

 

 

 

 

 

 

 

 

 

 

 

условие

состоятельности

 

 

 

 

 

 

 

оценки,

D[X ] 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

при

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3.

 

Докажем

 

 

 

эффективность

оценки

X .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Используя

 

 

свойства

дисперсии,

имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

~

 

 

n

 

 

 

 

 

 

n

 

 

 

 

 

 

 

2

 

n

2

 

 

 

 

 

 

] D[c x ]

c

D[m] D[ c x

 

 

 

 

 

i 1

 

i

i

 

 

i 1

 

i

i

 

 

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Требуется

 

 

 

 

найти

 

 

 

минимум

функции

 

 

n

 

 

 

 

при

 

 

 

ограни-

 

 

 

 

2

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

c

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

чении

n

 

 

 

 

 

 

 

Для

нахождения

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

c

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

условного экстремума

 

составим

функцию Лагранжа:

 

 

 

 

 

 

 

 

 

L(c ,c ,...,c

 

; )

n

c2

(

 

n

c 1)

1

 

2

 

n

 

 

 

 

 

 

 

i

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

i 1

 

 

Необходимые

 

 

 

 

 

 

 

 

 

 

условия

экстремума

 

задаются

 

системой

уравнений:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L

2c 0

 

 

 

 

 

 

 

 

 

 

 

 

 

c

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

c 1 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Откуда

 

 

 

 

 

 

 

получим

c

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

подставим

 

 

 

в

 

 

последнее

уравнение системы

 

 

 

 

 

 

 

n

 

1

0;

 

 

n

1;

 

 

2

;

c

1

 

 

 

 

 

 

 

 

 

 

i 1

2

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

n

 

 

 

i

n

т.е. для всех

i 1,...,n

 

с

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

n

 

40. Выборочная оценка дисперсии, свойства.

Теорема. Выборочная дисперсия

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

является

 

 

 

S

2

 

1

 

 

(x

 

X )

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

i 1

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

смещенной

 

 

оценкой

дисперсии,

т.к.

 

 

 

 

2

 

 

n 1

(мат. ожид)

 

 

 

 

 

 

M[S

]

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

Доказательство.

 

 

 

 

 

 

 

Для

 

 

 

доказательства

 

теоремы

понадобятся

 

 

 

 

 

 

 

следующие

очевидные равенства:

 

 

 

 

 

 

(x

m) nx nm; M [x

 

2

D[x

]

2

;

 

 

m]

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

M [ X m]

D[ X ]

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вычислим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

1

 

n

 

 

 

 

 

2

 

1

 

n

 

 

 

2

 

M[S

 

]

M[

n

 

(x

X )

]

n

M[ ((x m) (X m))

]

 

 

 

 

 

 

 

 

i 1

 

i

 

 

 

 

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

n

 

 

 

 

 

2

 

 

 

n

 

 

 

 

 

n

2

 

 

 

M[

(x

m)

2 (x m)( X m)

]

 

n

 

 

(X m)

 

 

 

 

i 1

 

i

 

 

 

 

 

 

 

i 1

i

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 (n 2 2M[n(X m)( X m)] nM[( X m)2] n

1 (n 2 nM[( X m)2]) 1 (n 2 n 2 ) n 1 2 n n n n

На основании утверждения теоремы 2 несмещенная оценка дисперсии:

~

2

 

1

n

 

X )

2

S

(x

 

n 1

 

 

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

~

Теорема. Оценка дисперсии

S

2

 

является несмещенной, состоятельной и эффективной в классе всех квадратичных оценок вида:

~

2

n

 

 

 

2

n

 

 

n

S

c

(x

X )

, c

 

 

 

n 1

 

 

i 1

i

i

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]