Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория вероятностей - кошерные шпоры.doc
Скачиваний:
5
Добавлен:
27.10.2018
Размер:
5.28 Mб
Скачать

1 Предмет теории вероятностей. Статистическая вероятность.

Предмет теории вероятностей.

Используется 2 основных типа моделей:

1)Детерминированная: При повторении заданного опыта в неизменных условиях, событие А происходит всякий раз.

П1. Опыт: К проводнику сопротивлением R приложено напряжение U. А={течет ток I=U/R}.

2) Вероятностная: При повторении опыта в неизменных условиях событие А может произойти или нет. Такие события и опыт называют случайными.

П2. Подбрасывают монету. A={Выпадет «герб»}.

ТВ изучает случайные события и их числовые характеристики.

Статистическая вероятность.

Еще в древности заметили статистическую устойчивость случайных явлений: если случайный опыт повторяется многократно, то отношение числа mn(A) появлений события А к числу n опытов приближается к некоторому числу P*(A). mn(A)/n= P*(A), n – велико.

P*(A) – статистическая вероятность. Используется при составлении частотных словарей, разработке клавиатуры и т.д.

2 Случайные события и связанные с ними понятия. Алгебраические операции над событиями.

Случайные события.

Случайный опыт – это создание заданного комплекса условий и наблюдение результата. Результат интерпретируется как случайное событие(исход).

Пространство элементарных исходов – мн-во простейших(неразложимых в рамках данного опыта на более простые) взаимоисключающих исходов так, что опыт всегда заканчивается появлением одного и только одного элементарного исхода .

Случайное событие – любое подмн-во пр-ва элем. исходов заданного случайного опыта. Если результат опыта , то событие А произошло.

Основные понятия связанные со случайными событиями:

  1. Всё пр-во элементарных исходов в называется достоверным событием. Очевидно достоверное событие происходит в любом опыте.

  2. Пустое множество Ǿназывается невозможным событием. Очевидно невозможное событие не происходит в опыте.

  3. Суммой событий А и В называется событие А+В состоящее из элем исходов входящих в мн-во . Т.о. событие А+В состоит в том что произошло хотябы одно из событий А и В.

  4. Произведение А и В это событие сост. из элементарных исходов входящих в мн-во . Т.о. произведение А и В состоит в том что А и В произошли одновременно.

  5. Разность событий А и В – событие состоящее из элементарных исходов, входящих в мн-во А\В. Т.о. событие А произошло, а В нет.

  6. Событие А влечет за собой В, если А – подмножество В(). Т.о. всякий раз, когда происходит А, происходит и В.

  7. Событие состоит из , не входящих в А, называется противоположным А

  8. События А и В называются несовместными если нет входяих в А и в В одновременно.

Св-ва:

1)Коммутативность:

А+В=В+А; АВ=ВА.

2)Ассоциативность:

(А+В)+С=А+(В+С); (АВ)С=А(ВС).

3)Дистрибутивность:

(А+В)С=АС+ВС; А+ВС=(А+В)(А+С).

3 Классическое определение вероятности.

События равновероятные, если нет объективных оснований для того, чтобы, одно из них было более или менее вероятным чем другое.

Случайный опыт удовлетворяющий условиям:

а) конечно.

б) все элем. исходы равновозможны

называется классической схемой.

Пусть классическая схема, -число элементарных исходов, - число исходов благоприятствующих событию А. Тогда вероятность события А:

Р(А)= / - формула классической вероятности.

Св-ва:

1)Р(А)>0

2)

3)Если А и В несовместны, (АВ= Ǿ), то Р(А+В)=Р(А)+Р(В).

4 Геометрические вероятности

Пусть случайный опыт состоит в случайном выборе точки на прямой R1 или плоскости R2 или n мерного пространства Rn.

На прямой рассмотрим только мн-ва имеющие длину, на плоскости площадь, в R3-объем, в Rn- обобщенный объем.

Длина, площадь, объем – мера множества .

Пусть случайная точка пропорциональна мере А (mes A) и не зависит от других обстоятельств. Такой случайный опыт называется геометрической схемой.

Пусть геометрическая схема, событие -измеримое мн-во. Тогда вероятностью события А называется число P(A)=mes(A)/mes()

П1. 2 судна должны подойти к причалу для разгрузки в течении суток. Одновременная разгрузка невозможна. Разгрузка любого из них длится 8 часов. С какиой вероятностью одно будет ожидать разгрузки другого?

х- время прихода однеого

у

y

– время прихода другого

(х,у) в R2

={(х,у) | }

A = {(х,у) | |x-y|1/3}

mes()=1, mes(A)=5/9;

P(A)=5/9

Cв-ва:

1)Р(А)

2)

3)А и В несовместимы.

5 Понятие об аксиоматической вероятности

Пусть событию А, связанному со случайным опытом сопоставлена P(A). Это означает, что на мн-ве всех событий F определена числовая функция P(A), .

Чтобы вместе с вероятностью событий А и можно было найти А+В, АВ, А-В, , , , Ǿ, нужно чтобы эти события входили в F, т.е. чтобы F было алгеброй событий.

Если конечное или счетное мн-во, то алгеброй событий F будет мн-во всех подмн-в в .

П1. А={ из 4х карточек 1,2,3 и 4 случайно выбирают одну}

Найдем F:

Ǿ

Пусть - множество элем. исходов, F – алгебра событий. Числова функция Р(А), определенная на F, называется вероятностью, если она подчиняется аксиомам:

  1. Р(А) , (аксиома неотрицательности)

  2. (аксиома нормировки)

  3. Для и В , таких что АВ= Ǿ. Р(А+В)=Р(А)+Р(В) (аксиома сложения)

1)

2)- вероятность элементарного исхода

В П1 Р

6 Св-ва вероятности

Из основных св-в вероятности:

1) Р(А)

2)

3)АВ= Ǿ => Р(А+В)=Р(А)+Р(В)

Вытекают другие св-ва:

4)

5) Р(Ǿ)=0

6)

7)

8)Р(А+В)=Р(А)+Р(В)-Р(АВ)

7 Условная вероятность и ее свойства. Теорема умножения.

Пусть в случайном опыте Т могут появиться события А и В. Если известно что В произошло то говорят об условной вероятности события А при условии В Р(А/В).

В произошло => реализуется один из N(B) элементарных исходов . Из N(AB) исходов благоприятствуют A

Опр. Пусть (,F,P) – вер. пространства , А, и , тогда усл.вероятностью А наз-тся число :

Замеч. 1)Аналогично , если :

2) Теорема умножения Вер-ть произведения событий равна вер-ти одного из них и умноженной на усл.вер-ть другой.

1.

2.

3.

4)Усл вер-ть обладает всеми св-ми дрю вер-тей.

5) Усл. Вер-ть P(A/B) можно рассм.,как обычную вероятность, определенную на новом про-ве Эл. Исходов

6) Для n событий формула : обобщаеться

8 Независимые события, их свойства. Независимость в совокупности.

Опр. А независимое событие от В , если P(A/B)=P(A)

Свойства:

  1. Свойство независимости взаимно, т.е. P(B/A)=P(B)

Т.е. А и В взаимно независимы.

2) Если А и В независимы , то P(AB)=P(A)*P(B) верно и обратное:

Опр. События А1,A2,A3,…,An независимы в совокупности , если любое из них не зависит от каждого из остальных n от всех возможных произведений этих остальных.

Опр. События A1,A2,…,An независимы в совокупности если : P(A1,A2,…,An)=P(A1)*P(A2)…P(An)

Замечание Для независимости в совокупности недостаточно попарной независимости.

9 Формула полной вероятности.

Пусть события H1,…,Hn могут произойти в случайном опыте Т. Эти события образуют полную группу событий, если H1+H2+…+Hn=

Если к тому же события {Hz} попарно несовместимы (Hi,Hj 0, ij), то они образуют полную группу несовместимых событий , т.е. в каждом опыте происходит одно и только одно из этих событий.

Теорема.

Пусть в случ опыте могут произойти события А,H1,..,Hn, причем {Hi} образуют полную группу несовместимых событий , то

A=A*=A(H1+…+Hn)=AH1+…+AHn

P(A)=P(AH1)+P(AH2)+…+P(AHn)=> теоре. Умножения

P(A)=P(H1)P(A/H1)+…+P(Hn)P(A/Hn)

10 Формула Байеса

Теорема В условиях предыдущей теоремы

P(Hk/A)=(P(Hk)P(A/Hk))/P(A)

По теореме умножения P(A)*P(Hk/A)=P(A*Hk)=P(Hk)P(A/Hk) /: P(A)

P(Hk/A)=(P(Hk)P(A/Hk)/P(A))

11 Схема Бернулли

Повторные испытания – это проведение n раз одного и тогоже случ опыта или проведение одновременное n одинаковых опытов.

Схема Бернулли – это случ опыт состоящий в n повторных испытаниях, причем

  1. z исхода (А-успех, (не)А – неудача)

  2. испытания независимы , т.е. P(A) не зависит от исходов в др. испытыниях

  3. p и q=1-p не изм от пыта к опыту

Найдем вер-ть pn,m появления ровно m раз успеха в серии из т испытаний.

В силу независимости испытаний вер-ть каждого такого исхода равно Число таких элементарных исходов Потому :

12 Случайные велечины

Случайная величина = это числовая переменная, принимающая свои значения в зависимости от исхода некоторого случайного опыта

Опр. Пусть (,F,P) – вер. Пространство, соответствующее случ опыту Т. Числовая функция X=X(w), определенная на наз-тся случ величиной для числа x вещественного () мн-во x = {} принадлежит алгебре событий F.Полную инф-ю о случ величине ч содержит ее закон расп-я , позволяющий найти Верн-ть для события , связанного с x

Опр. Функцией распределения (Вер-тей) случ величины x наз функция : Fx(x)=P{X<x}

Св-ва Fx(x)

1 P{a<=x<b}=Fx(b)-Fx(a)

Пусть есть события {x<b},{x<a},{a<=x<=b}

{x<b}={x<a}+{a<=x<=b}

2 P{a<=x<=b}=Fx(b+0)-Fx(a)

3 P{a<x<b}= Fx(b)-Fx(a+0)

4 P{a<x<=b}=Fx(b+0)-Fx(a)

5 P{x=a} = Fx(a+0)-Fx(a)

Другие свойства

1 Fx(x) не убыв функция

2 0<=Fx(x)<=1

3 Fx(-)=0 , Fx(+)=1

4 Fx(x) в t точках aГR непр слева

13 Дискретная случайная величина

Опр Случайная величина X, мн-во значений которой конечно или счетно называеться случайной величиной дискретного типа (СВДТ)

Закон распределения СВДТ описываеться с помощью Fx, но удобнее представлять в виде ряда распределений

Fx(x)=P{X<x}=

Очевидно что сумма =1

Св-ва Fx(x) СВДТ :

а) кусочно постоянная

б) Fx(x)=0 при x<x1

в) в точка xi терпит разрыв 1-го рода

14 Биноминальное распределение

Дискретная X имеет бин распределение с параметрами n, p(X~B(n,p)), если X принимает 0,1,…,n с Вер-мя p(n,k)= P{X=k}=

Очевидно B(n,p) описывает случ число успехов в серии n испытаний по схеме Бернулли с вер-тью успеха p.

Опр. Пусть X-CВДТ с рядом расп-й причем числовой ряд сх-ся , тогда m=M[x]= наз-ся математическим ожиданием (m-ср.знач.X)

Для бин распр-я:

X= , где Xk 0 1

P q p

M[x]=

Дисперсия B(n,p):

D[X]=

15 Распределение Пуассона

Теорема Пуассона

Пусть n->бесконечность и p->0 так что np==const , тогда

Случайная величина X со знач 0,1,2,…,k и вер-ми pk=p{X=k}= , >0 имеем распр-е Пуассона с пар (X~Pn())

З-и Pn() описывает явления с большим числом испытаний и малой вер-тью успеха (з-н редких явлений)

Мат ожидание :

Дисперсия : Dx=

16 Непр. Случайная. Величина.

Опр. X наз-ся непр, если неотриц функция Fx(x)(функция плотности расп-я), так что :

Fx(x)=P{X<x}=

Св-ва fx(x) :

1 P{a<=X<b}=

2 для любого a принадлежащего ГR P{X=a}=0

3 fx(x)>=0

4 (условие нормировки

5 В точках непр-ти : fx(x)=F’x(x)

17 Нормальный закон распределения

Непр случайная величина X распределена по нормальному з-ну распр-я с параметрами m,t(X~N(m,t)) если ее функция плотности имеет вид

Распределение N(0,1) называеться стандартизированным нормальным :

Ф(x)= -функция Лапласа

Благодаря св-ву Ф(-x)=(-Ф(x)), x>=0 в таблицу можно приводить значения Ф(x) только для x>=0

Математическое ожидание

M[x]= -> M[x]=m

Дисперсия

D[x]=

Найдем для x~N(m, ) P{a<x<b}

P{a<x<b}=

В частном случае P{/X-m/<l}=2Ф(l/)-1

  1. Случайный вектор. Функции совместного распределения вероятностей, её свойства.

  1. Дискретный случайный вектор. Связь закона распределения двумерного случайного вектора с законами распределения его компонент. Независимость случайных величин. Условные законы распределения.

  1. Математическое ожидание дискретной случайной величины, его свойства.

22. Начальные и центральные моменты

Опр. Начальным моментом k-ого порядка X называется число

αk[X]=M[X]

1) α1[X]=M[X]

2) X – СВДТ => αk[X]=∑ Xp

Опр. Центр. моментом k-ого порядка X называется число

μk[X]=M[(X-M[X])]

1) Сл.величина X-M[X]=X (с точкой сверху) наз-ся центрир. случ. величиной.

2) μ1[X]=0

Связь между αk[X] и μk[X].

μk=M[(X-M[X])]= M[X(-1)(M[X])]=

=M[X](M[X])

=> μk[X] = αj[X] * α[X]

23. Дисперсия случайной величины

Опр. Дисперсией случ.величины X назыв. ее второй центральный момент μ2[X]:

D[X] = M[(X-M[X])]

Для X – СВДТ: D[X] = pi

D[X] характеризует степень рассеяния, разбросанности значений X вокруг M[X].

Опр. Среднеквадратическим отклонением X назыв. число T[X] =

Свойства:

1. D[X] больше, либо равно 0

2. D[C] = 0, C=const

3. D[X] = M[X]-M[X]

4.D[cX] = cD[X]

5.Если X и Y независимы, то D[X+Y] = D[X]+D[Y]

D[X+Y] = M[(X+Y-M[X+Y]) ] = M[(X-M[X]+Y-M[Y])] =

= M[(X-M[X]) ]+M[(Y-M[Y]) ] + 2M[(X-M[X])]*M[(Y-M[Y])] =

= D[X] + D[Y] | M1=0 | | M1=0 |

24. Мат.ожидание и дисперсия СВНТ

Опр. Пусть X – СВНТ с функцией плотности fx(x), причем fx(x)dx сходится абсолютно, тогда мат. Ожиданием X называется число M[X] = fx(x)dx

Опр. Пусть X – СВНТ с функцией плотности fx(x), причем fx(x)dx сходится абсолютно, тогда дисперсией X называется число: D[X] =fx(x)dx

Замечание.

1)M[X] для X – СВНТ обладает теми же свойствами, что и для X-СВДТ

2)Опр-е нач. и центр. моментов сохр. на случай непр. случ. величины. Их свойства зависят от свойств M[X].

П1. X~N(m,τ);M[X] - ?

M[X] = dx=…= m = M[X]

П2. X~N(m,τ);D[X] - ?

D[X] = = dx=… =

25. Функция случайной величины.

26. Характеристики распределения случайной величины: мода, медиана, квантили, коэффициенты асимметрии и эксцесса.

  1. Характеристическая функция случайной величины, её свойства.

28. Характеристические функции биноминального, пуассоновского и нормального распределений вероятности.

Биномиальное распределение в теории вероятностей — распределение количества «успехов» в последовательности из n независимых случайных экспериментов, таких что вероятность «успеха» в каждом из них равна p.

Распределение Пуассона моделирует случайную величину, представляющую собой число событий, произошедших за фиксированное время, при условии, что данные события происходят с некоторой фиксированной средней интенсивностью и независимо друг от друга. Распределение Пуассона играет ключевую роль в Теории массового обслуживания.

Нормальное распределение, также называемое распределением Гаусса, — распределение вероятностей, которое играет важнейшую роль во многих областях знаний

29 Композиционая устойчивость

Опр.: Пусть X1 и Х2 распределены по одному и тому же закону (возможно с разными параметрами) и независимы. Если при этом Х1+Х2 распределена по тому же закону, то говорят, что данный закон композиционно устойчив.

П1: , и Х1,Х2 независимы

, . Т.к. Х1 и Х2 независимы: =>

Т.е. при фиксированном значении p з-н B(n,p) композиционно устойчив.

П2: ,

, . Т.к. Х1 и Х2 независимы: =>

П3: , и Х1,Х2 независимы

, =>

30 Ковариация двух случайных величин:

Опр: Ковариацией Х и Y называется число (если ):

сov[X,Y] = M[(X-M[X])(Y-M[Y])]= M[Ẋ,Ẏ].

Св-ва:

  1. сov[X,Y] = сov[Y,X]

  2. сov[X,X] = D[X]

  3. сov[X,Y1+Y2] = сov[X,Y1] + сov[X,Y2]

  4. сov[C*X,Y]= C* сov[X,Y]

  5. D[X+Y]=D[X] + D[Y] + 2 сov[X,Y]

  6. |сov[X,Y]| ≤

• 0≤ D[tX+Y] = t^2*D[X] + D[Y] + 2t*cov[X,Y]

= 4 (сov[X,Y])^2 – 4* D[X]*D[Y] => |сov[X,Y]| ≤

31 Коэффициент корреляциии.

Опр: Коэффициентом корреляции называется число:

Св-ва:

  1. Если X и Y независимы => (обратное неверно)

•cov[X,Y]=M[XY] – M[X]M[Y] = |тк Х и Y независимы|= M[X]M[Y] – M[X]M[Y] =0 =>

  1. Если Y=aX+b, то

• Пусть M[X] = m , D[X]= тогда M[Y] = am+b , D[Y]=

cov[X,Y] = M[(X-m)(ax+b – (am+b))] = a* M[(X-m)^2] =

Замеч: Если X и Y независимы, то . Если Х и Y лин. зависимы . Поэтому используется в качестве меры линейной зависимости Х и Y. Если – зависимость слабая. Если - зависимость сильная. Если - то при росте одной случайной величины, другая в среднем растет.

32 Распределения

Опр: Пусть Xi – независимые случайные величины, . Тогда случайная величина имеет распределение ( «хи-квадрат») с n степенями свободы -

Св-ва:

  1. M[Y]=n ; D[Y]=2n

  2. Рисуем графики (оси: f(x) и ось «х»)...n2>n1 хотя n2 более пологий и лежит ниже n1

Опр: Пусть случ. величины и независимы. Тогда случ. величина Y распределена по закону Стьюдента: с n степенями свободы. .

  1. Рисуем графики (оси: St(x) и ось «х»)...n1>n2 - n2 более пологий и лежит ниже n1

  2. При St(0,1) приближается к N(0,1)

Опр: Пусть и - независимые случайные величины. Тогда распределена по закону Фишера со степенями свободы n1 и n2

Св-во: Пусть Fn1,n2,p – квантиль распределения F(n1,n2) порядка p, тогда Fn1,n2,(1-p) = 1/ Fn1,n2,p

33 Неравенства Чебышева

Теорема 1 ( 1ое неравенство Чебышева) :

Пусть Х – случайная величина, . Тогда

• Рассмотрим случайную величину

Очевидно, или ;

Теорема 2 (2ое неравенство Чебышева):

Пусть Х-случайная величина, , . Тогда

• Рассмотрим непр. Х:

34 Закон больших чисел(теорема Маркова): Опр: Говорят, что последовательность случ. величин сходится по вероятности к числу a (), если ( или )

Теорема Маркова:

Пусть последовательность случ величин удовлетворяет условиям: и . Тогда , т.е. .

•Обозначим , , . Применяем второе неравенство Чебышева:

35 Следствия из закона больших чисел

1) Теорема Чебышева

Пусть – последовательность независимых или попарно некоррелированных случ. величин(*).: и . Тогда Тогда

2) Пусть - последовательность одинаково распр. случ. величин, удовл. условию (*).

, . Тогда или

3) Пусть , т.е - число успехов в серии n испытаний в схеме Бернулли с вероятностью успеха p. Тогда , т.е

Xk

0

1

p

q

p

по следствию (2)•

36 Центральная предельная теорема

Опр: Пусть - последовательность случайных величин. Говорят, что случайная величина имеет асимптотическое нормальное распределение с параметрами при , если для . - функция Лапласа. Обозн: .

Теорема:

Пусть последовательность удовлетворяет условиям:

  1. - независимы.

  2. - одинаково распределены

  3. ,

Тогда для справедливо .

Замечания:

1)При достаточно больших n - , т.е. сумма большого числа одинаково распределенных независимых случайных величин имеет распределение, близкое к нормальному.

2) Условие (2) не является принципиальным. Если , , то при некоторых требованиях вместо условия (3) при больших n имеем:

,т.е. и в этом случае сумма достаточно большого числа случайных величин распределена приблизительно нормально.