- •Ю. Н. Полшков
- •СОДЕРЖАНИЕ
- •Бюффон
- •Табл. 1. Выборка к примеру 3
- •Табл. 2. Упорядоченная выборка
- •Табл. 3. Таблица распределения частот
- •Табл. 4. Таблица распределения частостей
- •Табл. 5. Таблица накопленных частостей
- •Табл. 7. Таблица накопленных частот и частостей
- •Табл. 1. Таблица распределения частот к примеру 1
- •Табл. 1. Статистические данные к примеру 1
- •Табл. 2. Расчётная таблица к примеру 1
- •Табл. 3. Данные опыта Резерфорда, Чедвика и Эллиса
- •Критические точки распределения
- •Критические точки распределения Стьюдента
- •Критические точки распределения Кочрена
9
Лекция 2. КЛАССИЧЕСКОЕU ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ. АКСИОМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ U
План
1.Частота случайного события. Классическое определение вероятности.
2.Аксиоматика теории вероятностей.
3.Свойства вероятности.
1.Рассмотрим некоторый стохастический эксперимент и событие A , наблюдаемое в этом эксперименте. Например, эксперимент состоит в подбрасывании монеты, а событие A
– выпадение герба. Повторим эксперимент n раз. Пусть k – число экспериментов, в которых произошло событие A .
Число k называют частотой наступления события A в n испытаниях. Отношение
w( A) = kn
называется частостью (или относительной частотой) события A в проведенной серии экспериментов.
Частота может быть определена лишь после проведения серии экспериментов. Вообще говоря, частота изменяется, если мы проведем другую серию из n экспериментов, или если изменим n . Однако, как показывает опыт, при достаточно больших n для большинства экспериментов частота сохраняет почти постоянную величину, причем большие отклонения наблюдаются тем реже, чем больше n .
Например, пусть много раз бросают монету. Многочисленные эксперименты показы-
вают, что частота появления герба в длинных сериях мало отличается от |
1 |
(табл. 1). |
||||||
2 |
||||||||
|
|
|
|
|
|
|||
|
|
Табл. 1. Данные экспериментов с подбрасыванием монеты |
||||||
|
Экспериментатор |
Число бросаний |
Число выпадений гер- |
|
|
Частость |
|
|
|
|
|
ба |
|
|
|
|
|
|
Бюффон |
4040 |
2048 |
|
|
0,50693 |
|
|
|
Пирсон |
12000 |
6019 |
|
|
0,5016 |
|
|
|
Пирсон |
24000 |
12012 |
|
|
0,5005 |
|
|
Если при больших n относительная частота w( A) события A мало отличается от некоторого фиксированного значения p , то говорят, что событие A статистически устой-
чиво, а число p является статистической вероятностью события A .
Дадим другое определение вероятности, которое называют классическим. Рассмотрим стохастический эксперимент, имеющий конечное число n равновозмож-
ных элементарных исходов. Предположим, что событию A благоприятствует k элементарных исходов. Тогда вероятность события A определяется формулой
P( A) = kn .
ПримерU 1.U Брошена игральная кость. Какова вероятность того, что выпадет число очков кратное 3?
Решение. Всего элементарных исходов в эксперименте n = 6 . Из них благоприятных событию A ={3;6} исходов k = 2 . Значит
P( A) = 62 = 13 .
ПримерU 2.U Найти вероятность того, что при двух подбрасываниях монеты герб выпадет хотя бы один раз.
10
Решение. Множество элементарных исходов имеет вид Ω ={ГГ, ГР, РГ, РР}, поэтому n = 4 . Событие A ={ГГ, ГР, РГ} , т.е. k = 3. Откуда
P( A) = 34 .
ПримерU 3.U Игральная кость брошена дважды. Какова вероятность того, что сумма выпавших очков равна 5?
Решение. Итак, Ω ={(1;1),(1;2),(1;3),...,(6;4),(6;5),(6;6)} . Согласно основному принципу
комбинаторики |
общее |
число |
исходов |
эксперимента |
n = 6 6 = 36 . |
Т.к. |
A ={(1;4),(2;3),(3;2),(4;1)} , то k = 4 . Поэтому |
|
|
|
|||
P( A) = 364 = 19 .
ПримерU 4.U В группе 25 студентов: 10 юношей и 15 девушек. Наугад выбирают 3-х студентов. Найти вероятность того, что среди них окажутся: а) только юноши; б) только девушки; в) 1 юноша и 2 девушки.
Решение. а) Эксперимент состоит в выборе наугад 3-х студентов из 25, поэтому n будет одинаковым для а), б) и в):
n = C253 = |
25! |
|
= |
23 24 25 |
= 2300 . |
|
3! 22! |
1 2 3 |
|||||
|
|
|
||||
Событие А={среди выбранных 3-х студентов только юноши}, следовательно, получим
k = C3 |
= |
10! |
= |
8 9 10 |
=120 . |
|||||||
|
|
|
|
|
||||||||
10 |
|
|
3! 7! 1 2 3 |
|||||||||
В итоге имеем |
|
|
||||||||||
|
|
|
120 |
|
12 |
|
||||||
P( A) = |
= |
. |
||||||||||
|
|
|
||||||||||
|
2300 |
230 |
|
|||||||||
б) Событие В={среди выбранных 3-х студентов только девушки}. Значит |
||||||||||||
k = C 3 = |
15! |
|
|
= 13 14 15 = 455 . |
||||||||
|
|
|
|
|
||||||||
15 |
|
3! 12! |
|
1 2 3 |
||||||||
|
|
|
||||||||||
Следовательно, вероятность равна
P( A) = 2300455 = 46091 .
б) Событие С={среди выбранных 3-х студентов 1 юноша и 2 девушки}. Согласно основному принципу комбинаторики
k = С101 C152 =10 215! 13! ! = 141 152 =1050 .
Следовательно, имеем
P( A) = 10502300 = 4621 .
Пример 4 выполнен.
2. В 1933 году выдающийся советский математик Андрей Николаевич Колмогоров (1903-1987) построил систему аксиом, завершив логическое обоснование теории вероятностей как науки. И если геометрию можно представлять как науку о системе предметов, называемых «точками, прямыми или плоскостями» и удовлетворяющих известным аксиомам, то и теорию вероятностей можно назвать наукой, посвященной количественному изучению случайных явлений, все законы которой выводятся из системы аксиом, базирующихся на исходных, не подлежащих формальному определению понятиях «элементарное событие» и «вероятность».
Сформулируем аксиомы теории вероятностей в упрощенном виде.
11
Рассмотрим некоторый стохастический эксперимент с конечным числом исходов. Пусть Ω – пространство элементарных исходов. Обозначим через F – множество всех подмножеств пространства элементарных исходов Ω . Например, если Ω ={Г, Р} , то
F ={A1 = , A2 = Ω, A3 ={Г}, A4 ={P}}.
Все множества из F называются случайными событиями. Предположим, что каждому случайному событию A F поставлено в соответствие число P( A) , называемое вероятностью
события A и удовлетворяющее аксиомам: p1 )P( A) ≥ 0;
p2 )P(Ω) =1;
|
n |
|
n |
p3 ) Ai : Ai ∩ Aj = ,i ≠ j P |
Ai |
= ∑P( Ai ). |
|
i=1 |
|
i=1 |
|
Тройка (Ω, F, Р) называется вероятностным пространством.
3. Сформулируем свойстваU вероятности:U
1) P( A) =1− P( A) .
Доказательство. Используя 2-ю и 3-ю аксиому, имеем
A A = Ω P( A) + P( A) =1 P( A) =1− P( A) .
2) P( ) = 0 .
Доказательство. Учитывая свойство 1), получим
= Ω P( ) =1− P(Ω) = 0 .
3)Если А В то P(B \ A) = P(B) − P( A) .
Доказательство. Т.к.
B = A (B \ A) P(B) = P( A) + P(B \ A) ,
причем использовалась 3-я аксиома, в силу того, что A ∩(B \ A) = .
4)A B P( A) ≤ P(B) .
5)P( A) ≤1.
Доказательство. По свойству 4) имеем
АΩ P( A) ≤1.
6)Р( A B) = Р( А) + Р(В) − P( А∩ В) .
Доказательство. Т.к.
A B = (A \ ( А∩ В)) (В\ ( А∩ В)) (А∩ В),
то используя свойство 3) и 3-ю аксиому, получим
Р( A B) = Р( А) − Р( А∩ В) + Р(В) − Р( А∩ В) + Р(А∩ В)=
=Р( А) + Р(В) − Р( А∩ В).
Тем самым доказана т.н. теорема сложения вероятностей. 7) Если события A и B несовместны, то
Р( A B) = Р( А) + Р(В) .
Доказательство. Т.к. A ∩ B = , то по свойству 2) Р( A ∩ B) = 0 . Используя свойство
6), имеем
Р( A B) = Р( А) + Р(В) .
Доказана теорема сложения вероятностей для несовместных событий.
ПримерU 5.U На стеллаже библиотеки в случайном порядке расставлено 15 учебников, причем 5 из них – в переплете. Библиотекарь берет наудачу 3 учебника. Найти вероятность того, что хотя бы один из взятых учебников окажется в переплете (событие А).
Решение. Приведем два способа решения.
12
Первый способ. Событие А произойдет, если произойдет любое из следующих трех несовместных событий: В = {один учебник в переплете, два без переплета}; С = {два учебника в переплете, один без переплета}; D = {три учебника в переплете}. Тогда
А= В + С + D,
ипо теореме сложения вероятностей для несовместных событий получим
Р(А) = Р(В) + Р(С) + Р(D).
Найдем вероятности событий В, С, D. Очевидно, что
Р(В) = |
С1 |
С2 |
= |
45 |
; |
|||||||
5 |
10 |
|
|
|
||||||||
|
|
С3 |
91 |
|||||||||
|
|
|
|
|
|
|
|
|||||
|
|
|
|
15 |
|
|
|
|
|
|
|
|
Р(С) = |
|
|
С2С1 |
= |
20 |
; |
||||||
|
5 10 |
|
|
|
|
|||||||
|
С3 |
91 |
||||||||||
|
|
|
|
|
|
|||||||
|
|
|
|
15 |
|
|
|
|
|
|
|
|
Р(D) = |
|
|
С3С0 |
|
= |
2 |
|
|
. |
|||
|
5 10 |
|
|
|
|
|
||||||
С3 |
|
91 |
||||||||||
|
|
|
|
|
|
|||||||
|
|
|
|
15 |
|
|
|
|
|
|
|
|
Тогда
Р(А) = 4591 + 2091 + 912 = 6791 .
Второй способ. Введем противоположное событие A ={ни один из взятых учебников не окажется в переплете} и найдем его вероятность:
()= С3 = 24
РА 10 . С153 91
Так как верна формула
P( A) =1− P( A) ,
то искомая вероятность равна
Р(А) =1 − 2491 = 6791 .
13
Лекция 3. УСЛОВНЫЕU ВЕРОЯТНОСТИ. ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ. ФОРМУЛА БАЙЕСА U
План
1.Условные вероятности.
2.Теорема умножения вероятностей.
3.Формула полной вероятности.
4.Формула Байеса.
1.В ряде случаев приходится рассматривать вероятности случайных событий, если известно, что некоторое случайное событие B уже произошло. Введем следующее определение.
Пусть событие B имеет положительную вероятность. Условной вероятностью события A при условии, что произошло событие B , называют
Р( А/ В) = Р( A ∩ B) .
Р(В)
|
ПримерU |
1.U Последовательно брошены 3 монеты. Найти вероятность выпадения герба |
||||||
|
|
при условии, что выпала хотя бы одна решка. |
||||||
на первой монете |
||||||||
|
Решение. Множество элементарных исходов имеет вид |
|||||||
|
|
|
Ω ={ГГГ, ГГР, ГРГ, РГГ, ГРР, РГР, РРГ, РРР} , |
|||||
поэтому n = 8 . Событие A ={ГГГ, ГГР, ГРГ, ГРР} |
– выпадение герба на первой монете, т.е. |
|||||||
k = 4 . Откуда |
|
|
4 |
|
|
1 |
|
|
|
|
|
Р( А/ В) = |
= |
. |
|||
|
|
|
|
|
||||
|
|
8 |
|
2 |
|
|||
Событие B ={ГГР, ГРГ, РГГ, ГРР, РГР, РРГ, РРР} |
– выпадение хотя бы одной решки, т.е. |
|||||||
k = 7 . Следовательно, Р(В) = |
7 |
. Событие A ∩ B ={ГГР, ГРГ, ГРР}, т.е. k = 3. Откуда |
|
8 |
|||
|
|
Р( A ∩ B) = 83 . Используя определение условной вероятности, имеем
Р( А/ В) = 73//88 = 73 .
Пример выполнен полностью.
2. Непосредственно из определения условной вероятности, следует теорема умноже-
ния вероятностей.
ТеоремаU 1 (умножения вероятностей).U Если P( A) > 0 , P(B) > 0 , то имеют место равенства
Р( A ∩ B) = Р( А)Р(В/ А) = Р(В)Р( А/ В) . |
|||||
Доказательство теоремы следует из формул |
|
|
|||
Р( А/ В) = |
Р( A ∩ B) |
, Р(В/ А) = |
|
Р( A ∩ B) |
. |
|
|
|
|||
|
Р(В) |
Р( А) |
|||
Случайные события A и B называются независимыми, если |
|||||
|
Р( A ∩ B) = Р( А)Р(В) . |
|
|
||
Последнее равенство часто называют теоремой умножения вероятностей для независимых событий.
СледствиеU 1.U Пусть P(B) > 0 . События A и B независимы тогда и только тогда, когда
Р( А/ В) = Р( А) .
Доказательство. Действительно, если A и B независимы, то
14
Р( А/ В) = Р( A ∩ B) = Р( A)Р(B) = Р( А) .
Р(В) Р(В)
Докажем обратное утверждение:
Р( А/ В) = Р( А), Р( А/ В) = Р( A ∩ B) Р( А) = Р( A ∩ B) Р( A ∩ B) = Р( A)Р(B) .
Р(В) Р(В)
Т.е. события независимы. Следствие доказано.
Заметим, что следствие 1 используют в качестве определения независимости собы-
тий.
ПримерU 2.U Три стрелка, для которых вероятность попадания 0,7, 0,8 и 0,9, соответственно, стреляют в мишень. Найти вероятность того, что в мишени окажется два попадания.
Решение. Введем события A1 ={первый стрелок выстрелил и попал}, A2 ={второй стрелок выстрелил и попал}, A3 ={третий стрелок выстрелил и попал}. Тогда P( A1 ) = 0,7 , P( A2 ) = 0,8 и P( A3 ) = 0,9 . Искомое событие B ={после залпа в мишени два попадания} можно записать следующим образом:
B = ( А1 ∩ А2 ∩ А3 ) ( А1 ∩ А2 ∩ А3 ) ( А1 ∩ А2 ∩ А3 ) .
По теореме сложения вероятностей для несовместных событий имеем
Р(B) = Р( А1 ∩ А2 ∩ А3 ) + Р( А1 ∩ А2 ∩ А3 ) + Р( А1 ∩ А2 ∩ А3 ) .
Применяя теорему умножения вероятностей для независимых событий, получим
Р(B) = Р( А1 )Р( А2 )Р( А3 ) + Р( А1 )Р( А2 )Р( А3 ) + Р( А1 )Р( А2 )Р( А3 ) =
=0,7 0,8 (1−0,9) +0,7 (1−0,8) 0,9 +(1−0,7) 0,8 0,9 = 0,056 +0,126 +0,216 = 0,398 .
3.Случайные события H1 , H 2 ,..., H n образуют полную группу событий, если они по-
парно несовместны и в сумме дают достоверное событие: 1)H1 H 2 ... H n = Ω;
2)Hi ∩ H j = ,i ≠ j.
|
ПримерU |
3.U Эксперимент состоит в подбрасывании монеты один раз. Тогда Ω ={Г, Р} |
||
|
|
|
|
|
и полную группу будут образовывать события H1 ={Г}, H 2 ={Р} . |
||||
|
ТеоремаU |
2. |
U Если H1 , H 2 ,..., H n – полная группа событий и Р(Hi ) > 0,i =1,..., n , то для |
|
|
|
|
||
любого случайного события A верна формула полной вероятности:
n
Р( А) = ∑P(Hi )P( A / Hi ) .
i=1
Доказательство. Заметим, что
А= А∩Ω = ( А∩ Н1 ) ( А∩ Н2 ) ... ( А∩ Нn ) .
Применим теорему сложения вероятностей для попарно несовместных событий и теорему умножения вероятностей:
Р( А) = Р( А∩ Н1 ) + Р( А∩ Н2 ) +... + Р( А∩ Нn ) =
n
=Р(Н1 )Р( А/ Н1 ) + Р(Н2 )Р( А/ Н2 ) +... + Р(Нn )Р( А/ Нn ) = ∑P(Hi )P( A / Hi ) .
i=1
Теорема доказана.
События H1 , H 2 ,..., H n называют гипотезами, а их вероятности – априорными (доо-
пытными) вероятностями. Сумма вероятностей гипотез всегда равна единице.
ПримерU 4.U Среди 50 экзаменационных билетов 30 «счастливых». Студенты подходят
за билетами один за другим. У кого больше вероятность взять «счастливый» билет: у того, кто подошел первым или у того, кто подошел вторым?
Решение. Вероятность взять «счастливый» билет для первого студента равна 30 / 50 = 3/ 5 . Пусть событие A состоит в том, что второй студент взял «счастливый» билет.
15
Введем гипотезы: H1 – первый студент взял «счастливый» билет, H 2 – первый студент не взял «счастливый» билет. Введенные гипотезы образуют полную группу событий. Их вероя-
тности: |
Р(H1 ) = 3 / 5, Р(H 2 ) = 2 / 5 . |
|
|
|
|
Условные |
|
вероятности |
равны: |
|||||
Р( А/ H1 ) = 29 / 49, Р( А/ H 2 ) = 30 / 49 . Применяя формулу полной вероятности, получим: |
||||||||||||||
|
Р( А) = |
3 |
|
29 |
+ |
2 |
|
30 |
= |
147 |
= |
3 |
. |
|
|
|
49 |
5 |
49 |
|
5 |
|
|||||||
|
5 |
|
|
|
245 |
|
|
|
||||||
Т.е. вероятность взять «счастливый» билет для второго студента такая же, как и для первого.
4. Английский священник и математик Томас Бейес (или Байес) (1702-1761) доказал в своё время одну из основных теорем элементарной теории вероятностей.
ТеоремаU 3.U Если H1 , H 2 ,..., H n – полная группа событий и Р(Hi ) > 0,i =1,..., n , то для любого случайного события A , такого, что P( A) > 0 , верна формула Байеса:
Р(H k / А) = nP(H k )P( A / H k ) .
∑P(Hi )P( A / Hi )
i=1
Доказательство. Используя определение условной вероятности, теорему умножения и формулу полной вероятности, получим
Р(H k / А) = |
P(H k ∩ A) |
= |
P(H k )P( A / H k ) |
. |
P( A) |
n |
|||
|
|
∑P(Hi )P( A / Hi ) |
|
|
|
|
|
i=1 |
|
Теорема доказана.
Значимость формулы Байеса следующая. Предположим, что произведен опыт, в результате которого наступило событие A . Формула Байеса позволяет переоценить гипотезы. Условные вероятности Р(H k / A) называют апостериорными (послеопытными) вероятно-
стями.
ПримерU 5.U Для создания университетской сборной команды по шахматам, проводятся отборочные соревнования среди студентов первых трех курсов. Первый курс выделил для соревнований 4 студента, второй – 6, третий – 5. Вероятности того, что студент первого, второго и третьего курса попадет в сборную, соответственно равны 0,9, 0,7 и 0,8. Наудачу выбранный студент в итоге соревнования попал в сборную. На каком курсе вероятнее всего он учится?
Решение. Пусть событие A состоит в том, что наудачу выбранный студент попал в сборную. Введем гипотезы: H1 – выбран студент первого курса, H 2 – выбран студент второ-
го курса, H3 – выбран студент третьего курса. Введенные гипотезы образуют полную группу
событий. Их вероятности: Р(H1 ) = 4 /15 , |
Р(H 2 ) = 6 /15 , |
Р(H3 ) = 5 /15 . В свою очередь, усло- |
||||||||||||
вные вероятности равны: Р( А/ H1 ) = 0,9 , |
Р( А/ H 2 ) = 0,7 , Р( А/ H3 ) = 0,8 |
. Применяя формулу |
||||||||||||
полной вероятности, получим: |
|
6 |
|
|
5 |
|
36 |
+ 42 + 40 |
|
118 |
|
|
||
Р( А) = |
4 |
0,9 + |
|
0,7 + |
0,8 = |
= |
. |
|
||||||
|
15 |
|
|
150 |
|
|
||||||||
15 |
|
|
15 |
|
|
150 |
|
|
||||||
Переоценим гипотезы по формуле Байеса, т.е. найдем вероятности того, что выбранный студент учится на первом, втором или третьем курсе:
|
|
4 |
0,9 |
|
|
36 |
|
18 |
|
|
|
42 |
|
21 |
|
|
|
40 |
|
20 . |
|
Р(H1 |
/ А) = |
15 |
= |
= |
, |
Р(H 2 / А) = |
= |
, |
Р(H 2 / А) = |
= |
|||||||||||
|
|
118 |
59 |
118 |
59 |
118 |
|||||||||||||||
|
118 |
|
|
|
|
|
|
|
|
59 |
|||||||||||
150
Ответ: вероятнее всего, что студент попавший в сборную учится на втором курсе.
16
Лекция 4. СХЕМАU БЕРНУЛЛИ. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ В СХЕМЕ БЕРНУЛЛИ U
План
1.Формула Бернулли. Наиболее вероятное число успехов.
2.Локальная и интегральная теоремы Муавра-Лапласа.
3.Формула Пуассона.
1.Предположим, что проводятся независимые испытания и при каждом из них может наступить два исхода – успех с вероятностью p или неудача с вероятностью q ( p + q =1 ).
Такую последовательность испытаний называют схемой Бернулли. Она названа так в честь швейцарского математика Якоба I Бернулли (1654-1705). Например, при стрельбе по цели успех – попадание, неудача – промах. Обозначим через νn – число успехов в n испытаниях.
Вероятность появления k успехов в n испытаниях вычисляется по формуле Бернулли:
P(νn = k) = Cnk pk qn−k .
Наиболее вероятное число успехов k0 в схеме Бернулли определяется из неравенства:
np −q ≤ k0 ≤ np + p .
Тогда: а) если np −q – нецелое число, то наиболее вероятное число успехов будет единственным; б) если np −q – целое, то наивероятнейших чисел будет два: k0 = np −q или
k0 = np −q +1 = np + p .
ПримерU 1.U Стрелок, попадающий в мишень с вероятностью 0,7, стреляет 5 раз. Вы-
числить вероятность того, что мишень будет поражена 3 раза. Каково наиболее вероятное число попаданий?
Решение. Имеем p = 0,7 , q =1−0,7 = 0,3 , n = 5 , k = 3. Согласно формуле Бернулли, получим
P(ν5 = 3) = C53 0,730,32 =10 0,343 0,09 = 0,3087 .
Наивероятнейшее число попаданий определим из неравенства:
5 0,7 −0,3 ≤ k0 ≤ 5 0,7 +0,7 3,2 ≤ k0 ≤ 4,2 k0 = 4 .
ПримерU 2 (парадокс де-Мере).U Французский философ, литератор, придворный кавалер и азартный игрок Шевалье де-Мере (1607-1648), современник и соотечественник математика, физика и философа Блеза Паскаля (1623-1662), считал, что вероятность получить хотя бы одну единицу при одном подбрасывании четырёх игральных костей равна вероятности получить хотя бы один раз две единицы при 24 подбрасываниях двух костей. Более того, в своих проигрышах он обвинял математиков. Равны ли эти вероятности?
Решение. Опишем рассматриваемые события: A ={выпадение хотя бы одной единицы при одном подбрасывании 4 игральных костей}, B ={хотя бы одно выпадение двух единиц при 24 подбрасываниях 2 костей}. И в случае A , и в случае B мы находимся в рамках схемы Бернулли, причём, это разные схемы Бернулли.
A . |
|
p ={выпадение единицы при одном |
подбрасывании 1 игральной кости}= |
1 |
, |
||||||||||||
|
5 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
6 |
|
q =1− p = |
, n = 4 , 1 ≤ν4 |
≤ 4 . Тогда |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P( A) = P(1 ≤ν |
|
≤ 4) =1− P(ν |
|
|
=1−C |
0 |
|
1 0 |
|
5 |
|
4 |
|
|
||
|
4 |
4 |
= 0) |
4 |
|
|
|
|
|
|
≈1−0,4823 = 0,5177 . |
|
|
||||
|
|
6 |
|
|
|||||||||||||
|
|
|
|
|
|
|
6 |
|
|
|
|
|
|||||
17
B . p ={выпадение двух единиц при одном подбрасывании 2 игральных костей}= 361 ,
q = |
35 |
, n = 24 , 1 ≤ν24 |
≤ 24 . Тогда |
|
|
|
|
|
|
|
|
|
|
||
|
36 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P(B) = P(1 ≤ν |
|
|
≤ 24) =1− P(ν |
|
= 0) =1−C |
0 |
|
1 |
0 |
|
35 |
24 |
|
|
|
24 |
24 |
24 |
|
|
|
|
|
|
≈1−0,5086 = 0,4914 . |
||||
|
|
36 |
36 |
||||||||||||
|
|
|
|
|
|
|
|
|
|
||||||
Следовательно, P( A) > P(B) , т.е. вероятности не равны.
Такой ответ, по-видимому, и получил де-Мере от Паскаля. Подробно об этом и других парадоксах ТВиМС в книге Секей Г. «Парадоксы в теории вероятностей и математической статистике».
2. При больших значениях n и k расчёт вероятностей по формуле Бернулли представляет вычислительные трудности. Возникает необходимость в асимптотических формулах, позволяющих с достаточной степенью точности определять эти вероятности. Такие формулы в своё время были получены английским математиком Абрахамом де Муавром (1667-1754) и французским математиком, физиком и астрономом Пьером Симоном Лапласом
(1749-1827).
ЛокальнаяU теорема Муавра-Лапласа.U Для схемы Бернулли имеет место следующая формула
|
|
|
|
|
P(νn = k) ≈ |
1 |
ϕ(x0 ) , |
|
|
|
|
|
|
npq |
|
где |
x0 |
= k −np |
, ϕ(x) = |
1 |
e−x2 / 2 . Для значений функции Лапласа ϕ(x) имеются подробные |
||
|
|
npq |
|
2π |
|
|
|
таблицы (см. приложение 1). Ее график изображен на рис. 1. Эта функция обладает следующими свойствами:
1)ϕ(x) – четная, т.е. ϕ(−x) =ϕ(x) ;
2)ϕ(x) ≈ 0 при x ≥ 4 .
Рис. 1. График функции Лапласа
Часто возникает необходимость знать вероятность попадания числа успехов в некоторый интервал, т.е. P(k1 ≤νn ≤ k2 ) . Тогда применяется следующая теорема.
ИнтегральнаяU теорема Муавра-Лапласа.U Вероятность того, что число успехов в схеме Бернулли наступит не менее k1 раз и не более k2 раз, равна
P(k ≤ν |
|
≤ k |
|
k |
|
−np |
k |
−np |
, |
|||
n |
2 |
) ≈ Φ |
2 |
|
|
−Φ |
1 |
|
|
|||
1 |
|
|
|
npq |
|
|
|
npq |
|
|
||
|
|
|
|
|
|
|
|
|
|
|
||
|
|
18 |
где Φ(x) = |
1 |
∫x e−t2 / 2 dt . Для интегральной функции Лапласа Φ(x) также имеются таблицы |
|
2π |
0 |
(см. приложение 2). Ее график изображен на рис. 2. Эта функция обладает следующими свойствами:
1)Φ(x) – нечетная, т.е. Φ(−x) = −Φ(x) ;
2)Φ(x) ≈ 0,5 при x > 5 .
Рис. 2. График интегральной функции Лапласа
ПримерU 2.U Известно, что вероятность рождения мальчика равна приблизительно 0,515.
Какова вероятность того, что среди 10000 новорожденных число мальчиков будет: а) ровно 5000; б) не менее 4000 и не более 5300.
Решение. В данной схеме Бернулли n =10000 , p = 0,515 , q = 0,485 . В случае а) при-
меним локальную теорему Муавра-Лапласа при k = 5000 :
≈ = 5000 −5150 ≈ −
npq 49,98; x0 3,0012 ; 49,98
P(ν10000 = 5000) ≈ 491,98 ϕ(−3,0012) ≈ 0,000088 .
Пункт б) требует применения интегральной теоремы Муавра-Лапласа, а именно:
P(4000 ≤ν10000 |
≤ 6000) |
|
5300 −5150 |
|
4000 −5150 |
|
= |
|
≈ Φ |
49,98 |
|
−Φ |
49,98 |
|
|||
|
|
|
|
|
|
|
||
=Φ(3,0012) −Φ(−23,0092) = 0,4987 +0,5 = 0,9987 .
Врамках схемы Бернулли часто используется следствие из интегральной теоремы Муавра-Лапласа, которое мы приводим в виде утверждения.
УтверждениеU .U Вероятность того, что в n независимых испытаниях, в каждом из кото-
рых вероятность успеха постоянна и равна p ( 0 < p <1), абсолютная величина отклонения
частости наступления успеха |
νn |
от вероятности |
|
p |
не превысит положительного числа |
||
ε > 0 , равна |
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ν |
n |
|
|
|
n |
|
|
P |
|
|
|
ε |
|
|
|
n |
− p ≤ ε ≈ 2Φ |
. |
||||
|
|
|
|
|
pq |
||
ПримерU 3.U Отдел технического контроля проверяет 144 детали на стандартность. Вероятность того, что деталь стандартна, равна 0,9. Найти с вероятностью 0,9974 границы, в которых будет заключено число стандартных деталей среди проверенных.
19
Решение. По условию n =144, p = 0,9, q = 0,1 и
P(np −nε ≤νn ≤ np + nε) = 0,9974 .
Тогда
|
ε |
|
|
ε |
144 |
|
= 0,4987 Φ(ε 40)= 0,4987 . |
2Φ |
n |
= 0,9974 Φ |
|
||||
|
|
|
|
|
0,9 0,1 |
|
|
|
|
pq |
|
|
|
|
|
Из таблиц интегральной функции Лапласа (см. приложение 2) получим Φ(ε 40)= 0,4987 . |
|||||||
Следовательно, ε = 3/ 40 = 0,075 . Тогда |
|
|
|
|
|||
np −n 0,075 ≤νn ≤ np + n 0,075 118,8 ≤νn ≤140,4 118 ≤νn ≤141 .
Т.е. среди проверенных деталей стандартных не менее 118 и не более 141.
3. Если вероятность успеха p близка к 0 ( p ≤ 0,05 ) либо, при переходе к противопо-
ложному событию, близка к 1 и число независимых опытов n достаточно велико, то приме-
няют формулу Пуассона:
P(νn = k) ≈ λkk! e−λ ,
где λ = np . Эту формулу получил французский механик, физик и математик Симеон Дени
Пуассон (1781-1840). Формулу Пуассона называют ещё законом редких событий. Обычно этому закону подчиняется число появлений некоторого события, зависящего от большого числа независимых факторов, например, число частиц зарегистрированных счетчиком космических излучений, число катастроф, число вызовов поступивших на телефонную станцию.
ПримерU 4.U В некотором обществе имеется 0,1% дальтоников. Какова вероятность то-
го, что среди 5000 наугад выбранных человек не менее двух дальтоников?
Решение. В данной схеме Бернулли n = 5000, p = 0,001. Применяем свойство вероят-
ности противоположного события и формулу Пуассона:
P(ν5000 ≥ 2) =1− P(ν5000 < 2) =1− P(ν5000 = 0) − P(ν5000 =1) ≈1−e−5 −5e−5 ≈ 0,9596 .
20
Лекция 5. СЛУЧАЙНЫЕU ВЕЛИЧИНЫ. ДИСКРЕТНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА U
План
1.Случайная величина.
2.Дискретная случайная величина и ее закон распределения.
3.Числовые характеристики дискретных случайных величин.
1.Одним из основных понятий теории вероятностей является понятие случайной величины. Случайная величина – это числовая величина, принимающая те или иные значения, в зависимости от случая. Примеры случайных величин: число очков, выпадающих при одном подбрасывании игральной кости, число бракованных деталей в заводской партии деталей, число попаданий в цель при серии выстрелов, время безотказной работы прибора, дальность
полета снаряда и т.д. Поскольку результатом эксперимента являются элементарные исходы, случайную величину можно рассматривать как действительную функцию ξ =ξ(ω) , задан-
ную на пространстве элементарных исходов Ω, т.е. ξ : Ω → R .
ПримерU 1.U Монета брошена дважды. Пространство элементарных исходов имеет вид Ω={ГГ,ГР,РГ,РР}. Пусть ξ - число появлений герба. Таблица значений функции ξ =ξ(ω)
выглядит следующим образом:
ω |
ГГ |
ГР |
РГ |
РР |
ξ(ω) |
2 |
1 |
1 |
0 |
Дадим точное определение случайной величины.
Пусть (Ω, F, P) – вероятностное пространство. Всякая действительная функция ξ =ξ(ω) , заданная на Ω называется случайной величиной, если для каждого действительного
числа x множество
{ω :ξ(ω) < x} F ,
т.е. является случайным событием.
2. Случайная величина называется дискретной, если она принимает конечное или счётное число значений.
Например, случайная величина из примера 1 – дискретна, т.к. принимает 3 значения (т.е. конечное число): 2, 1, 0. Другим примером дискретной случайной величины может быть следующий. Монета бросается до первого появления герба. Случайная величина ξ – число
бросаний монеты. Эта случайная величина принимает счётное число значений.
Пусть дискретная случайная величина принимает значения x1 , x2 ,..., xn ,... c вероятно-
стями p1 , p2 ,..., pn ,... т.е.
pi = P{ω :ξ(ω) = xi } ,
и, очевидно, что: 1) pi ≥ 0; 2)∑pi =1 .
i
Множество пар чисел (xi , pi ) называют законом распределения дискретной случайной величины и обычно задают таблицей
xi |
x1B B |
х2B B |
… |
хnB B |
… |
pi |
p1B B |
p2B B |
… |
pnB B |
… |
ПримерU 2.U Закон распределения случайной величины из примера 1 будет иметь вид
xi |
0 |
1 |
2 |
pi |
1/4 |
1/2 |
1/4 |
Приведем теперь примеры наиболее известных дискретных случайных величин.
21
Пусть дискретная случайная величина – число успехов в схеме Бернулли. Тогда ξ
принимает целые значения от 0 до n и называется биномиальной случайной величиной, причем
pi = P(ξ = k) = Cnk pk qn−k .
Дискретная случайная величина, принимающая целые значения от 0 до ∞, называется
пуассоновской, если
pi = P(ξ = k) = λk e−λ , λ > 0 . k!
3. К числовым характеристикам случайных величин относят математическое ожидание, дисперсию, среднеквадратическое отклонение, ковариацию и коэффициент корреляции.
Математическим ожиданием дискретной случайной величины ξ , принимающей конечное количество значений n , называют число
n
Mξ = ∑xi pi .
i=1
Физический смысл математического ожидания – среднее значение, принимаемое случайной величиной.
ПримерU 3.U 1) Для дискретной случайной величины, рассмотренной в примерах 1, 2, математическим ожиданием будет число
Mξ = 0 14 +1 12 + 2 14 =1 .
2)Для биномиальной случайной величины Mξ = np .
3)Для пуассоновской случайной величины Mξ = λ .
Основные свойстваU математического ожиданияU следующие:
1. Математическое ожидание постоянной величины равно самой постоянной, т.е.
MС = С .
2. Постоянный множитель можно выносить за знак математического ожидания, т.е.
M (Сξ) = С Мξ .
3.Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий этих величин, т.е.
M (ξ +η) = Мξ + Мη .
Это свойство выполняется и для любого конечного числа случайных величин.
4.Если две случайные величины независимы, то математическое ожидание их произведения равно произведению математических ожиданий этих случайных величин, т.е.
M (ξ η) = Мξ Мη .
Это свойство выполняется и для любого конечного числа независимых случайных величин.
Дисперсией случайной величины называют число
Dξ = М(ξ − Мξ)2 = Мξ 2 −(Мξ)2 ,
где величина Mξ 2 – т.н. начальный момент второго порядка (подробнее о моментах в сле-
дующих лекциях).
Непосредственно для вычисления дисперсии дискретной случайной величины применяется формула
n |
n |
|
Dξ = ∑(xi − Mξ)2 pi = ∑xi |
2 pi −(Mξ)2 . |
|
i=1 |
i=1 |
|
ПримерU 3.U 1) Для дискретной случайной величины, рассмотренной в примерах 1, 2, 3, дисперсией будет число
22
Dξ = 02 14 +12 12 + 22 14 −12 = 12 .
2)Для биномиальной случайной величины Dξ = npq .
3)Для пуассоновской случайной величины Dξ = λ .
Основные свойстваU дисперсииU следующие: 1. Дисперсия постоянной величины равно нулю, т.е.
DС = 0 .
2. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат, т.е.
D(Сξ) = С2 Dξ .
3.Если две случайные величины независимы, то дисперсия их суммы равна сумме дисперсий этих случайных величин, т.е.
D(ξ +η) = Dξ + Dη .
Это свойство выполняется и для любого конечного числа независимых случайных величин.
Среднеквадратическим отклонением, или стандартным отклонением, случайной величины называют число
σξ =
Dξ .
Дисперсия и среднеквадратическое отклонение – неотрицательные величины. Они характеризуют средний разброс случайной величины относительно ее математического ожидания.
23
Лекция 6. СИСТЕМЫU СЛУЧАЙНЫХ ВЕЛИЧИН U
План
1.Закон распределения двух и более случайных величин.
2.Числовые характеристики системы дискретных случайных величин.
1.Рассмотрим две случайные величины ξ1B (B ω) и ξ2B (B ω), причем множества их значений дискретны, а именно: пусть
ξ1B (B ω) X = {х1B ,B х2B ,B …, хnB },B ξ2B (B ω) Y = {y1B ,B y2B ,B …, yBm}B .
Двумерной дискретной случайной величиной называют случайную величину ξ(ω) = = (ξ1B (B ω), ξ2B (B ω)), возможные значения которой есть пары чисел (xi , y j ), i =1, n; j =1, m. Закон
распределения двумерной дискретной случайной величины определяется указанием вероятностей каждой ее пары, т.е. заданием вероятностей
P{ξ1 (ω)= xi ,ξ2 (ω)= y j }= P(xi ,y j ).
Эти вероятности удовлетворяют следующим условиям:
1)P(xiB ,B yjB )B ≥ 0;
2) |
∑P(xi , y j ) |
= P{ξB (B ω) = yB }B |
= PB (yB B );B |
∑P(xi , y j ) |
= P{ξB (B ω) = xB }B |
= PB (xB B )B . |
||
|
2 |
j |
2 j |
1 |
i |
1 i |
||
|
i |
|
|
|
j |
|
|
|
Совокупности значений (yjB ,B P2B (yB jB )),B (xiB ,B P1B (xB iB ))B в данном случае называют частными
(маргинальными) законами распределения;
3)∑P(xi , y j ) = 1.
i, j
Понятие системы двух дискретных случайных величин обобщается на случай любого конечного числа дискретных случайных величин ξ1B (B ω), ξ2B (B ω), …, ξnB (B ω). В данном случае нужно указать вероятности
Р{ξ1B B = хiB ,B ξ2B B = yjB ,B …, ξnB B = zkB }B = P{xiB ,B yjB ,B …, zkB }B
для всех возможных i, j, …, k. Эта вероятность обладает свойствами, аналогичными свойст-
вам 1-3.
Две случайные величины ξ1B (B ω) и ξ2B (B ω) называются независимыми, если
Р(xiB ,B yjB )B = Р{ξ1B B = хiB ,B ξ2B B = yjB }B = Р{ξ1B B = хiB }B Р{ ξ2B B = yjB }B
для любых возможных значений xiB B и yjB .B
Аналогично этому можно дать определение независимости любого конечного числа
случайных величин. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
ПримерU |
1.U Пусть ξ и η – случайные величины, совместный закон распределения кото- |
|||||||||||||||||||||||
рых |
имеет вид |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
ξ |
|
|
|
η |
|
2 |
3 |
|
4 |
|
|
|
|
|
Сумма |
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
0,06 |
0,15 |
|
0,09 |
|
|
|
|
0,3 |
|
||||||||
|
|
|
|
2 |
|
|
|
0,14 |
0,35 |
|
0,21 |
|
|
|
|
0,7 |
|
||||||||
|
|
|
Сумма |
|
|
|
0,2 |
0,5 |
|
0,3 |
|
|
|
|
1 |
|
|
||||||||
|
Частные (маргинальные) законы распределения случайных величин ξ и η имеют вид |
||||||||||||||||||||||||
|
|
|
|
|
ξ |
|
1 |
|
|
2 |
|
|
η |
|
|
2 |
|
|
3 |
|
4 |
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
Р1B (B хiB )B |
|
0,3 |
|
|
0,7 |
|
|
P2B (yB jB )B |
|
|
0,2 |
|
|
0,5 |
|
0,3 |
|
|
|||
|
Случайные величины ξ и η являются независимыми, |
так как |
вероятность совместного |
||||||||||||||||||||||
появления любой пары (хiB ,B yjB )B может быть получена умножением соответствующих вероятностей их маргинальных законов, т.е.
Р(1,2) = 0,06 = Р1B (1)·B Р2B (2)B = 0,3·0,2;
Р(1,3) = 0,15 = Р1B (1)·B Р2B (3)B = 0,3·0,5
24
ит.д., то есть Р(хiB ,B yjB )B = P1B (xB iB )PB 2B (yB jB )B для любого хiB B и yjB .B
2.К числовые характеристикам системы дискретных случайных величин относят совместные характеристики двух случайных величин – ковариацию и коэффициент корреляции.
Ковариацией двух случайных величин называют число ].
Коэффициентом корреляции двух случайных величин называют число
ρ ξ η = cov(ξ,η) ( , ) σξση .
Коэффициент корреляции отражает тесноту линейной связи двух случайных величин. Основные свойстваU коэффициента корреляцииU следующие:
1.ρ(ξ,η) = ρ(η,ξ) .
2.−1 ≤ ρ(ξ,η) ≤1 .
3.ρ(ξ,ξ) =1, ρ(ξ,−ξ) = −1.
4.Если случайные величины линейно зависят друг от друга, то ρ(ξ,η) = ±1.
5.Если случайные величины независимы, то ρ(ξ,η) = 0 .
6.Если ρ(ξ,η) ≠ 0 , то случайные величины зависимы.
ПримерU 2.U Бросают две игральные кости. Пространство элементарных исходов данного эксперимента Ω={(1,1), (1,2), …, (6,6)}. Всего имеется 36 пар (элементов). Предположим, что каждому исходу (каждой точке Ω) ставится в соответствие максимум своих компонент, т.е. ξ = ξ(a, b) = mах (а, b ). Тогда ξ – случайная величина на Ω, имеющая множество значений {1, 2, 3, 4, 5, 6}. Составим вначале закон распределения этой случайной величины:
P1 = P{ξ =1}= P{(1,1)}= 361
P2 = P{ξ = 2}= P{(1,2);(2,1);(2,2)}= 363
P3 = P{ξ = 3}= P{(1,3);(2,3);(3,1);(3,2);(3,3)}= 365
P4 = P{ξ = 4}= P{(1,4);(2,4);(3,4);(4,1);(4,2);(4,3);(4,4)}= 367
Аналогично |
|
|
|
|
|
|
|
|
9 |
|
|
|
|
|
|
|
|
|
11 |
|
|
|
|
||||
|
|
|
Р5B B = Р{ξ = 5}= |
, |
|
Р6B B = Р{ξ = 6} = |
. |
|
|
||||||||||||||||||
|
|
|
36 |
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
36 |
|
|
|
|
||||
Таким образом, получаем закон распределения случайной величины ξ: |
|
||||||||||||||||||||||||||
|
ξ |
|
1 |
|
|
|
|
|
|
2 |
|
|
|
|
|
3 |
|
|
|
|
4 |
|
|
5 |
|
6 |
|
|
piB B |
|
1/36 |
|
|
|
|
|
3/36 |
|
|
|
|
|
5/36 |
|
|
|
7/36 |
|
|
9/36 |
|
11/36 |
|||
Вычислим математическое ожидание и дисперсию случайной величины ξ: |
|
||||||||||||||||||||||||||
|
|
M ξ = ∑ x |
|
|
p |
|
= 1 |
1 |
|
+ 2 |
3 |
|
+ ... + 6 11 = 4,47 |
|
|||||||||||||
|
|
|
6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
i |
|
|
|
|
|
|
|
|
|
|
|
36 |
|
|
|||||
|
|
|
i =1 |
|
|
|
|
36 |
|
|
|
36 |
|
|
|
|
|
|
|||||||||
|
|
D ξ = ∑6 |
(x |
i |
− M ξ)2 p |
i |
= α |
2 |
− α2 |
, |
|
|
|
|
|
|
|||||||||||
где |
i =1 |
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
1 |
|
|
|
3 |
|
|
|
|
|
11 = 21,97 . |
|
|||||||
|
|
|
6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
α2 |
= ∑xi2 pi |
=12 |
|
+ 22 |
|
+ ... + 62 |
|
||||||||||||||||||
|
|
36 |
36 |
|
|||||||||||||||||||||||
Тогда |
i = 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
36 |
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
σξ = |
|
|
|
|
|
|
|
||||||
|
|
Dξ = 21,97 − (4,47 )2 =1,99; |
Dξ = |
1,99 =1,41 . |
|
||||||||||||||||||||||
25
Рассмотрим теперь случайную величину η, равную сумме компонент, т.е. η(а, b) = а + b. Таким образом, η есть случайная величина, принимающая значения 2, 3, 4, …, 12. Распределение η имеет вид:
η |
2 |
3 |
4 |
|
5 |
6 |
|
|
|
7 |
|
|
|
8 |
|
9 |
|
|
|
10 |
|
11 |
12 |
||||
piB B |
1/36 |
2/36 |
3/36 |
|
4/36 |
5/36 |
|
|
6/36 |
|
|
5/36 |
|
4/36 |
|
3/36 |
|
2/36 |
1/36 |
||||||||
Тогда |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
11 |
|
|
1 |
|
|
|
2 |
|
|
|
|
|
|
2 |
|
|
|
|
1 |
|
|
|
||
|
|
|
Mη= ∑yi pi = 2 |
|
+3 |
|
|
+...+11 |
|
+12 |
|
= 7; |
|
||||||||||||||
|
|
|
|
|
|
|
|
36 |
|
|
|||||||||||||||||
|
|
|
i=1 |
|
36 |
|
|
36 |
|
|
|
|
|
|
|
|
36 |
|
|
|
|||||||
|
|
|
11 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Dη = ∑(yi − Mη)2 pi = α2 −α12 , |
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
где |
|
|
11 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
2 |
|
|
|
|
|
1 |
|
|
|
|
|
||||
|
|
|
α2 = ∑yi2 pi = 22 |
|
+32 |
|
|
+ ... +122 |
= 54,83 . |
|
|||||||||||||||||
|
|
|
|
|
36 |
36 |
|
||||||||||||||||||||
|
|
|
i=1 |
|
36 |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
Окончательно имеем
Dη = 54,83 − 72 = 6,83; σξ =
5,83 = 2,41.
Составим совместную функцию распределения Р( хiB ,B yjB )B случайных величин ξ и η, и за-
пишем ее в виде корреляционной таблицы:
η |
|
|
|
|
|
|
|
|
|
|
|
|
ξ |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
Сумма |
1 |
1/36 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
1/36 |
2 |
0 |
2/36 |
1/36 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
3/36 |
3 |
0 |
0 |
2/36 |
2/36 |
1/36 |
0 |
0 |
0 |
0 |
0 |
0 |
5/36 |
4 |
0 |
0 |
0 |
2/36 |
2/36 |
2/36 |
1/36 |
0 |
0 |
0 |
0 |
7/36 |
5 |
0 |
0 |
0 |
0 |
2/36 |
2/36 |
2/36 |
2/36 |
1/36 |
0 |
0 |
9/36 |
6 |
0 |
0 |
0 |
0 |
0 |
2/36 |
2/36 |
2/36 |
2/36 |
2/36 |
1/36 |
11/36 |
Сумма |
1/36 |
2/36 |
3/36 |
4/36 |
5/36 |
6/36 |
5/36 |
4/36 |
3/36 |
2/36 |
1/36 |
1 |
Поясним правило вычисления совместных вероятностей. Например, Р(3,5) есть вероятность того, что максимум выпавших очков равен 3, а сумма выпавших очков равна 5, т.е.
P(3,5)= P{ξ = 3,η = 5}= 362 .
Это следует из факта, что описанному выше событию А = {максимум равен 3, а сумма выпавших очков равна 5} благоприятствуют исходы (2,3) и (3,2). Очевидно
Р(А) = Р(3,5) = Р{(2,3); (3,2)} = 2 .
36
Вычислим ковариацию между случайными величинами ξ, η и коэффициент корреляции. Для этого вначале вычислим М(ξ·η). Очевидно,
M (ξ,η)= ∑xi y j P(xi ,y j )=1 2 |
1 |
+ 2 3 |
2 |
+ ... + 6 12 |
1 |
= 34,22 |
|||||
36 |
|
36 |
|||||||||
i,j |
|
|
|
36 |
|
|
|||||
и тогда |
|
|
|
|
|
|
|
|
|
|
|
cov(ξ, η) = M(ξ· η) – Mξ· Mη = 34,22 – 7 · 4,47 = 2,93; |
|
||||||||||
ρ(ξ,η)= |
cov(ξ,η) |
= |
|
2,93 |
|
= 0,86 . |
|
|
|||
σξ ση |
1,41 2,41 |
|
|
||||||||
|
|
|
|
|
|
|
|||||
26
Лекция 7. НЕПРЕРЫВНЫЕU СЛУЧАЙНЫЕ ВЕЛИЧИНЫ U
План
1.Непрерывная случайная величина. Функция распределения и ее свойства.
2.Плотность распределения и ее свойства.
3.Математическое ожидание, дисперсия, среднеквадратическое отклонение непре-
рывных случайных величин.
4.Начальные и центральные моменты случайной величины.
1.Случайные величины, возможные значения которых непрерывно заполняют неко-
торый промежуток, называются непрерывными случайными величинами.
ПримерU 1.U На отрезок [a,b] числовой оси наугад бросают точку, причем считают, что
все положения точки «одинаково возможны». Непрерывная случайная величина ξ – координата брошенной точки.
|
|
Функцией распределения случайной величины ξ называют функцию |
|||
|
|
|
|
Fξ (x) = P{ω :ξ(ω) < x} . |
|
1. |
|
СвойстваU |
функции распределения:U |
||
|
|
величины ξ в интервал [a,b) равна |
|||
Вероятность попадания случайной |
|||||
|
|
|
|
P{ω :ξ(ω) [a,b)} = F(b) − F(a) . |
|
|
|
Доказательство. Заметим, что |
|||
|
|
|
|
{ω :ξ(ω) [a,b)} ={ω :ξ(ω) < b} \ {ω :ξ(ω) < a} |
|
и |
|
|
|
{ω :ξ(ω) < a} {ω :ξ(ω) < b} . |
|
|
|
|
|
||
По свойству 3) вероятности: если А В то P(B \ A) = P(B) − P( A) . Тогда, учитывая, что |
|||||
|
|
|
|
P{ω :ξ(ω) < b} = F(b), P{ω :ξ(ω) < a} = F(a) , |
|
получим |
|
|
|
||
|
|
P{ω :ξ(ω) [a,b)} = P{ω :ξ(ω) < b} − P{ω :ξ(ω) < a} = F(b) − F(a) . |
|||
Что и требовалось доказать. |
|||||
2. |
0 ≤ F(x) ≤1, lim F(x) = 0, lim F(x) =1 . |
||||
|
|
x→−∞ |
x→+∞ |
||
3.Функция распределения – неубывающая функция на всей числовой оси.
4.Функция распределения непрерывна слева.
ПримерU 2.U Непрерывная случайная величина, описанная в примере 1, имеет функцию распределения
0, x ≤ a |
|||
|
−a |
|
|
x |
|
||
F(x) = |
|
|
, a < x ≤ b |
|
|
||
b |
−a |
|
|
1, x > b
Эта функция распределения определяет т.н. равномерное распределение на отрезке [a,b] . График такой функции распределения изображен на рис. 1.
27
Рис. 1. График функции распределения случайной величины, равномерно распределенной на отрезке [1,3] .
|
|
2. Пусть ξ – случайная величина с функцией распределения F(x) . Говорят, что слу- |
||||||||
чайная величина имеет плотность распределения |
f (x) , если для всех x выполняется равен- |
|||||||||
ство |
|
|
|
|
|
|
|
|
||
|
|
|
F(x) = ∫x |
f (z)dz . |
|
|
|
|||
|
|
|
|
−∞ |
|
|
|
|
|
|
|
|
Если f (x) является непрерывной функцией, то F(x) |
дифференцируема и |
|||||||
|
|
|
′ |
|
|
|
|
|
|
|
|
|
|
F (x) = f (x) . |
|
|
|
|
|||
|
|
СвойстваU |
плотности распределенияU случайной величины ξ следующие: |
|||||||
|
|
|
|
|
|
|||||
1. |
Плотность распределения f (x) – неотрицательная функция. |
′ |
|
|||||||
|
|
Доказательство. Так как F(x) – неубывающая функция, то |
|
|||||||
|
|
F (x) ≥ 0 , т.е. плотность |
||||||||
распределения f (x) – неотрицательная. |
|
|
|
|
|
|
||||
2. |
Вероятность попадания случайной величины ξ в интервал [a,b) |
равна |
||||||||
|
|
|
P{ω :ξ(ω) [a,b)} = ∫b |
f (x)dx . |
|
|
||||
|
|
|
|
|
|
a |
|
|
|
|
|
|
Доказательство. По свойству 1 функции распределения и из определения плотности |
||||||||
имеем |
|
|
|
|
|
|
|
|
||
|
|
P{ω :ξ(ω) [a,b)} = F(b) − F(a) = ∫b |
f (x)dx − ∫a |
f (x)dx = ∫b |
f (x)dx . |
|||||
|
|
|
|
|
−∞ |
|
−∞ |
a |
|
|
Что и требовалось доказать. 3. +∞∫ f (x)dx =1.
−∞
Доказательство. По свойству 2 функции распределения и из определения плотности
имеем
|
|
|
|
+∞ |
|
|
|
|
∫ f (x)dx = F(+∞) =1. |
|
|
|
|
−∞ |
Свойство |
доказано. Геометрически это означает, что площадь, ограниченная кривой |
|||
y = f (x) |
и осью OX равна единице. |
|||
|
ПримерU |
3.U Для случайной величины ξ , равномерно распределенной на отрезке [a,b] , |
||
|
|
|
|
|
плотность распределения имеет вид
28
|
1 |
, x (a,b) |
|
|
|
|
||
f (x) = b −a |
|
|
0, x (a,b)
График такой функции распределения изображен на рис. 2.
Рис. 2. График плотности распределения случайной величины, равномерно распределенной на отрезке [1,3] .
3. Пусть непрерывная случайная величина ξ имеет плотность распределения f (x) . Математическим ожиданием этой случайной величины называют конечное число
Mξ = +∞∫xf (x)dx .
−∞
ЗамечаниеU 1.U Для существования математического ожидания непрерывной случайной величины необходимо и достаточно, чтобы
+∞∫ x f (x)dx < ∞ .
−∞
В противном случае говорят, что математическое ожидание непрерывной случайной величины ξ не существует.
ПримерU 4.U Математическое ожидание случайной величины ξ , имеющей равномерное
распределение на отрезке [a,b] равно
+∞ |
b |
1 |
|
1 x2 |
|
b |
|
b2 |
−a2 |
|
a +b |
|
|||
|
|
|
|
|
|||||||||||
Mξ = ∫xf (x)dx = ∫x |
|
dx = |
|
|
|
|
|
a |
= |
|
|
= |
|
. |
|
b −a |
b −a 2 |
|
2(b −a) |
2 |
|||||||||||
−∞ |
a |
|
|
|
|
|
|||||||||
В лекции о дискретных случайных величинах дисперсией называли число
Dξ = М(ξ − Мξ)2 = Мξ 2 −(Мξ)2 .
Это определение имеет силу и для непрерывных случайных величин. Теперь оно может быть представлено в следующем виде.
Пусть непрерывная случайная величина |
ξ имеет плотность распределения f (x) . |
Дисперсией этой случайной величины называют конечное число |
|
+∞ |
+∞ |
Dξ = ∫(x − Mξ)2 f (x)dx = |
∫x2 f (x)dx −(Mξ)2 . |
−∞ |
−∞ |
+∞
Величина Mξ 2 = ∫x2 f (x)dx – т.н. начальный момент второго порядка.
−∞
ЗамечаниеU 2.U Свойства математического ожидания, дисперсии и коэффициента корреляции имеют место как для дискретных, так и для непрерывных случайных величин.
29
ПримерU 5.U Дисперсия случайной величины ξ , имеющей равномерное распределение на отрезке [a,b] равно
+∞ |
|
2 |
|
|
|
2 |
|
b |
|
2 |
1 |
|
|
|
(a +b)2 |
|
1 |
|
x |
3 |
|
|
b |
|
(a |
+b)2 |
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
Dξ = ∫x |
|
|
f (x)dx − |
(Mξ) |
|
= ∫x |
|
|
|
|
dx − |
|
|
|
|
|
= |
|
|
|
|
|
|
|
|
a |
− |
|
|
= |
||||
|
|
|
|
|
b −a |
|
|
4 |
|
|
|
b −a |
3 |
|
|
|
4 |
|||||||||||||||||
−∞ |
|
|
|
|
|
|
|
|
a |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
b3 −a3 |
|
(a +b)2 |
(b −a)(b2 +ba + a2 ) |
|
a2 + 2ab +b2 |
|
|
|
|||||||||||||||||||||||
= |
|
|
|
− |
|
|
|
= |
|
|
|
|
|
|
|
|
|
|
|
− |
|
|
|
|
|
|
|
|
|
|
= |
|
|
|
|
3(b −a) |
4 |
|
|
|
|
|
|
3(b − a) |
|
|
|
|
|
4 |
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
= |
4b2 + 4ab + 4a2 − |
3a2 − |
6ab −3b2 |
= |
b2 |
−2ab + a2 |
= |
|
(b −a)2 |
. |
|
|||||||||||||||||||||||
|
|
|
|
|
12 |
|
|
|
|
|
|
|
|
|
12 |
|
|
12 |
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
Среднеквадратическое отклонение этой случайной величины, соответственно, равно
σξ = Dξ = b2−3a .
4.Теперь речь пойдет о начальных и центральных моментах случайной величины ξ ,
которые в свое время ввел русский математик П. Л. Чебышев.
Начальным моментом порядка r принято называть число
νr = Mξ r .
Центральным моментом порядка r называют число
µr = M (ξ − Мξ)r .
Если ξ – дискретная случайная величина, то ее моменты будут определяться выражениями
+∞ |
+∞ |
νr = ∑xi r pi , µr = ∑(xi − Mξ) r pi . |
|
i=1 |
i=1 |
В случае, когда ξ – непрерывная случайная величина, имеем
νr = +∞∫x r f (x)dx, µr = +∞∫(x − Mξ) r f (x)dx .
−∞ −∞
Очевидно, что
Мξ =ν1 , Dξ = µ2 .
Между центральными и начальными моментами существует простая связь. Приведём её для первых четырех моментов:
µ1 = 0;
µ2 =ν2 −ν12 ;
µ3 =ν3 −3ν2ν1 + 2ν13 ;
µ4 =ν4 −4ν3ν1 +6ν2ν12 −3ν14 .
30
Лекция 8. ПРИМЕРЫU НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ СЛУЧАЙНЫХ ВЕЛИЧИН U
План
1.Нормальное распределение и его свойства.
2.Распределение Коши.
3.Показательное распределение.
Вэтой лекции пойдет речь о наиболее важных, с практической точки зрения, непрерывных распределениях случайных величин. Одно из них – равномерное, было подробно рассмотрено в предыдущей лекции. Для упрощения расчетов стоимости страховых полисов, например, полагают, что остаточное время жизни клиента распределено равномерно. Исключительно важную роль играет нормальное распределение.
1. Нормальным распределением N(a,σ) с параметрами a и σ P называетсяP распреде-
ление с плотностью равной
|
1 |
e− |
1 |
(x−a )2 |
f (x) = |
2 |
σ 2 . |
||
|
2πσ |
|
|
|
Случайную величину ξ с такой плотностью распределения называют нормально распреде-
ленной или гауссовской. Параметр a нормального распределения N (a,σ) |
равен его матема- |
||
тическому ожиданию, а параметр σ P – стандартному отклонению: Mξ = а, |
Dξ =σ |
2 |
. График |
|
|||
P |
|
|
|
плотности распределения изображен на рис. 1. Заметим, что нормальное распределение N (0,1) называют нормированным или стандартным, а сама плотность становится уже из-
вестной (см. лекцию 4) функцией Лапласа
f (x) =ϕ(x) = |
1 |
e−x2 / 2 . |
|
2π |
|
Рис. 1. График плотности распределения нормально распределенной N(5,2) случайной величины.
Основные свойстваU нормального распределенияU следующие:
1.Вероятность попадания нормально распределенной N(a,σ) случайной величины ξ в интервал [α, β) равна
|
β −а |
|
α −а |
|||
P{ω :ξ(ω) [α, β)} = Φ |
|
|
−Φ |
|
, |
|
σ |
σ |
|||||
|
|
|
|
|||
где Φ(x) – интегральная функция Лапласа (см. лекцию 4).
31
2.Вероятность того, что абсолютное отклонение нормально распределенной N (a,σ) случайной величины ξ от ее математического ожидания будет меньше заданного положительного числа δ , равна
P{ω : ξ(ω) −а <δ} = 2Φ δ .σ
В частности, при a = 0 , имеем
P{ω : ξ(ω) <δ} = 2Φ δ .
σ
Следует заметить, что, чем меньше параметр σ , тем более “вытянутым” по вертикали выглядит график плотности нормального распределения. На рис. 2 показано, что если две случайные величины нормально распределены и a = 0 , то вероятность принять значение, принадлежащее интервалу (−δ,δ) , больше у той величины, которая имеет меньшее значение
σ . Этот факт полностью соответствует вероятностному смыслу среднеквадратического отклонения σ , которое характеризует рассеяние случайной величины вокруг ее математического ожидания.
Рис. 2. Вероятность принять значение, принадлежащее интервалу (−δ,δ) для нормально распределенных N(0,1) и N(0,2) случайных величин.
3.Если случайная величина распределена нормально, то абсолютная величина ее отклонения от математического ожидания не превосходит утроенного среднеквадратического отклонения, т.е.
P{ω : ξ(ω) − а < 3σ} ≈1.
Это свойство называют правилом трех сигм. На практике его применяют так: если правило выполняется, то есть основание предполагать, что изучаемая величина распределена нормально; в противном случае нормального распределения нет.
Важная роль этого распределения объясняется тем, что при весьма широких предположениях распределение суммы большого числа случайных величин оказывается близким к нормальному распределению. Например, считается, что по нормальному закону распределена величина суммарного иска клиентов к страховой компании при краткосрочном страховании жизни.
2. Случайная величина ξ подчиняется распределению Коши, если ее плотность распределения f (x) (рис. 3) и функция распределения F(x) (рис. 4), cоответственно, имеют вид:
32
f (x) = |
1 1 |
. |
|||
|
|
|
|||
π 1+ x2 |
|||||
|
|
||||
Рис. 3. График плотности распределения Коши.
F(x) = 12 + π1 arctgx .
Рис. 4. График функции распределения Коши.
Огюстен Луи Коши (1789-1857) – французский математик. Практическая интерпретация распределения Коши следующая. Пусть в точке с координатами (0,1) находится источ-
ник излучения частиц. Все направления движения частиц равновозможны. Случайная величина ξ – координата точки пересечения частицы с осью OX . Она имеет распределение Ко-
ши.
Математического ожидания случайной величины ξ , имеющей распределение Коши,
не существует. Это связано с физической подоплёкой данного распределения, а математически подтверждается тем фактом, что
+∞∫ |
|
x |
|
f (x)dx = |
1 |
+∞∫ |
|
|
|
|
dx = +∞ . |
|||
|
|
x |
|
|
||||||||||
|
|
|
||||||||||||
|
|
|||||||||||||
π |
1 |
+ x2 |
||||||||||||
|
|
|
||||||||||||
−∞ |
|
−∞ |
|
|
|
|
|
|
||||||
33
3. Случайная величина ξ имеет показательное (экспоненциальное) распределение с
параметром λ , если ее плотность распределения |
f (x) (рис. 5) и функция распределения |
F(x) (рис. 6), cоответственно, равны: |
|
0, x ≤ 0, |
|
f (x) = |
> 0. |
λe−λx , x |
|
|
|
Рис. 5. График плотности распределения показательной случайной величины (параметр λ = 2 ).
0, x ≤ 0,
F(x) = 1−e−λx , x > 0.
Рис. 6. График функции распределения показательной случайной величины (параметр
λ = 2 ).
Математическое ожидание и дисперсия случайной величины ξ , имеющей показате-
льное распределение, соответственно, равны Mξ = λ1 , Dξ = λ12 . Показательно распределен-
ная случайная величина может принимать только положительные значения. Показательному распределению подчинено время распада атомов различных элементов. При этом число
T = λ1 – математическое ожидание, носит название среднего времени распада. Практика по-
казывает, что показательное распределение имеют и другие физические величины, например отрезки времени между соседними поступлениями вызовов на телефонную станцию. В страховых расчетах, часто предполагают, что величины исков к страховой компании распределены показательно. Это означает наличие большого числа небольших исков и возможность хоть и редких, но очень больших исков.
35
Лекция 9. ЗАКОНU БОЛЬШИХ ЧИСЕЛ U
План
1.Неравенство Чебышева.
2.Теорема Чебышева, ее сущность и значение для практики.
3.Теорема Бернулли. Необходимый объем наблюдений в схеме Бернулли.
4.Центральная предельная теорема.
1.Как известно, нельзя заранее предвидеть, какое из возможных значений примет случайная величина в результате испытания. Казалось бы, если мы располагаем такими скромными сведениями о каждой случайной величине, то ничего определенного мы не сможем сказать и о сумме достаточно большого числа случайных величин. На самом деле это не так. Оказывается, что при достаточно широких условиях сумма многих случайных величин почти утрачивает случайный характер и ведет себя закономерно. Для обоснования этого факта понадобится неравенство, доказанное русским математиком и механиком Пафнутием Львовичем Чебышевым (1821-1894).
НеравенствоU Чебышева (первая форма).U Какова бы ни была случайная величина ξ ,
которая может принимать только неотрицательные значения и имеет конечное математическое ожидание, всегда имеет место неравенство
P{ξ ≥1} ≤ Мξ .
Доказательство. Докажем неравенство Чебышева для непрерывной случайной величины ξ с плотностью распределения f (x) . По определению,
Мξ = +∞∫xf (x)dx .
−∞
Поскольку подынтегральное выражение неотрицательно, то при уменьшении области интегрирования интеграл может только уменьшиться. Поэтому
|
Мξ ≥ +∞∫xf (x)dx . |
Т.к. ξ ≥1, то |
1 |
|
|
Мξ ≥ +∞∫xf (x)dx ≥ +∞∫ f (x)dx = P{ξ ≥1} . |
|
1 |
1 |
Что и требовалось доказать. Аналогично неравенство Чебышева доказывается и для дискретного случая, при этом нужно только заменить интеграл на сумму.
От доказанного неравенства Чебышева можно перейти к более общему неравенству. СледствиеU 1.U Пусть случайная величина ξ принимает только неотрицательные значе-
ния и имеет конечное математическое ожидание. Тогда для любого числа α > 0 имеет место
неравенство
P{ξ ≥α} ≤ Мαξ .
Доказательство. Применяя неравенство Чебышева, получим
ξ |
|
|
ξ |
|
Мξ |
|
|
P{ξ ≥α} = P |
≥1 |
≤ M |
= |
|
. |
||
α |
|||||||
α |
|
|
α |
|
|
||
Следствие доказано.
ЗамечаниеU 1.U Неравенство Чебышева имеет смысл применять при α > Мξ . В противном случае оно дает тривиальную оценку.
Рассмотрим случайную величину ξ , имеющую дисперсию Dξ =σ 2 . Уже отмечалось, что дисперсия характеризует разброс случайной величины ξ относительно ее математического ожидания Мξ . Однако с точки зрения исследователя разброс естественнее характери-
36
зовать вероятностью P{ξ − Mξ ≥ ε} отклонения случайной величины ξ от Мξ на величину,
большую некоторого заданного ε . Следующее неравенство позволяет оценить эту вероятность через дисперсию.
НеравенствоU Чебышева (вторая форма).U Для каждой случайной величины ξ , имею-
щей дисперсию Dξ =σ 2 , при любом ε > 0 справедливо неравенство
P{ξ − Mξ ≥ ε} ≤ σ 2 .
ε2
Доказательство. Докажем неравенство Чебышева для непрерывной случайной величины ξ с плотностью распределения f (x) . По определению
+∞
Dξ = ∫(x − Mξ)2 f (x)dx .
−∞
Поскольку подынтегральное выражение неотрицательно, то при уменьшении области интегрирования интеграл может только уменьшиться. Поэтому
|
|
|
|
|
Mξ−ε |
|
|
+∞ |
|
|
|
|
|
|
|
Dξ ≥ ∫(x − Mξ)2 f (x)dx + ∫(x − Mξ)2 f (x)dx . |
|||||
|
|
|
|
|
−∞ |
|
|
Mξ+ε |
|
|
Т.к. |
|
ξ − Mξ |
|
≥ ε (ξ − Mξ)2 ≥ ε2 , то |
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
Mξ−ε |
+∞ |
|
Mξ+ε |
(1− P{Mξ −ε <ξ < Mξ +ε})= |
||
|
|
Dξ ≥ ε2 ∫ f (x)dx +ε2 ∫ f (x)dx = ε2 |
1 |
− |
∫ f (x)dx |
= ε2 |
||||
|
|
|
|
−∞ |
Mξ+ε |
|
|
Mξ−ε |
|
|
= ε 2 (1− P{−ε <ξ − Mξ < ε})= ε 2 (1− P{ξ − Mξ < ε})= ε 2 P{ξ − Mξ ≥ ε}.
Откуда и следует неравенство Чебышева
P{ξ − Mξ ≥ ε} ≤ σ 2 ,
ε2
или, для противоположного события, другой его вид
P{ξ − Mξ < ε} ≥1−σ 2 .
ε2
Аналогично неравенство Чебышева доказывается и для дискретного случая, при этом нужно только заменить интеграл на сумму.
ЗамечаниеU 2.U Неравенство Чебышева имеет смысл применять при ε >σ . В противном случае оно дает тривиальную оценку.
2. Рассмотрим теперь исключительно важный для задач практики результат. ТеоремаU Чебышева (закон больших чисел).U Пусть ξ1 ,ξ2 ,...,ξn ,... – попарно независи-
мые случайные величины с конечными дисперсиями, не превышающими константу C . Тогда
|
|
1 |
n |
1 |
n |
|
|
n→∞→1 . |
|
|
|||||||
P |
|
∑ξi − |
∑Mξi |
|
< ε |
|||
|
|
n i=1 |
n i=1 |
|
|
|
||
|
|
|
||||||
Т.е. вероятность того, что абсолютное отклонение среднего арифметического попарно независимых случайных величин от среднего арифметического их математических ожиданий не превысит сколь угодно малого положительного числа ε , будет как угодно близка к единице, если число случайных величин достаточно велико.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
37 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
n |
|
|
|
|
Доказательство. Т.к. среднее арифметическое случайных величин |
∑ξi тоже являе- |
|||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n i=1 |
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
n |
|
= |
1 |
n |
|
|
и дисперсией |
||||
тся случайной величиной с математическим ожиданием М |
∑ξi |
|
|
∑Мξi |
|||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n i=1 |
|
|
n i=1 |
|
|
|
|
|||||
1 |
n |
|
|
1 |
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
D |
∑ξi |
= |
|
|
|
∑Dξi |
, то применимо неравенство Чебышева: |
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
n |
2 |
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||
n i=1 |
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
n |
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∑Dξi |
|
|
|
|
∑C |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
1 |
n |
|
|
1 |
n |
|
|
|
|
|
|
2 |
|
|
|
|
|
nC |
|
|
|
|
C |
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n i=1 |
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
P |
|
ξ |
|
− |
|
Mξ |
|
< ε ≥1− |
|
|
≥1− |
|
|
=1− |
|
=1− |
|
. |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
n |
∑i=1 |
i |
|
|
n |
∑i=1 |
|
i |
|
|
|
|
|
|
|
ε2 |
|
|
|
|
|
|
n2ε2 |
|
n2ε2 |
|
|
|
|
nε |
2 |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
Перейдя к пределу при n → ∞ в левой и правой части неравенства, получим |
|
|
|
|
|||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
1 |
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
lim P |
|
|
1 |
∑i=1 |
ξ |
i |
− |
∑i=1 |
Mξ |
i |
< |
ε ≥1 . |
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
n |
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n→∞ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
Наконец, учитывая, что вероятность не может превышать единицу, имеем |
|
|
|
|
|||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
n |
|
|
|
− 1 |
n |
Mξ |
|
|
< |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
lim P |
|
ξ |
|
|
|
|
ε =1 . |
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n→∞ |
|
|
n |
∑i=1 |
|
|
i |
|
n |
∑i=1 |
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
Теорема доказана.
В формулировке теоремы Чебышева предполагалось, что случайные величины имеют различные математические ожидания. На практике часто бывает, что случайные величины имеют одно и то же математическое ожидание. Имеет место следующее следствие из теоремы Чебышева.
СледствиеU 2.U Пусть ξ1 ,ξ2 ,...,ξn ,... – попарно независимые случайные величины, име-
ющие одно и то же математическое ожидание a , и их дисперсии не превышают константу C . Тогда
|
|
|
1 |
n |
|
|
|
|
|
|
|
||||||
P |
|
|
∑ξi −а |
|
< ε |
n→∞→1. |
||
|
||||||||
|
|
n i=1 |
|
|
|
|||
|
|
|
||||||
Сущность теоремы Чебышева выражается в следующем: среднее арифметическое достаточно большого числа независимых случайных величин, дисперсии которых не превышают константу C , утрачивает характер случайной величины. Объяснить это можно тем, что отклонения каждой из величин от своих математических ожиданий могут быть как положительными, так и отрицательными, а в среднем арифметическом они взаимно погашаются.
Выясним практическое значение теоремы Чебышева. Обычно некоторую физиче-
скую величину измеряют несколько раз и среднее арифметическое результатов измерений считают искомым значением. При каких условиях этот способ измерения можно считать правильным? Отвечает на этот вопрос как раз теорема Чебышева, или следствие 2. Действительно, будем считать результаты измерений случайными величинами ξ1 ,ξ2 ,...,ξn . Тогда
следствие 2 из теоремы Чебышева применимо, если: 1) они попарно независимы, 2) имеют одинаковые математические ожидания, 3) дисперсии ограничены константой C . Первое требование выполняется, если результат каждого измерения не зависит от результатов остальных. Второе требование выполняется, если измерения проводятся без систематических (т.е. одного знака) ошибок. В этом случае математические ожидания всех случайных величин одинаковы и равны истинному размеру a . Третье требование выполняется, если прибор обеспечивает определенную точность измерений. Хотя при этом результаты измерений различны, но рассеяние их ограничено. Если все требования выполнены, то при достаточно большом числе измерений можно считать, что среднее арифметическое точно характеризует измеряемую величину.
38
На теореме Чебышева основан применяемый в статистике выборочный метод. Его суть состоит в том, что по сравнительно небольшой случайной выборке судят о всей совокупности исследуемых объектов. Например, о качестве всего зерна судят по небольшой его пробе. Число наудачу отобранных зерен мало сравнительно со всей массой зерна, но само по себе оно достаточно велико. Для практических нужд теорема Чебышева имеет огромное значение.
3. Рассмотрим частный случай теоремы Чебышева. Его получил Якоб I Бернулли в 1713 г. Результат был назван законом больших чисел и положил начало теории вероятностей как науки.
Проводится серия независимых испытаний (схема Бернулли), в каждом из которых может быть успех с вероятностью p или неудача с вероятностью q . Определим последова-
тельность случайных величин следующим образом: пусть ξi =1, если в i -м испытании наступает успех, и ξi = 0 , если в i -м испытании наступает неудача. Каждая из таких случайных величин имеет закон распределения
xk |
0 |
1 |
pk |
q |
p |
Тогда ξ1 ,ξ2 ,...,ξn есть последовательность независимых одинаково распределенных случайных величин с Мξi = p, Dξi = pq . Случайная величина
wn = 1 ∑n ξi .
n i=1
представляет собой относительную частоту (или частость) наступления успеха в n испытаниях. Все условия следствия 2 из теоремы Чебышева выполнены, поэтому справедливо следующее утверждение.
ТеоремаU |
Бернулли.U Для любого ε > 0 |
|
< ε} →1. |
|
|
P{ |
w − p |
|
|
|
|
|||
|
|
n |
|
n→∞ |
Смысл этого утверждения состоит в том, что введенное нами определение вероятности соответствует интуитивному пониманию вероятности как предела относительной частоты.
При изложении закона больших чисел часто произносятся слова «достаточно большое число независимых случайных величин» или «достаточно большое число измерений (наблюдений)». Естественным образом напрашивается вопрос: «достаточно большое» – это сколько? Для схемы Бернулли на этот вопрос можно ответить, опираясь на неравенство Чебышева.
Рассмотрим следующее неравенство
P{wn − p < ε}≥1−α .
Положительное число ε называют точностью, а положительное число α – надежностью. Оказывается, можно приближенно определить необходимый объем наблюдений n , гарантирующий заданные точность ε (например, ε = 0,1 ) и надежность α (например, α = 0,99 ). На-
дежность часто измеряют в процентах и, например, при α = 0,99 , говорят, что надежность
составляет 99%.
Испытания в схеме Бернулли независимы, поэтому для дисперсии относительной частоты wn будет верным равенство
|
1 |
n |
|
|
1 |
n |
npq |
|
pq |
|
||
D(wn ) = D |
|
∑ξi |
= |
|
|
∑Dξi = |
|
2 |
= |
|
. |
|
|
n |
2 |
n |
n |
||||||||
n i=1 |
|
|
|
i=1 |
|
|
|
|||||
Используя вторую форму неравенства Чебышева и предыдущие рассуждения, получим
39
P{ |
w |
− p |
|
< ε}≥1− |
pq |
≥1−α . |
|
||||||
|
|
|||||
|
n |
|
|
|
nε2 |
|
|
|
|
|
|
||
Следовательно, n ≥ εpq2α . Известно, что всегда pq ≤ 14 , поэтому n ≥ 4ε12α .
УтверждениеU .U Пусть проводится серия независимых испытаний, соответствующая схеме Бернулли. Для того, чтобы гарантировать заданные точность ε и надежность α , необ-
ходимый объем наблюдений n должен быть не меньше числа 4ε12α .
Например, если заданы точность ε = 0,1 и надежность α = 0,99 , то
n ≥ |
1 |
≈ 25,25 . |
4 (0,1)2 0,99 |
Т.к. n – целое число, то необходимый объем наблюдений должен быть не менее 26.
4. Остановимся теперь на центральной предельной теореме, которую доказал русский математик и механик Александр Михайлович Ляпунов (1857-1918). Рассмотрим следующую сумму:
Sn = ξ1 +ξ2 +... +ξn ,
где ξ1 ,ξ2 ,..., ξn – независимые случайные величины, число которых n неограниченно возрастает. Обозначим через Zn т.н. нормированное уклонение суммы Sn , т.е. величину
Zn = Sn − MSn .
DSn
Введем функцию распределения случайной величины Zn :
Fn (z) = P{Zn < z}.
ЦентральнаяU предельная теорема (А. М. Ляпунов).U Если при n → ∞ выполняется ус-
ловие
n
∑M ξi − Mξi 3
lim |
i=1 |
|
|
→ 0 , |
|
(DSn )3 |
|
||
n→∞ |
2 |
|
||
то для любых действительных чисел z имеет место равенство
|
|
1 |
z |
|
1 |
|
lim F |
(z) = N (z;0;1) = |
e−t2 |
/ 2 dt = |
+ Φ(z) , |
||
n→∞ n |
|
2π |
−∞∫ |
|
2 |
|
где Φ(z) – интегральная функция Лапласа (см. лекцию 4).
Центральная предельная теорема объясняет значимость нормального распределения. Оно обычно возникает в явлениях, подверженных большому количеству малых случайных воздействий. Само название «нормальный закон» объясняется широким распространением, которое он находит в практической сфере деятельности человека.
Сформулированная теорема Ляпунова часто применяется и для одинаково распределенных случайных величин.
СледствиеU 3.U Пусть ξ1 ,ξ2 ,..., ξn – независимые одинаково распределенные случайные величины, т.е. Mξi = a, Dξi =σ 2 , число которых n неограниченно возрастает. Тогда
lim P |
S |
n |
−na |
< z |
|
= |
1 |
z |
e−t |
2 |
/ 2 dt . |
|
|
||||||||||||
|
nσ |
2 |
|
2π |
|
|
||||||
|
|
|
|
−∞ |
|
|
||||||
n→∞ |
|
|
|
|
|
|
∫ |
|
|
|
||
ПримерU 1.U В этой лекции уже рассматривалась схема Бернулли, в рамках которой имеется ξ1 ,ξ2 ,..., ξn – последовательность независимых одинаково распределенные случай-
40
ных величин с Mξi = p, Dξi = pq . Случайная величина Sn = ξ1 +ξ2 +... +ξn – суммарное число успехов в n испытаниях. Тогда в силу следствия 3 имеем
lim P |
|
< z |
|
= |
1 |
z |
e−t |
2 |
/ 2 dt . |
Sn −np |
|
∫ |
|
||||||
n→∞ |
|
|
|
|
2π |
|
|
|
|
|
npq |
|
|
|
−∞ |
|
|
||
|
|
|
|
|
|
|
|
|
|
А это не что иное, как интегральная теорема Муавра-Лапласа.
ПримерU 2.U Для определения размеров V некоторого объекта проводят n измерений V1 ,V2 ,...,Vn . Каждое измерение производится с некоторой случайной ошибкой ξi , т.е.
Vi =V +ξi .
Предполагая, что ошибки измерений ξi независимы и одинаково распределены с математическим ожиданием Мξi = 0 (измерения не содержат систематических ошибок) и дисперсией
Dξi =σ 2 , оценим вероятность того, что средний размер |
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
= |
V1 +V2 + ... +Vn |
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
V |
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
будет отличаться от истинного размера V не более, чем на ε . Тогда |
|
|
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
V +V |
|
+... |
+V |
|
− nV |
|
|
|
|
|
||||||||||
P{V −V |
< ε}= |
P −ε < |
|
1 |
|
2 |
|
|
|
|
|
|
n |
|
|
|
|
< ε |
|
= |
|||||||||||
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
n |
< |
V +V +... +V |
|
|
−nV |
< |
ε |
n |
|
|
|
|||||||||||||||||
|
= P −ε |
σ 2 |
|
1 |
2 |
|
|
|
n |
|
|
|
σ 2 |
. |
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
nσ 2 |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
Будем считать, что число измерений n |
велико. Согласно следствию 3 из центральной пре- |
||||||||||||||||||||||||||||||
дельной теоремы, случайная величина V1 +V2 +... +Vn |
− nV |
|
распределена приближенно по |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
nσ 2 |
|
|
|
|
|
|
|
|
|
|
|
|
||||
стандартному нормальному закону. Следовательно |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
1 |
ε n / σ 2 |
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
−t2 / 2 |
|
|
|
|
|
|
|
|
|
|||||||||
|
P{V −V |
|
}≈ |
|
|
∫e |
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
< ε |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ε |
|
2 |
|
|
|
||||||||||
|
|
2π |
|
|
|
|
|
dt = 2Φ |
σ |
, |
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
−ε n / σ 2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
что, кстати, соответствует свойству 2 нормального распределения (см. лекцию 8).
41
ЧАСТЬ I I МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Лекция 1. ЗАДАЧИU И ОСНОВНЫЕ ПОНЯТИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ U
План
1.Задачи и основные понятия математической статистики.
2.Основные понятия математической статистики.
3.Распределение выборки.
1.Основной задачей математической статистики является получение научно обос-
нованных выводов о массовых явлениях и процессах из данных наблюдения или эксперимента. Эти выводы представляют собой утверждения об общих вероятностных характеристиках данного процесса, т.е. о вероятностях, законах распределения, математических ожиданиях и т.д.
ПримерU 1.U Рассмотрим технологический процесс по изготовлению подшипников. Пусть мы располагаем некоторым материалом (обычно довольно ограниченным) о числе дефектных подшипников или о результатах испытаний на разрушение в случайно выбранной партии продукции. Собранные нами данные несут информацию о качестве подшипников в конкретной партии. Но на основе той же информации хотелось бы охарактеризовать весь технологический процесс, т.е. оценить вероятность изготовления дефектного подшипника, среднюю продолжительность работы, распределение прочности и т.д. Таким образом, мы пытаемся по небольшой, случайно отобранной группе изделий сделать выводы о производстве в целом. Разумеется, надо быть убежденным в том, что выбранная группа достаточно хорошо представляет пропорции всех выпускаемых подшипников.
Математическая статистика изучает, как и теория вероятностей, случайные явления и использует ту же терминологию. Однако задачи, решаемые математической статистикой, носят специфический характер. Теория вероятностей исследует явления, заданные полностью их моделью, и выявляет еще до опыта те статистические закономерности, которые будут иметь место после его проведения. В математической статистике вероятностная модель в точности неизвестна. Недостающую информацию восстанавливают по имеющимся статистическим данным, полученным после проведения опыта.
Покажем различие между теорией вероятностей и математической статистикой на примере схемы Бернулли.
ПримерU 2.U Схему Бернулли можно трактовать как подбрасывание несимметричной монеты с вероятностью выпадения «герба» (успеха) p и «решки» (неудачи) с вероятностью
q =1− p . В теории вероятностей p и q задаются извне. Методы теории вероятностей позволяют, зная p и q , определить, например, вероятность выпадения k «гербов» в n испытаниях. В математической статистике p и q неизвестны заранее, но мы можем произвести
серию подбрасываний монеты. Цель проведения испытаний может заключаться, например, в определении p и q . Таким образом, задачи математической статистики, в определенном
смысле, обратны задачам теории вероятностей.
2. К основным понятиям математической статистики относятся: генеральная совокуп-
ность, теоретическая функция распределения, выборка, эмпирическая функция распределения.
Пусть имеется многочисленная совокупность однородных элементов (подшипников), каждый из которых может обладать или не обладать каким-то признаком (наличие дефектов). Неизвестна доля элементов с наличием признака среди всех элементов. Эта доля долж-
42
на быть определена. Опыт заключается в том, что мы выбираем наугад один элемент из всего множества, отмечаем наличие (или отсутствие) соответствующего признака и возвращаем его обратно в совокупность. При выборе элемента из совокупности принимаются меры к тому, чтобы вероятность быть выбранным, была одинаковой для всех элементов. Если все эти условия соблюдаются, то имеющееся множество элементов называют генеральной совокупностью. Группа из n элементов, проверенных на наличие признака, называется случайной выборкой, число n отобранных элементов – объёмом выборки, а описанный процесс отбора
– простым случайным выбором. Описанный выбор является выбором с возвратом. Другой вид выбора – выбор без возврата. Выборка называется репрезентативной (представитель-
ной), если она достаточно хорошо представляет пропорции генеральной совокупности. Репрезентативность выборки достигается случайностью выбора, т.е. тщательным перемешиванием объектов (если это возможно), использованием таблиц или датчиков «случайных чисел» и другими специальными приемами. Именно такая организация случайности выбора дает практический эффект и позволяет вместо полного обследования объектов генеральной совокупности ограничиться выборочным обследованием некоторой ее части.
Выбираемые образцы могут подвергаться и более сложной классификации: можно по одному признаку различать несколько вариантов (например, несколько сортов качества), можно классифицировать объекты сразу по нескольким признакам и т.д.
Если рассмотреть такой количественный признак как размер детали в партии, то задачами выборки могут являться оценка доли деталей, чей размер попадает в определенные рамки, оценка среднего размера детали, его дисперсии и т.д.
3. Введем теперь понятие «распределение выборки».
Пусть имеется некий станок, производящий детали одного вида. Будем наугад выбирать произведенные детали и измерять величину X – отклонение размеров детали от образ-
ца. Последовательность x1 , x2 ,..., xn наблюдаемых значений величины X рассматриваем
как выборку, по которой хотелось бы оценить распределение вероятности отклонений деталей от нормы. Предполагается, что величина X имеет закон распределения. Это предположение теоретическое и означает, что процесс изготовления деталей остается неизменным во времени.
Если величина X подчиняется закону распределения F (x) , то говорят, что распреде-
ление генеральной совокупности подчиняется закону F (x) .
Пусть x – некоторая точка оси OX . Обозначим через nx число выборочных значе-
ний, расположенных левее точки x на числовой оси. Число W ( X < x) = nnx называют час-
тостью (или относительной частотой) значений случайной величины X , меньших числа x . Частость, очевидно, зависит от x . Её обозначают как Fn ( x) и называют функцией расп-
ределения выборки или эмпирической функцией распределения. Т.о.,
Fn (x) =W ( X < x) = nnx
является оценкой вероятности неравенства X < x , или, другими словами, оценкой теорети-
ческой функции распределения F (x) = P{X < x} или функции распределения генеральной со-
вокупности. Формально эмпирическая функция распределения обладает всеми свойствами функции распределения. Ее значениями, однако, будут не вероятности, а частости неравенства X < x в данной выборке, т.е. W ( X < x) .
В теории вероятностей мы вычисляли числовые характеристики случайных величин: математическое ожидание, дисперсия и т.д. Этим числовым характеристикам есть аналогии в математической статистике. Их называют эмпирическими или выборочными характеристиками. Конечно, выборочные характеристики будут отличаться от соответствующих характе-
