Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Met_TerVer386_08

.pdf
Скачиваний:
11
Добавлен:
26.03.2016
Размер:
579.58 Кб
Скачать

ГОУВПО «Воронежский государственный технический университет»

Кафедра высшей математики и физико-математического моделирования

386 - 2008

ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

МЕТОДИЧЕСКИЕ УКАЗАНИЯ для организации самостоятельной работы

по курсу "Высшая математика" для студентов специальностей 280103 "Защитавчрезвычайныхситуациях",

280101 "Безопасностьжизнедеятельностивтехносфере" и

280200 "Защитаокружающейсреды" очной формы обучения

Воронеж 2008

Составитель канд. физ.-мат. наук И.Н. Пантелеев

УДК 51 (075)

Элементы теории вероятностей: методические указания для организации самостоятельной работы по курсу "Высшая математика" для студентов специальностей 280103 "Защита в чрезвычайных ситуациях", 280101 "Безопасность жизнедеятельности в техносфере" и 280200 "Защита окружающей среды" очной формы обучения. / ГОУВПО «Воронежский государственный технический университет»; сост. И.Н. Пантелеев. Воронеж, 2008. 48 с.

Настоящие методические указания предназначены в качестве руководства для организации самостоятельной работы по курсу "Высшая математика" по разделу «Теория вероятностей» для студентов специальности 280103 (ЧС), 280101 (БЖ) и 280200 (ЗС) в 4 семестре. В работе приведен теоретический материал, необходимый для выполнения заданий и решение типовых примеров.

Ил. 2. Библиогр.: 8 назв.

Рецензент канд. физ.-мат. наук, доц. В.В. Ломакин

Ответственный за выпуск зав. кафедрой д-р физ.-мат. наук, проф. И.Л. Батаронов

Печатается по решению редакционно-издательского совета Воронежского государственного технического университета

© ГОУВПО «Воронежский государственный технический университет», 2008

1.Случайное событие, его частота

ивероятность. Геометрическая вероятность

Основными понятиями в теории вероятностей являются понятия события и вероятности события.

Под событием понимается такой результат эксперимента или наблюдения, который при реализации данного комплекса условий может произойти или не произойти.

События будем обозначать буквами А, В, С, ... . Если событие неизбежно произойдет при каждой реализации комплекса условий, то оно называется достоверным; если же оно не может произойти – невозможным.

Если событие А при реализации комплекса условий может произойти, а может и не произойти, то оно называется

случайным.

Событие, состоящее в наступлении хотя бы одного из событий А и В, будем называть суммой (объединением) событий А и В и обозначать А+В или А В.

Событие, состоящее в наступлении обоих событий А и В,

будем называть произведением (совмещением) событий А и В и

обозначать АВ или АВ.

События называются несовместными, если появление одного из них исключает появление других событий в одном и том же испытании.

Пусть, например, нас интересует появление определенного числа очков на грани при одном бросании игральной кости: i = 1, 2, 3, 4, 5, 6. Выпадение конкретного числа очков назовем

элементарным событием (исходом), которое обозначим ωi.

Таким образом, для каждого связанного с этим опытом события А можно выделить совокупность тех элементарных исходов ω, наступление которых влечет за собой наступление события А.

Пусть событие А состоит в появлении нечетного числа очков на грани. Этому событию благоприятствуют

элементарные события ω1, ω3, ω5, т.е. некоторое подмножество множества всех элементарных исходов ω1, ω2, ω3, ω4, ω5, ω6.

Совокупность элементарных событий обозначается Ω и

называется пространством элементарных событий.

Элементарные события взаимно исключают друг друга, и в результате данного опыта обязательно произойдет одно из них. Пространство элементарных событий образует так называемую полную группу попарно несовместных событий, так как появление хотя бы одного из событий полной группы есть достоверное событие.

Два несовместных события, образующих полную группу, называются противоположными. Для противоположных событий одновременно выполняются два условия: A + A – достоверное событие и AA невозможное событие.

Для количественной оценки возможности появления случайного события А вводится понятие вероятности.

Вероятностью события А называют отношение числа m исходов, благоприятствующих этому событию, к числу n всех равновозможных несовместных элементарных исходов, образующих полную группу:

P(А) = m/n

(классическое определение вероятности).

В рассмотренном примере вероятность выпадения грани с нечетным числом очков составляет Р(А) = 3/6 = 1/2.

Приведем аксиоматическое определение вероятности, предложенное А.Н. Колмогоровым.

1°. Каждому случайному событию А из поля событий ставится в соответствие неотрицательное число Р(А), называемое вероятностью.

2°. Р(Ω) = 1.

3°. Аксиома сложения. Если события А1, А2, …, Аk,

попарно несовместны, то Р(А1 + А2 +…+ Аk) = Р(А1) + Р(А2) +…+ Р(Аk).

Отсюда следует, что:

2

1) вероятность невозможного события равна нулю;

2) для любого события А

P( A) =1 P(

A

), где

A

противоположное событие; 3) каково бы ни было случайное событие А, 0 Р(А) 1.

Используя аксиомы, свойства вероятностей выводят в качестве теорем.

К числу основных понятий теории вероятностей также относится частота события, под которой понимают отношение числа испытаний, в которых это событие произошло, к общему числу фактически произведенных испытаний. Частоту события называют статистической вероятностью. Для вычисления частоты события необходимо произвести в действительности испытания (опыт), чего не требуется для определения вероятности.

Массовые случайные события обладают свойством устойчивости частоты: наблюдаемые в различных сериях однородных испытаний (с достаточно большим числом испытаний в каждой серии) значения частоты данного случайного события колеблются от серии к серии в довольно тесных пределах и стремятся (по вероятности) к некоторому постоянному числу. При этих условиях частоту можно принять за приближенное значение вероятности.

При классическом определении вероятности не всегда можно определить числа т и п для вычисления вероятностей событий и поэтому непосредственно пользоваться формулой Р(А) = т/п не удается. В таких случаях вводят понятие геометрической вероятности, т.е. вероятности попадания точки в область (отрезок, часть плоскости, часть тела и т.д.).

Пусть, например, па плоскости имеется некоторая область G и в ней содержится другая область g. Требуется найти вероятность того, что точка, взятая наудачу в области G, попадет в область g. При этом выражению «точка, взятая наудачу в области G», придается следующий смысл: эта точка может попасть в любую точку области G. Вероятность

3

попадания точки в какую-либо часть области g пропорциональна мере (mes) этой части (длине, площади, объему и т.д.) и не зависит от ее расположения и формы:

p = mes g mesG

(геометрическое определение вероятности).

2. Теоремы сложения и умножения вероятностей. Условная вероятность

Теорема сложения вероятностей. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий:

Р(А+В) = Р(А) + Р(В).

Эта теорема обобщается на случай произвольного числа попарно несовместных событий:

 

n

 

 

n

i

 

i

=

P

 

A

 

P( A ).

i=1

 

 

i=1

 

Событие А называется независимым от события В, если вероятность события А не зависит от того, произошло событие В или нет. Событие А называется зависимым от события В, если вероятность события А меняется в зависимости от того, произошло событие В или нет.

Вероятность события А, вычисленная при условии, что имело место другое событие В, называется условной вероятностью события А и обозначается Р(А/В).

Условие независимости события А от события В можно записать в виде Р(А/В) = Р(А), а условие зависимости – в виде

Р(А/В) Р(А).

Теорема умножения вероятностей. Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную

4

при условии, что первое имело место:

Р(АВ) = Р(А) Р(В/А) или Р(АВ) = Р(В) Р(А/В).

Если событие А не зависит от события В, то и событие В не зависит от события А; тогда

Р(АВ) = Р(А) Р(В).

Условная вероятность события Аk, определенная в предположении, что осуществились события А1, А2, …, Аk–1,

обозначается Р(Аk /А1А2…Аk–1).

Вероятность произведения нескольких событий равна произведению вероятностей этих событий, причем вероятность каждого следующею по порядку события вычисляется при условии, что все предыдущие имели место:

 

 

 

k

 

=

P( A A ...A ) = P

 

A

1 2

k

 

i

 

 

 

i=1

 

 

=P(A1) P(A2 / A1) P(A3 / A1A2 )...(Ak / A1A2...Ak1).

Вслучае независимых событий справедлива формула

 

k

 

 

k

i

 

i

=

P

 

A

 

P( A ).

i=1

 

 

i=1

 

3. Формула Бернулли. Наивероятнейшее число наступлений события

Если производится п независимых испытаний, в каждом из которых вероятность появления события А одна и та же и равна р, то вероятность того, что событие А появится в этих п испытаниях т раз, выражается формулой Бернулли

Pm,n =Cmn pmqnm ,

где q = 1 – р. Таким образом,

5

P

= qn , P

= npqn1,

P

=

n(n 1)

p2qn2 , …,

P

= pn.

 

0,n

1,n

 

2,n

 

1 2

n,n

 

 

 

 

 

 

 

 

Число m0 называется наивероятнейшим числом

наступления события А в n испытаниях, если значение Рm,п при

m = т0

не меньше остальных значений Рт,n, т. е. Pm , n Pm , n

 

0

i

при mi т0.

Если р 0 и р 1, то число т0 можно определить из двойного неравенства

пр – q т0 пр + р.

Разность граничных значений в этом двойном неравенстве равна 1. Если пр + р не является целым числом, то двойное неравенство определяет лишь одно наивероятнейшее значение т0. Если же пр + р – целое число, то имеются два наивероятнейших значения: m0′ = np q и m0′′ = np + p.

4. Формула полной вероятности. Формула Байеса

Если известно, что событие А может произойти вместе с одним из событий Н1, Н2, ..., Нп (гипотез), образующими полную группу попарно несовместных событий, то событие А можно представить как объединение событий АН1, АН2, ..., АНn, т.е. А = АН1 + АН2 +…+ АНn. Вероятность события А можно определить по формуле

P(A) = P(H1)P(A/ H1) + P(H2 )P(A/ H2 ) +... + P(Hn )P(A/ Hn ),

или

n

P(A) = P(Hi )P(A/ Hi ).

i=1

Эта формула называется формулой полной вероятности.

Условная вероятность события Нi, в предположении, что

6

событие А уже имеет место, определяется по формуле Байеса:

P(H

/ A) =

P( AHi )

=

P(Hi )P( A/ Hi )

(i = 1, 2, …, п).

 

n

i

 

P( A)

 

 

 

P( A/ H j )P(H j )

 

 

 

 

 

j=1

 

Вероятности Р(Нi/А), вычисленные по формуле Байеса,

часто называют вероятностями гипотез.

5.Случайная величина и закон

еераспределения

Если каждому элементарному событию ω из некоторого множества событий Ω можно поставить в соответствие определенную величину Х = Х(ω), говорят, что задана случайная величина. Случайную величину Х можно рассматривать как функцию события ω с областью определения Ω.

Случайная величина может принять то или иное значение из некоторого числового множества, однако заранее неизвестно, какое именно. Случайные величины принято обозначать большими буквами Х, Y, …, а принимаемые ими значения – соответствующими строчными буквами х, у, … .

Если значения, которые может принимать данная случайная величина Х, образуют дискретный (конечный или бесконечный) ряд чисел х1, х2,, хn,…, то и сама случайная величина Х называется дискретной.

Если же значения, которые может принимать данная случайная величина X, заполняют конечный или бесконечный промежуток (а, b) числовой оси Ох, то случайная величина называется непрерывной.

Каждому значению случайной величины дискретного типа хп отвечает определенная вероятность рп; каждому промежутку (а, b) из области значений случайной величины непрерывного типа также отвечает определенная вероятность Р(а < Х < b)

того, что значение, принятое случайной величиной, попадет в этот промежуток.

Соотношение, устанавливающее тем или иным способом связь между возможными значениями случайной величины и их вероятностями, называется законом распределения случайной величины.

Закон распределения дискретной случайной величины обычно задается рядом распределения:

хi

х1

х2

х3

хn

рi

р1

р2

р3

рn

n

При этом pi =1, где суммирование распространяется на

i=1

все (конечное или бесконечное) множество возможных значений данной случайной величины Х. Закон распределения непрерывной случайной величины удобно задавать с помощью так называемой функции плотности вероятности f (x).

Вероятность Р(а < Х < b) того, что значение, принятое случайной величиной Х, попадет в промежуток (а, b), определяется равенством

b

P(a < X <b) = f (x)dx.

a

График функции f (x) называется кривой распределения.

Геометрически вероятность попадания случайной величины в промежуток (а, b) равна площади соответствующей криволинейной трапеции, ограниченной кривой распределения, осью Ох и прямыми х = а, х = b.

Функция плотности вероятности f (x) обладает следующими свойствами:

8

7

 

1°. f (x) 0.

2°. f (x)dx =1 .

 

−∞

Если все значения случайной величины Х заключены в промежутке (а, b), то последнее равенство можно записать в виде

b

f (x)dx =1.

a

Рассмотрим теперь функцию F(x) = P(X < x). Эта функция

называется функцией распределения вероятности случайной величины X. Функция F(x) существует как для дискретных,

так и для непрерывных случайных величин. Если f (x)

функция плотности распределения вероятности непрерывной случайной величины Х, то

x

F(x) = f (x)dx.

−∞

Из последнего равенства следует, что

f (x) = F(x).

Иногда функцию f (x) называют дифференциальной функцией распределения вероятности, а функцию F(x)

интегральной функцией распределения вероятности.

Отметим важнейшие свойства функции распределения вероятности:

1°. F(x) – неубывающая функция. 2°. F(−∞) =0.

3°. F(+∞) =1.

Понятие функции распределения является центральным в теории вероятностей. Используя это понятие, можно дать другое определение непрерывной случайной величины. Случайная величина называется непрерывной, если ее

9

интегральная функция распределения F(x) непрерывна.

6. Математическое ожидание и дисперсия случайной величины

Математическим ожиданием дискретной случайной величины называется сумма произведений значений случайной величины на вероятности этих значений

Если случайная величина Х характеризуется конечным рядом распределения:

хi

х1

х2

х3

хn

рi

р1

р2

р3

рn

то математическое ожидание М(X) определяется по формуле

n

M (X ) = x1 p1 + x2 p2 +... + xn pn , или M (X ) = xi pi .

i=1

Так как p1 + p2 +... + pn =1, то

M ( X ) = x1 p1 + x2 p2 +... + xn pn . p1 + p2 +... + pn

Таким образом, М(X) является взвешенной средней арифметической случайной величины х1, х2,…, хп при весах р1,

р2,…, рп.

Если n = ∞, то M (X ) = xi pi (при условии, что ряд

i=1

абсолютно сходится).

Понятие математического ожидания распространяется и на непрерывную случайную величину. Пусть f (x) – плотность

вероятности случайной величины Х. Тогда математическое ожидание непрерывной случайной величины Х определяется

10

равенством

+∞

M (X ) = xf (x)dx

−∞

(при условии, что интеграл абсолютно сходится). Геометрически математическое ожидание как

непрерывной, так и дискретной случайной величины равно абсциссе центра тяжести площади, ограниченной кривой (или полигоном) распределения и осью абсцисс. Поэтому при симметрии кривой (или полигона) распределения относительно некоторой прямой, параллельной оси ординат, математическое ожидание совпадает с абсциссой точки пересечения этой оси симметрии с осью абсцисс.

Точка оси Ох, имеющая абсциссу, равную математическому ожиданию случайной величины, часто называется центром распределения этой случайной величины.

Дисперсией случайной величины называют математическое ожидание квадрата отклонения случайной величины от ее математического ожидания:

D( X ) = M[ X M ( X )]2.

Если ввести обозначение М(Х) = т, то формулы для вычисления дисперсии дискретной случайной величины Х запишутся ввиде

n

D(X ) = pi (xi m)2 ,

i=1

D(X ) = pi (xi m)2 (при n = ∞ ),

i=1

адля непрерывной случайной величины Х – в виде

+∞

D( X ) = (x m)2 f (x)dx.

−∞

Для дисперсии случайной величины справедлива формула

D( X ) = M[( X a)2 ] [M ( X ) a]2 ,

или

D( X ) = M[( X a)2 ] [m a]2 ,

где а – произвольное число. Этой формулой часто пользуются для вычисления дисперсии случайной величины, так как вычисление по этой формуле обычно проще.

Средним квадратичным отклонением случайной величины

Х называется величина σx = D(X ).

Среднее квадратичное отношение есть мера рассеяния значений случайной величины около ее математического ожидания.

7. Равномерное распределение

Равномерным называется распределение таких случайных величин, все значения которых лежат на некотором отрезке [а, b] и имеют постоянную плотность вероятности на этом отрезке. Таким образом,

0 при x < a,

f (x) = h при a x b,

0 при x >b.

Так как h(b a) =1, то h =1/(b a) и, следовательно,

0 при x < a,

f (x) = 1/(b a) при a x b,

0 при x > b.

12

11

8. Биномиальный закон распределения. Закон Пуассона

Если вероятность наступления случайного события в каждом испытании равна р, то, как известно, вероятность того, что при п испытаниях событие осуществится т раз, определяется формулой Бернулли:

Pm,n =Cnm pmqnm (где q = 1 – p).

Закон распределения случайной величины X, которая может принимать п + 1 значение (0, 1,..., п), описываемый формулой Бернулли, называется биномиальным.

Закон распределения случайной величины X, которая может принимать любые целые неотрицательные значения (0, 1, 2, ..., п), описываемый формулой

P( X = m) = am ea , m!

носит название закона Пуассона.

Закон Пуассона является законом распределения вероятностей, например, для следующих случайных величин.

а) Пусть на интервале (0, N) оси Ох случайно размещаются п точек независимо друг от друга, причем события, заключающиеся в попадании одной точки на любой наперед заданный отрезок постоянной (например, единичной) длины, равновероятны.

Если N → ∞, п → ∞ и a = lim

n

, то случайная величина X,

 

N→∞ N

 

равная числу точек, попадающих на заданный отрезок единичной длины (которая может принимать значения 0, 1, ..., т, ...), распределяется по закону Пуассона.

б) Если п равно среднему числу вызовов абонентов, поступающих за один час на данную телефонную станцию, то число вызовов, поступающих за одну минуту, приближенно

13

распределяется по закону Пуассона, причем а = п/60. Математическое ожидание и дисперсия случайных

величин, распределенных по биномиальному закону и закону Пуассона, определяются по следующим формулам:

для биномиального закона: М(Х) = пр; D(Х) = прq; для закона Пуассона: М(Х) = а; D(Х) = а.

9. Показательное (экспоненциальное) распределение. Функция надежности

Аналогом закона Пуассона для непрерывных случайных величин служит показательный (экспоненциальный) закон,

функция плотности распределения которого имеет вид

0

при x < 0,

 

 

f (x) =

при x 0.

λe−λx

 

 

где λ > 0 – постоянный параметр.

Функция распределения (интегральная функция) показательного закона

x

x

F (x) = f (x)dx = xe−λxdx =1 e−λx ,

−∞

0

т.е.

при x < 0,

0

 

 

F (x) =

e−λx при x 0.

1

 

 

Вероятность попадания случайной величины Х в интервал

(α, β) составляет

 

P(α < X ) = F(β) F(α) = (1e−λβ) (1e−λα) = e−λα e−λβ,

т. е.

P(α < X ) = e−λα e−λβ.

Определим числовые характеристики показательного

14

закона распределения:

математическое ожидание

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

1

 

M ( X ) = xλe−λxdx = −xe−λx

 

e−λx

 

=

 

 

 

,

λ

 

λ

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

дисперсия

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D( X ) = x2λe−λxdx [M ( X )]2 =

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

−λx

 

2x

 

−λx

 

2

 

−λx

 

1

 

 

1

 

 

= −x

 

e

 

 

e

 

 

 

e

 

 

 

 

=

 

 

,

 

 

 

λ

 

λ

2

0

λ

2

λ

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

среднее квадратичное отклонение

σ(X ) = D(X ) = λ1 , т.е. M (X ) (X ) = λ1 .

Если Т – непрерывная случайная величина, выражающая продолжительность времени безотказной работы какого-либо элемента, а λ – интенсивность отказов (среднее число отказов в единицу времени), то продолжительность времени t безотказной работы этого элемента можно считать случайной величиной, распределенной по показательному закону с

функцией распределения

F(t) = P(T < t) =1e−λt

(λ > 0),

которая определяет вероятность отказа элемента за время t. Функция надежности R(t) определяет вероятность

безотказной работы элемента за время t: R(t) = e−λt .

10. Нормальный закон распределения. Функция Лапласа

Нормальный закон распределения характеризуется плот-

ностью

 

 

1

e

(xm)

f (x) =

 

2σ .

σ

2π

 

 

 

Нетрудно видеть, что функция f (x) удовлетворяет двум условиям, предъявляемым к плотности распределения:

1)

f (x) >0;

 

+∞

2)

f (x)dx =1.

−∞

Кривая y = f (x) симметрична относительно прямой х = т, максимальная ордината кривой (при х = т) равна 1/(σ 2π) , и ось абсцисс является асимптотой этой кривой. Так как

+∞

xf (x)dx = m, то параметр т является математическим ожи-

−∞

данием случайной

величины

X. С

другой

стороны,

+∞

 

D(x) 2 ,

 

 

(x m)2 f (x)dx = σ2 ,

откуда

т. е. (σ

является

−∞

 

 

 

 

 

средним квадратичным отклонением величины X.

 

Введем обозначение

 

 

 

 

 

 

2

x

 

 

 

Ф(x) =

et dt.

 

 

 

π

 

 

 

 

0

 

 

 

 

 

 

 

Функция Ф(х) называется функцией Лапласа, или интегралом вероятностей. Эту функцию называют также

функцией ошибок и обозначают erf х.

Иногда используются и другие формы функции Лапласа,

 

 

 

1

x

 

 

 

например,

 

(x) =

et 2dt

(нормированная

функция

Ф

2π

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

x

Лапласа), которая связана с функцией ошибок Ф(x) =

et dt

π

 

 

 

 

 

 

0

 

 

 

 

 

 

 

15

16

 

соотношением Ф(x) = 0,5Ф(x / 2), или Ф(x 2) = 0,5Ф(x).

Для вычисления значений функции Лапласа пользуются специальной таблицей.

Вероятность попадания в интервал (а, b) случайной величины X, подчиненной нормальному закону, определяется через значения функции Лапласа по формуле

P(a < X <b) = 0,5

 

b m

a m

Ф

 

 

 

Ф

 

 

.

σ

 

σ

 

 

 

 

2

 

2

Отметим следующие свойства функции Лапласа.

0

 

 

 

 

 

 

 

 

1°. Ф(0) = 0, так как et2 dt = 0.

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

2

2

 

π

 

2°. Ф(+∞) =1, поскольку Ф(+∞) =

et2 dt =

 

=1;

 

π

π

2

 

 

0

 

 

3°. Ф(х) – нечетная функция.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Справедлива также формула

 

 

 

 

 

 

 

 

 

 

ε

 

 

 

 

 

 

P(| X m |< ε) = Ф

 

 

 

.

 

 

 

 

 

σ

 

 

 

 

 

 

 

2

 

 

 

 

С помощью этой формулы можно находить вероятность попадания случайной величины, подчиненной нормальному закону, в интервал, симметричный относительно точки т.

11. Теорема Муавра–Лапласа

Если производится п испытаний, в каждом из которых вероятность появления события А равна р, то частота т/п появлений события является случайной величиной, распределенной по биномиальному закону, математическое ожидание и дисперсия которой равны соответственно р и

pq / n. Случайная

величина

τn =

m / n p

,

математическое

pq / n

 

 

 

 

 

ожидание

которой

 

равно

нулю,

а дисперсия – единице, носит название нормированной частоты случайного события (ее распределение – также биномиальное).

Теорема Муавра–Лапласа устанавливает, что при неограниченном возрастании числа п испытаний биномиальный закон распределения нормированной частоты в пределе превращается в нормальный с тем же математическим ожиданием (равным 0) и дисперсией (равной

1). В силу этого при больших значениях п для вероятностей неравенств, которым должна удовлетворять частота (или число наступлений) случайного события, можно использовать приближенную оценку с помощью интеграла вероятностей (функции Лапласа), а именно, справедливы следующие приближенные формулы:

 

m / n p

 

 

m np

 

 

b

 

a

P a <

 

< b

= P a <

 

< b

Ф

 

 

Ф

 

.

pq / n

npq

 

 

 

 

 

 

 

 

2

 

2

12. Системы случайных величин

Часто результат опыта описывается не одной случайной величиной X, а несколькими случайными величинами: Х1, Х2, …, Хп. В этом случае принято говорить, что указанные случайные величины образуют систему (Х1, Х2, …, Хп).

Систему двух случайных величин (Х, Y) можно изобразить случайной точкой на плоскости.

Событие, состоящее в попадании случайной точки (X; Y) в область D, принято обозначать в виде (X; Y) D.

Закон распределения системы двух дискретных случайных величин может быть задан с помощью таблицы

18

17

Тут вы можете оставить комментарий к выбранному абзацу или сообщить об ошибке.

Оставленные комментарии видны всем.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]