
- •1 Случайные события
- •1.1 Основные понятия и определения
- •1.2 Аксиомы теории вероятностей
- •1.3 Классическая схема вычисления вероятностей
- •1.3.1 Декартово произведение множеств и правило умножения
- •1.3.2 Размещения и перестановки
- •1.3.3 Сочетания при выборе с возвращением и без возвращения
- •1.3.4 Схема упорядоченных разбиений множества
- •1.4 Геометрическая, статистическая и экспертная схемы расчета
- •1.4.1 Геометрическая схема вычисления вероятности
- •1.4.2 Статистическая схема вычисления вероятности
- •1.4.3 Схема вычисления субъективной вероятности
- •1.5 Условная вероятность. Независимость событий. Формулы сло-
- •1.6 Формула полной вероятности и формулы Байеса
- •2 Случайные величины
- •2.1 Cлучайная величина и ее функция распределения
- •2.2 Дискретная случайная величина
- •2.2.1 Дискретный закон распределения
- •2.2.2 Числовые характеристики дискретного распределения
- •2.2.3 Производящая функция вероятностей
- •2.2.4 Биномиальное распределение
- •2.2.5 Распределение Пуассона
- •2.2.6 Геометрическое распределение
- •2.3 Непрерывные случайные величины
- •2.3.1 Функция распределения и плотность распределения
- •2.3.2 Числовые характеристики непрерывного распределения
- •2.3.3 Равномерное распределение
- •2.3.4 Нормальное распределение
- •2.3.5 Показательное распределение
- •2.4 Функция от случайной величины
- •3 Случайные векторы
- •3.1 Общие свойства случайного вектора
- •3.2 Случайные векторы дискретного типа
- •3.3 Непрерывные случайные векторы
- •4 Предельные теоремы
- •4.1 Закон больших чисел
- •4.2 Центральная предельная теорема
- •5 Элементы математической статистики
- •5.1 Выборка и выборочные законы распределения
- •5.2 Точечные оценки числовых характеристик случайных величин
- •5.3 Интервальные оценки
- •5.4 Проверка статистических гипотез
1.4.2 Статистическая схема вычисления вероятности
Рассмотрим некоторый эксперимент, который можно проводить много-
кратно и в одинаковых условиях. В результате этих испытаний может по-
явиться или не появиться событие A . Относительной частотой со-
бытия A , обычно обозначаемой как P ∗(A) , называют отношение числа
опытов nA, в которых появилось событие A , к общему числу опытов n :
P ∗(A) = nA/n.
Многочисленные практические примеры показывают, что относительная ча-
стота обладает свойством статистической устойчивости , а именно,
тем, что ее значения с увеличением числа опытов стабилизируются около
некоторого постоянного числа. Так, например, в опыте Ж. Бюффона при 4040
бросаниях однородной и симметричной монеты относительная частота появ-
ления герба оказалась равной 0,5069. Позднее К. Пирсоном были проведены
12000 и 24000 бросаний, в которых относительная частота оказалась равной
19
0,5015 и 0,5006. Из данных опытов видно, что относительная частота собы-
тия позволяет достаточно точно оценить объективную вероятность данного
события. Отметим, также, что относительная частота при любом числе опы-
тов удовлетворяет аксиоматике Колмогорова, что позволяет использовать ее
при необходимости в качестве теоретической вероятности события. Так, на
основе обработки многочисленных демографических данных было получено,
что относительная частота рождения мальчиков равна 0,51, и данное число в
последующих расчетах рассматривают как вероятность рождения мальчика.
1.4.3 Схема вычисления субъективной вероятности
Результаты спортивных соревнований оценивают судьи, оценки выстав-
ляют преподаватели, тенденции развития экономики, техники, образования и
науки оценивают специалисты в указанных отраслях, исходы выборов в пар-
ламент и результаты военных операций прогнозируют политические обозре-
ватели и военные аналитики и т. д. В тех случаях, когда к анализу указанных
явлений привлекаются статистические методы все указанные выше специа-
листы называются экспертами , а их мнения и прогнозы, учитывающие
аналогичные ситуации, знания и опыт называются экспертными оцен-
ками . Для того, чтобы воспользоваться аппаратом теории вероятностей на
основе экспертных оценок формируют, так называемые, субъективные ве-
роятности , удовлетворяющие по построению аксиоматике Колмогорова.
И с формальной точки зрения, и с точки зрения объективности и полезно-
сти для последующего применения, данная схема ничем не уступает любой
раннее рассмотренной схеме.
1.5 Условная вероятность. Независимость событий. Формулы сло-
жения и умножения вероятностей
Одним из основных понятий при аксиоматическом построении теории
вероятностей является понятие условной вероятности. Именно условная ве-
роятность оценивает то изменение в вероятности наступления некоторого со-
бытия, которое происходит после получения дополнительной информации.
Рассмотрим два события A и B . Пусть стало известно, что событие A про-
изошло, но неизвестно, какой конкретно элементарный исход реализовался.
Что можно сказать в этом случае о вероятности события B ?
Определение условной вероятности. Условной вероятностью со-
бытия B при условии появления события A называют отношение веро-
20
ятности произведения событий A и B к вероятности события A , т. е.
P (AB)
PA(B) = , P (A)6= 0.
P (A)
Покажем на простых примерах, что вычисленная таким образом условная
вероятность совпадает с интуитивно предполагаемой.
Пример. Пусть событие A выпадение нечетного числа очков на
игральной кости, а событие B выпадение четного числа очков.
Решение. Поскольку события A и B несовместны, то при наступле-
нии события A событие B не может произойти и его условная вероятность
равна нулю. Такую же условную вероятность события B получим по опреде-
ляющей формуле, так как AB = ∅ , P (∅) = 0 и в числителе стоит ноль.
Пример. Событие A выпадение 4 или 6 очков на игральной кости,
а событие B выпадение четного числа очков.
Решение. Так как A внутри B , то при наступлении события A собы-
тие B обязательно произойдет, т. е. событие B имеет условную вероятность,
равную единице. Такую же условную вероятность события B получим по
определяющей формуле, так как AB = A и в числителе и знаменателе фор-
мулы стоят одинаковые вероятности, равные P (A) .
Пример. Пусть событие A = {4, 5, 6} появление более трех очков
на игральной кости, а событие B выпадение четного числа очков.
Решение. Если событие A наступило, то произошел один из трех эле-
ментарных исходов: выпало 4 , 5 или 6 очков. Но из этих трех исходов только
два исхода ѕвыпадение четверкиї и ѕвыпадение шестеркиї влекут за собой
появление события B . В соответствии с классической схемой в данном слу-
чае естественно определить условную вероятность события B числом 2/3 .
Такую же условную вероятность события B получим по определяющей фор-
муле, так как P (AB) = P {4, 6} = 2/6 , P (A) = P {4, 5, 6} = 3/6 . В этом
примере условная вероятность события B совпадает с безусловной.
Из приведенных примеров видно, что условная вероятность может, как
совпадать с безусловной вероятностью, так и быть меньше или больше нее.
На практике часто происходит так, что известны или достаточно просто опре-
деляются именно условные вероятности и с их помощью вычисляются необ-
ходимые безусловные вероятности.
Правило умножения вероятностей
Вероятность произведения двух событий равна произведению безуслов-
ной вероятности одного из них на условную вероятность другого, при усло-
21
вии, что первое событие произошло
P (AB) = P (A) · PA(B) = P (B) · PB(A) ; P (A) > 0, P (B) > 0.
Данное правило следует из определения условной вероятности.
Применяя правило умножения индуктивно получают формулу умно-
жения вероятностей для системы событий в следующем виде:
P (A1A2· · · An) = P (A1) · PA1(A2) · PA1A2(A3) · · · PA1A2···An−1(An).
Пример. На семи карточках написаны буквы к, к, о, о, о, т, т . Из
них последовательно выбираются три карточки и кладутся слева направо.
Найдем вероятность того, что образуется слово ѕкотї (событие A ).
Решение. Воспользуемся формулой умножения вероятностей и введем
события: A1={на первой вынутой карточке написана буква к }, A2={ на вто-
рой буква о }, A3={ на третьей буква т }. Тогда событие A представля-
ет собой произведение событий A1A2A3и находится по формуле умножения
вероятностей для трех событий P (A1A2A3) = P (A1) · PA1(A2) · PA1A2(A3) .
В соответствии с классической схемой, безусловная вероятность P (A1)
определяется как отношение числа карточек, на которых написана буква к , к
общему числу карточек, т. е. P (A1) = 2/7 . Далее, если событие A1произой-
дет, то у нас останется шесть карточек и на трех из них написана буква о . По-
этому PA1(A2) = 1/2 . Наконец, если произойдут события A1и A2, то из пяти
оставшихся карточек на двух написана буква т , и значит PA1A2(A3) = 2/5 .
Окончательно получаем
P (A) = P (A1A2A3) = (2/7) · (1/2) · (2/5) = (2/35).
Определение независимости двух событий. События A и B на-
зываются независимыми, если вероятность произведения данных событий
равна произведению их вероятностей
P (AB) = P (A) · P (B) .
Для двух независимых событий условная вероятность каждого из событий
равна безусловной вероятности, что вытекает из следующих соотношений:
PA(B ) =
PB(A) =
P (AB)
P (A)
P (AB)
P (B)
=
=
P (A) · P (B)
P (A)
P (A) · P (B)
P (B)
= P (B) , P (A)6= 0,
= P (A) , P (B)6= 0.
Таким образом, для независимых событий появление одного из событий
никак не влияет на вероятность появления другого. Иногда именно равенство
22
PA(B ) = P (B) берут за исходное определение независиости события B от
события A . Однако, в данном руководстве использовано более симметричное
определение независимости, рассмотренное самим А.Н. Колмогоровым.
Пример. Проводится опыт, состоящий в двукратном подбрасывании
симметричной монеты. В этом случае пространство элементарных событий
состоит из четырех исходов Ω = { ГГ, ГР, РГ, РР } . Рассмотрим событие
A = { ГГ, ГР } ѕвыпадение герба при первом подбрасывании монетыї и
событие B = { ГГ, РГ } ѕвыпадение герба при втором подбрасыванииї.
Выясним зависимы или нет данные события.
Решение. Произведение событий ѕвыпадение герба при первом и
втором подбрасывании монетыї равно AB = { ГГ } . По классической схеме
вычисления вероятностей P (A) = P (B) = 1/2 , P (AB) = 1/4 . События A и
B независимы, поскольку выполняется условие P (AB) = P (A) · P (B) .
Для двух независимых событий формула вероятности произведе-
ния событий имеет следующий вид:
P (AB) = P (A) · P (B).
Пример. Покажем, что из независимости событий A и B следует неза-
висимость следующих пар событий: A и BЇ , AЇ и B , AЇ и BЇ .
Решение. Так как события A и B независимы, то справедливо условие
независимости P (AB) = P (A) · P (B) . Представим событие A в следующем
виде: A = AΩ = A(B + Ї ) = AB +ABЇ . Отсюда, используя аксиому сложения
и условие независимости событий A и B , получим:
P (A) = P (AB) + P (ABЇ) = P (A)P (B) + P (ABЇ).
Следовательно, P (ABЇ) = P (A)−P (A)P (B) = P (A)(1−P (B)) = P (A)P ( Ї ) ,
что доказывает независимость событий A и BЇ . Аналогично показывается,
независимость пар событий AЇ и B , AЇ и BЇ .
Нельзя смешивать понятия независимости и несовместности событий.
Для того, чтобы проверить совместны или нет два события вообще не нужна
информация об их вероятностях, а достаточно выяснить имеют или не имеют
данные множества общие элементы.
Решение многих практических задач значительно упрощается, если из
постановки задачи ясно, что события независимы. Однако, в общем случае
необходима проверка независимости событий в соответствии с определением.
Пример. Покажем, что два несовместных события A и B с положи-
тельными вероятностями обязательно являются зависимыми.
Решение. Так как события A и B несовместны, то их пересечение
равно пустому множеству. Условие независимости P (AB) = P (A) · P (B)
23
для данных множеств не выполняется, так как левая часть условия равна
нулю ( P (AB) = P (∅) = 0 ), а правая часть больше нуля.
По закону контрпозиции из доказанного утверждения следует, что неза-
висимые события с положительными вероятностями всегда совместны.
Определение взаимной независимости событий. Система из n
событий называется взаимно независимой, если для любой ее подсистемы
из 2 ≤ k ≤ n событий справедливо следующее утверждение: ѕВероятность
произведения событий равна произведению их вероятностейї.
Например, для первых 2 ≤ k ≤ n событий имеет место формула
P (A1A2. . . Ak) = P (A1) · P (A2) · · · · · P (Ak).
Из взаимной независимости событий непосредственно из определения
следует попарная независимость событий. Обратное утверждение неверно,
что доказывается с помощью следующего контрпримера .
Рассмотрим три попарно независимых события A , B , C такие, что
P (A) > 0 , P (B) > 0 , P (C ) > 0 и ABC = ∅ . Для данных событий усло-
вие независимости P (ABC ) = P (A) · P (B ) · P (C) не выполняется, так как
P (ABC ) = P (∅) = 0 , а P (A) · P (B) · P (C) > 0 .
Для системы из n взаимно независимых событий формула вероятности
произведения событий имеет вид:
P (A1A2. . . An) = P (A1) · P (A2) · · · · · P (An).
Найдем далее вероятность суммы взаимно независимых событий. Пусть
A = A1∪ A2∪ . . . ∪ An.
Тогда в соответствии с формулой де Моргана AЇ = ЇA1AЇ2. . . AЇn. Если события
A1, A2, . . . , Anнезависимы, то противоположные им события также незави-
симы, и справедлива формула P ( Ї) = P ( Ї1) · P ( Ї2) . . . P ( Їn) .
Отсюда, окончательно, получаем формулу для вероятности объедине-
ния нескольких независимых событий в следующем виде:
P (A) = 1 − P ( Ї) = 1 − (1 − P (A1)) · (1 − P (A2)) . . . (1 − P (Ak)) .
Пример. Пусть некоторая система состоит из нескольких элементов.
Назовем соединение элементов последовательным , если система работает
только при работе всех ее элементов и система отказывает, если отказывает
хотя бы один из ее элементов. Если отказ системы происходит при одновре-
менном отказе всех входящих в нее элементов, то такое соединение элементов
называют параллельным .
24
Найдем надежность системы и вероятность ее отказа при последова-
тельном и параллельном соединении элементов.
Решение. Полагая, что нормальная работа элементов взаимно неза-
висимы, вероятность функционирования системы (надежность системы) при
последовательном соединении можно выразить через вероятности работы от-
дельных элементов (надежности элементов) по следующей формуле:
P (S) = P (A1) · P (A2) · · · · · P (An).
Если в конкретном примере заданы вероятности отказов элементов и требует-
ся вычислить вероятность отказа системы, то из предшествующей формулы
выводится формула вычисления вероятности отказа системы:
P ( Ї) = 1 − P (S) = 1 − P (A1) · P (A2) · · · · · P (An) =
= 1 −[1 − P ( Ї1)]·[1 − P ( Ї2)]· · ·[1 − P ( Їn)].
Полагая,что отказы элементов взаимно независимы, вероятность отказа
системы при параллельном соединении рассчитывают по формуле
P ( Ї) = P ( Ї1) · P ( Ї2) · · · · · P ( Їn).
Если по условию примера заданы вероятности безотказной работы элементов
и требуется вычислить надежность системы, то из предшествующей формулы
выводится формула вычисления вероятности безотказной работы системы:
P (S ) = 1 − P ( Ї) = 1 − P ( Ї1) · P ( Ї2) · · · · · P ( Їn) =
= 1 − [1 − P (A1)] · [1 − P (A2)] · · · [1 − P (An)] .
Если система имеет достаточно сложную структуру, то ее разбивают
на блоки, состоящие из элементов, соединенных только последовательно или
параллельно, и вычисляют вероятности отказов этих блоков, пользуясь обе-
ими формулами. Окончательно вероятность отказа системы рассчитывают
по одной из двух приведенных формул, рассматривая в качестве элементов
системы соответствующие блоки.