
- •Испытания и случайные события.
- •Сочетания. Число сочетаний и его свойства.
- •Относительная частота и статистическая вероятность.
- •Достоверное и невозможное события. Их вероятности.
- •Сумма и произведение событий.
- •Теорема сложения вероятностей.
- •Теоремы сложения вероятностей для несовместных и совместных событий.
- •Противоположное событие и его вероятность.
- •Теорема умножения вероятностей независимых событий.
- •Условная вероятность. Теорема умножения вероятностей зависимых событий.
- •Вероятность появления хотя бы одного события.
- •Полная группа событий. Теорема. Сумма вероятностей событий а1 , а2 , ..., Аn , образующих полную группу, равна единице:
- •Повторные независимые испытания. Формула Бернулли.
- •Интегральная теорема Лапласа.
- •Дискретная случайная величина. Способы ее задания.
- •3. При умножении случайной величины х на неслучайную величину с ее дисперсия умножается на с2.
- •Математическое ожидание м(х) случайной величины.
- •Биномиальное распределение, его м(х) и d(х).
- •Непрерывная случайная величина. Способы задания.
- •Основные свойства плотности распределения:
- •21 Нормальное распределение. Влияние параметров нормального распределения на форму нормальной кривой.
- •,Где δ — величина отклонения.
- •Вероятность попадания в заданный интервал нормальной случайной величины. Правило трех сигм.
- •Генеральная и выборочная совокупности. Статистическое распределение выборки. Полигон и гистограмма.
- •Способы выборки.
- •Дискретный вариационный ряд.
- •Полигон относительных частот
- •Исправленная дисперсия.
Условная вероятность. Теорема умножения вероятностей зависимых событий.
Условная вероятность — это вероятность некоторого события A, при условии наступления некоторого другого события B; записывается P(A|B) и читается «вероятность A при условии B», или «вероятность A при данном B»
Совместная
вероятность
двух событий — это вероятность их
пересечения. Совместная вероятность A
и B
записывается
или
Тогда
как маргинальная
вероятность
— это безусловная вероятность P(A)
события A;
то есть, вероятность события A,
независимого от того, наступает ли
какое-то другое событие B
или нет. Если о B
можно думать как о «некоторой случайной
величине,
принявшей данное значение», маргинальная
вероятность
A
может быть получена суммированием (или
более широко интегрированием) совместных
вероятностей по всем значениям этой
случайной величины. Например, если есть
два возможных значения, соответствующие
событиям B
и B*,
то
.
Эту процедуру иногда называют
маргинализацией
вероятности.
Заметьте, что в этих определениях не требуется причинных или временных отношений между A и B. A может предшествовать B или наоборот или они могут случаться в одно и то же время. A может быть причиной B или наоборот или они могут не иметь никакого причинного отношения вообще. Заметьте, однако, что причинные и временные отношения — неформальные понятия, не принадлежащие вероятностной структуре. Они могут использоваться в некоторых примерах исчисления вероятностей, в зависимости от интерпретации, данной событиям.
Вероятность появления хотя бы одного события.
|
Пусть в результате испытания могут появиться n событий, независимых в совокупности, либо некоторые из них (в частности, только одно или ни одного), причем вероятности появления каждого из событий известны. Как найти вероятность того, что наступит хотя бы одно из этих событий? Например, если в результате испытания могут появиться три события, то появление хотя бы одного из этих событий означает наступление либо одного, либо двух, либо трех событий. Ответ на поставленный вопрос дает следующая теорема.
Теорема.
Вероятность
появления хотя бы одного из событий
А1
, А2
, ..., Аn
, независимых в совокупности, равна
разности между единицей и произведением
вероятностей противоположных событий
Р (A) = 1 — q1q2 ... qn.(*)
Доказательство Ч а с т н ы й с л у ч а й. Если события А1 , А2 , ..., Аn имеют одинаковую вероятность, равную р, то вероятность появления хотя бы одного из этих событий P (A) = l — qn. (**) |
Полная группа событий. Теорема. Сумма вероятностей событий а1 , а2 , ..., Аn , образующих полную группу, равна единице:
Р (A1) + Р (А2) + ... + Р (Аn) = 1.
Противоположные события. Противоположными называют два единственно возможных события, образующих полную группу. Если одно из двух противоположных событий обозначено через A, то другое принято обозначать
примеры
противоположных событий
Теорема. Сумма вероятностей противоположных событий равна единице:
.
Доказательство базируется на том, что противоположные события образуют полную группу, а сумма вероятностей событий, образующих полную группу, равна единице (см. Теорему о полной группе событий).
З а м е ч а н и е 1. Если вероятность одного из двух противоположных событий обозначена через р, то вероятность другого события обозначают через q. Таким образом, в силу предыдущей теоремы
p + q = l З а м е ч а н и е 2. При решении задач на отыскание вероятности события А часто выгодно сначала вычислить вероятность противоположного события, а затем найти искомую вероятность по формуле
.