
- •1. Элементы комбинаторики.
- •1.1. Перестановки
- •1.2. Перестановки с повторениями
- •1.3. Размещения
- •1.4. Размещения с повторениями (с возвратом)
- •1.5. Сочетания
- •1.6. Сочетания с повторениями (с возвратом)
- •1.7. Обобщение
- •2. Случайные события
- •2.1. Испытания и события
- •2.2. Виды случайных событий
- •2.3. Пространство элементарных событий
- •2.4. Операции над событиями
- •Событие
- •9. Полная группа событий. Совокупность событий называется полной группой событий, если:
- •2.5. Свойства операций над событиями
- •3.1 Относительная частота событий
- •3.2. Свойства относительной частоты
- •3.3. Статистическая устойчивость частот
- •3.4. Формулировка аксиом Колмогорова.
- •3.5. Следствия из аксиом
- •4.1. Вычисление вероятностей событий
- •4.2. Задача о выборке
- •4.3. Геометрический подход к вероятности
- •5. Сложение и умножение вероятностей
- •5.1. Сложение вероятностей
- •5.2. Независимые и зависимые события
- •5.3. Условная вероятность
- •5.4. Умножение вероятностей
- •5.5. Свойства условных вероятностей
- •5.6. Независимость нескольких событий
- •5.7. Независимость противоположных событий
- •5.8. Вероятность появления хотя бы одного события
- •5.9. Применение теорем сложения и умножения для решения задач
- •6. Вероятность гипотез
- •6.1.Формула полной вероятности
- •6.2. Переоценка вероятности гипотез. Формула Байеса (Бейеса)
- •7. Серии независимых испытаний
- •7.1. Формула Бернулли
- •7.2. Локальная теорема Муавра – Лапласа
- •7.3. Свойства функции (х).
- •7.3. Функция Лапласа
- •7.4. Интегральная теорема Лапласа
- •7.5. Закон больших чисел в форме Бернулли
- •7.6. Формула Пуассона
- •8. Случайные величины
- •8.1. Дискретные случайные величины
- •8.2. Характеристическая случайная величина (индикатор события)
- •8.3. Биномиальное распределение (распределение Бернулли)
- •8.4. Распределение Пуассона
- •8.5. Гипергеометрическое распределение
- •9. Непрерывные случайные величины
- •9.1. Функция распределения (интегральная функция распределения)
- •9.2. Свойства функции распределения
- •9.3. Примеры функций распределения
- •10. Плотность распределения
- •10.1. Свойства плотности распределения
- •Вероятностный смысл плотности распределения.
- •10.3. Связь между плотностью и функцией распределения
- •10.4. Примеры непрерывных случайных величин, заданных плотностью
- •11. Числовые характеристики случайной величины
- •11.1. Определение математического ожидания
- •11.2. Определение математического ожидания
- •11.3. Смысл математического ожидания
- •11.4. Арифметические операции со случайными величинами
- •11.4.1. Постоянная случайная величина
- •11.4.2. Произведение случайных величин
- •11.4.3. Сумма случайных величин
- •11.4.4. Разность случайных величин
- •11.5. Свойства математического ожидания
- •11.6. Отклонение случайной величины
- •12.1. Дисперсия Для общего представления о распределении случайной величины важное значение имеет не только её математическое ожидание, но и разброс её возможных значений.
- •12.2. Определение дисперсии
- •12.3. Механический смысл дисперсии
- •12.4. Сокращённая формула для вычисления дисперсии
- •12.5. Свойства дисперсии
- •12.6. Среднее квадратическое отклонение (стандарт)
- •12.7. Числовые характеристики основных дискретных распределений
- •12.7.1. Индикатор события
- •12.7.2. Биномиальное распределение
- •12.7.3. Распределение Пуассона
- •12.7.4. Гипергеометрическое распределение
- •Гипергеометрическое распределение.
- •13.1. Равномерное распределение
- •13.2. Показательное (экспоненциальное) распределение
- •13.2.1. Функция надёжности
5.6. Независимость нескольких событий
Как обычно, будем рассматривать события, соответствующие какому-либо одному испытанию.
Определение 1. (другое определение независимости двух событий).
События А и В называются независимыми, если для них выполняется условие:
Р(АВ)=Р(А)Р(В).
Определение 2.
События А1,
А2,…,Аn
называются попарно
независимыми,
если для любых
,
ij
Р(АiАj)=Р(Аi)P(Aj). (5.6.1)
Определение 3. События А1, А2,…,Аn называются независимыми в совокупности, или взаимно независимыми, если любое из этих событий Аi не зависит не только от всякого другого из них, но и от любого произведения, составленного из оставшихся событий А1, А2,…,Аi-1, Ai+1,…,Аn.
Другими словами,
если события А1,
А2,…,Аn
независимы в совокупности, то для любых
должно выполняться
(5.6.2)
В частности, при
:
(5.6.3)
Требование независимости в совокупности сильнее, чем попарной независимости. Попарная независимость является лишь частным случаем независимости в совокупности, когда перемножаются только пары событий.
Пример. В урне находятся 4 шара: белый, черный, красный и пёстрый – окрашенный в полоску всеми этими тремя цветами. Испытание состоит в изъятии одного шара из урны и фиксировании его цвета. Обозначим события: А – вынутый шар содержит белый цвет; В – чёрный цвет; С – красный цвет. Выясним, насколько независимы эти события. Вероятности появления каждого цвета равны
Р(А)=Р(В)=Р(С)=2/4=1/2,
т.к. благоприятствующими исходами для любого цвета будут два из четырёх: появление шара, целиком окрашенного в данный цвет, и пёстрого шара.
Произведение любых двух событий будет означать появление пёстрого шара, следовательно,
.
С другой стороны, произведения вероятностей событий А, В и С также равны 1/4:
Следовательно,
события А,
В
и С попарно
независимы. Выясним, являются ли они
независимыми в совокупности. Рассмотрим
произведение всех трёх событий. АВС
это появление всех трёх цветов
одновременно, т.е. появление полосатого
шара. Тогда
.
Но
Р(А)Р(В)Р(С)=1/21/21/2=1/8Р(АВС).
Как видим, для шаров из нашего примера равенство (5.6.3) не имеет места.
5.7. Независимость противоположных событий
Понятия независимости и несовместности не связаны между собой, события могут быть независимыми, но совместными.
Теорема.
Если события А
и В
независимы, то независимы также пары
событий А
и
и В,
и
.
Замечание. Утверждение теоремы можно распространить на любое количество независимых в совокупности событий.
5.8. Вероятность появления хотя бы одного события
Теорема. Пусть имеется n событий А1,А2,…,Аn, независимых в совокупности, вероятности которых соответственно равны р1, р2,…,рn. Тогда вероятность события А появления хотя бы одного из этих событий можно вычислить по формуле:
Р(А)=1 – q1q2…qn, (5.8.1)
где qi
– вероятность события
.
Частный случай. Если события А1, А2,…, Аn имеют одинаковую вероятность, равную р, а противоположные им события имеют вероятность, равную q, то
P(B)=1 qn. (5.8.2)
Пример 1. Вероятность выхода из строя k-го блока вычислительной машины за время Т равна рk (k=1,2,…,n). Определить вероятность выхода из строя за время Т хотя бы одного из n блоков, если работа всех блоков взаимно независима.
А
– хотя бы один блок вышел из строя;
– все исправны; qk=1pk
k-й
блок исправен. Подставляем в формулу
(5.8.1):
Пример 2. Найти вероятность выпадения хотя бы одного герба при трёхкратном бросании монеты.
Пусть Аi – появление герба при i-м бросании; pi =p=1/2; qi=q=1–p=1/2.
По формуле (5.8.2)
P(A)=1 – q3=1 – (1/2)3=7/8.