- •Министерство транспорта российской федерации
- •Введение
- •1. Основные понятия теории вероятностей
- •1.1. События. Классификация событий
- •1.2. Классическое и статистическое определение вероятности
- •1.3. Элементы комбинаторики
- •2. Алгебра событий
- •2.1. Действия над событиями
- •2.2. Теорема сложения вероятностей несовместных событий
- •2.3. Зависимые и независимые события
- •2.4. Теорема умножения вероятностей независимых событий
- •2.5. Вероятность появления хотя бы одного события
- •2.6. Условная вероятность
- •2.7. Теорема умножения вероятностей зависимых событий
- •2.8. Теорема сложения вероятностей совместных событий
- •2.9. Формула полной вероятности
- •2.10. Вероятность гипотез. Формула Байеса
- •3. Повторные независимые испытания
- •3.1. Формула Бернулли
- •3.2 Локальная теорема Муавра-Лапласа
- •3.3. Интегральная теорема Лапласа
- •3.4. Формула Пуассона
- •4. Случайные величины
- •4.1. Понятие случайной величины
- •4.2. Закон распределения случайной величины
- •4.3. Функция распределения случайной величины
- •4.4. Плотность вероятности
- •5. Числовые характеристики случайных величин
- •5.1. Математическое ожидание случайной величины
- •5.2. Дисперсия случайной величины
- •5.3. Среднее квадратическое отклонение случайной величины
- •5.4. Мода и медиана. Квантили
- •Решение. Находим функцию распределения
- •5.5. Моменты случайных величин. Асимметрия и эксцесс
- •5.6. Числовые характеристики независимых испытаний
- •5.7. Одинаково распределенные взаимно независимые случайные величины
- •6. Основные законы распределения
- •6.1. Биноминальный закон распределения
- •6.2. Закон распределения Пуассона
- •6.3. Равномерный закон распределения
- •6.4. Показательный (экспоненциальный) закон распределения
- •6.5 Функция надежности
- •6.6. Нормальный закон распределения
- •7. Предельные теоремы теории вероятностей
- •7.1. Закон больших чисел
- •7.1.1. Неравенство Чебышёва
- •7.1.2. Теорема Чебышёва
- •7.1.3. Теорема Бернулли
- •7.1.4. Теорема Пуассона
- •7.1.5. Теорема Маркова
- •7.2.Центральная предельная теорема
- •7.2.1. Теорема Ляпунова
- •7.2.2. Теорема Берри-Эссена
- •8. Многомерные случайные величины
- •8.1. Понятие многомерной случайной величины
- •8.2. Закон распределения вероятностей двумерной дискретной случайной величины
- •8.3. Функция распределения многомерной случайной величины
- •8.4. Плотность вероятности двумерной случайной величины
- •8.5. Условные законы распределения двумерной случайной величины
- •8.6. Зависимые и независимые случайные величины
- •8.7. Числовые характеристики двумерной случайной величины.
- •Библиографический список
- •Оглавление
- •Лаврусь Ольга Евгеньевна Конспект лекций по теории вероятностей
- •443022, Г. Самара, Заводское шоссе, 18
2.3. Зависимые и независимые события
Определение. Два события называют независимыми, если вероятность появления одного из них не зависит от того, произойдет другое событие или нет.
Например, опыт состоит в бросании двух монет. Пусть А и В – события, состоящие в том, что герб появится соответственно на первой и второй монете. В данном случае вероятность события А не зависит от того, произошло событие В или нет. Следовательно, событие А независимо от события В.
Определение. Несколько событий называют попарно независимыми, если каждые два из них независимы.
Например, опыт состоит в бросании трех монет. Пусть А, В, С – события, состоящие в том, что герб появится соответственно на первой, второй и третьей монете. В данном случае каждые два из рассматриваемых событий (т.е. А и В, А и С, В и С) – независимы. Следовательно, события А, В и С – попарно независимые. ◄
Определение. Два события называют зависимыми, если вероятность появления одного из них меняется в зависимости от того, произойдет другое событие или нет.
Например, в урне 3 белых и 2 черных шара. Наудачу берут один шар, не возвращая его в урну. Если появился белый шар (событие А), то вероятность появления белого шара во втором испытании (событие В) Р(В) = . Если же в первом испытании появился черный шар (т.е. событиеА не произошло), то вероятность Р(В) = . Т.е. вероятность событияВ зависит от того, произошло событие А или нет. Следовательно, события А и В – зависимые.
Отметим, что зависимость и независимость событий всегда взаимны, т.е. если событие В не зависит от события А, то и событие А не зависит от события В.
2.4. Теорема умножения вероятностей независимых событий
Сформулируем теорему умножения вероятностей независимых событий.
Теорема. Вероятность совместного появления двух независимых событий А и В равна произведению вероятностей этих событий:
Р(АВ) = Р(А)·Р(В). |
(2.5) |
Для того чтобы обобщить теорему умножения на несколько событий, введем понятие независимости событий в совокупности.
Определение. Несколько событий называют независимыми в совокупности, если каждое из них и любая комбинация остальных событий (содержащих либо все остальные события, либо часть из них) есть события независимые.
Например, если события А1, А2 и А3 независимые в совокупности, то независимыми являются события: А1 и А2, А1 и А3, А2 и А3, А1А2 и А3, А1А3 и А2, А2А3 и А1.
Подчеркнем, что если несколько событий независимы попарно, то из этого еще не следует их независимость в совокупности. В этом смысле требование независимости событий в совокупности сильнее требования их попарной независимости.
Теперь мы можем сформулировать следствие из теоремы умножения вероятностей, обобщающее теорему умножения на несколько событий.
Следствие. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий.
Р(А1А2…Аn) = Р(А1)·Р(А2) …·Р(Аn). |
(2.6) |
Пример 2.4. Имеется три урны, содержащих по 10 шаров. В первой урне 5 шаров красного цвета, во второй – 4, в третьей – 6. Из каждой урны наудачу вынимают по одному шару. Найти вероятность того, что все три шара окажутся красного цвета.
Решение. Вероятность того, что из первой урны вынут шар красного цвета (событие А) Р(А) = = 0,5. Вероятность того, что из второй урны вынут шар красного цвета (событиеВ) Р(В) = = 0,4. Вероятность того, что из третьей урны вынут шар красного цвета (событиеС) Р(С) = = 0,6.
Так как события А, В и С независимые в совокупности, то искомая вероятность (по теореме умножения) равна
Р(АВС) = Р(А)·Р(В)·Р(С) = 0,5·0,4·0,6 = 0,12. ◄