- •Раздел III. Теория вероятностей и математическая статискика Лекция 17. Основные понятия теории вероятностей
- •17.1. Введение. Предмет теории вероятностей
- •17.2. Краткий исторический очерк
- •17.3. Случайное событие. Его частота
- •17. 4. Классическое определение вероятности. Непосредственный подсчет вероятностей.
- •Лекция 18. Алгебра событий. Основные теоремы теории вероятностей
- •18.1. Алгебра событий
- •18.2. Теорема сложения вероятностей
- •18.3. Полная группа событий. Противоположные события
- •18.4. Теорема умножения вероятностей Независимые и зависимые события.
- •18.5. Теорема умножения вероятностей независимых событий
- •18.6. Условная вероятность
- •18.7. Теорема умножения вероятностей зависимых событий
- •Лекция 19. Основные теоремы теории вероятностей (продолжение)
- •19.1. Теорема сложения вероятностей совместных событий
- •19. 2. Формула полной вероятности
- •19.3. Формулы Бейеса (формулы переоценки вероятностей гипотез)
- •19. 4. Повторение испытаний. Формула Бернулли
- •Лекция 20. Случайные величины и их законы распределения
- •20.1. Дискретные и непрерывные случайные величины
- •Понятие закона распределения вероятностей дискретной случайной величины
- •20. 3. Биноминальное распределение
- •20. 4. Распределение Пуассона
- •20. 5. Простейший пуассоновский поток событий
- •21.2. Математическое ожидание и его основные свойства
- •21.3. Дисперсия дискретной случайной величины
- •21.4. Среднее квадратическое отклонение
- •21.5. Свойства дисперсии
- •21. 6. Понятие о моментах распределения
- •21.7. Определение интегральной функции распределения
- •21.8. Свойство интегральной функции
- •21.9. График интегральной функции
- •22.2. Вероятность попадания непрерывной случайной
- •22.3. Нахождение интегральной функции распределения по известной дифференциальной
- •22.4. Свойства дифференциальной функции. Ее вероятностный смысл
- •22.5. Математическое ожидание. Дисперсия. Среднее квадратическое отклонение
- •22.6. Начальные и центральные моменты
- •22.7. Коэффициент асимметрии
- •22.8. Эксцесс
- •22.9. Мода. Медиана
- •Лекция 23. Законы распределения непрерывной случайной величины
- •Закон равномерного распределения или закон равномерной плотности
- •23.2. Нормальное распределение
- •23.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на интервал [
- •23.4. Правило трех сигм
- •Лекция 24. Система случайных величин
- •24.1. Понятие о системе случайных величин
- •24.2. Закон распределения вероятностей дискретной двумерной случайной величины
- •24.3. Интегральная и дифференциальная функция распределения двумерной случайной величины и их свойства
- •24.4. Условные законы распределения составляющих системы дискретных случайных величин
- •24.5. Числовые характеристики системы двух случайных величин
- •24.6. Коррелированность и зависимость случайных величин
- •Лекция 25. Предельные теоремы
- •25.1. Закон больших чисел
- •25.2. Теорема Чебышева
- •25.3. Теорема Бернулли
- •25.4. Центральная предельная теорема
18.4. Теорема умножения вероятностей Независимые и зависимые события.
Два события называются независимыми, если вероятность одного из них не зависит от появления или не появления другого.
Пример 1. В урне 6 белых и 3 черных шара. Из нее наудачу берут шар. Вероятность появления белого шара равна (событие А). Взятый шар возвращают в урну и снова берут из урны шар. Вероятность появления белого шара при повторном испытании (событие В) так же равна . При этом Р (А) не зависит от появления или не появления события В, а Р (В) не зависит от появления или не появления события А, т.е. А и В - независимые...
Несколько событий называют попарно независимыми, если каждые два из них независимы.
Пример 2. Монета брошена 3 раза. Пусть А, В, С, - события, состоящие в появлении герба соответственно в первом, втором и третьем испытаниях. Ясно, что А и В, А и С, С и В - независимы.
Два события называются независимыми, если вероятность появления одного из них зависит от наступления или не наступления другого.
Пример 3. В ящике 100 деталей: 80 стандартных и 20 нестандартных. Наудачу берут деталь, не возвращая ее в ящик. Если появилась стандартная деталь (событие А), то вероятность извлечения стандартной детали при втором испытании (событие В) Р (В)= . Если же при первом испытании вынута нестандартная деталь, то Р (В)== . Таким образом, Р (В) зависит от наступления или не наступления события А, т.е. А и В - зависимые события.
18.5. Теорема умножения вероятностей независимых событий
Известно, что произведением двух событий А и В называют событие, состоящее в совместном появлении (совмещении) этих событий.
Произведением нескольких событий называют событие, состоящее в совместном появлении всех этих событий.
Теорема. Вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий. Р (АВ)=Р (А) Р (В)
Доказательство: Введем обозначения:
n1 - число возможных элементарных испытаний, в которых событие А наступает или не наступает;
m1 - число исходов, благоприятствующих появлению события А (m1 n1);
n2 - число возможных элементарных испытаний, в которых событие В наступает или не наступает;
m2 - число исходов, благоприятствующих появлению события В (m2 n2).
Общее число возможных элементарных исходов (в котором поступает и А и В, либо А и В, либо А и В, либо А и В) равно n1, n2. Действительно, каждый из n1 исходов, в которых появляется или не появляется событие А, может сочетаться с каждым из n2 исходов, в которых появляется или не появляется событие В.
Из этого числа n1, n2 всевозможных исходов благоприятствуют появлению А и В (совмещению А и В) m1 m2
Р (АВ)= ,
что и требовалось доказать.
Для обобщения теоремы умножения на несколько событий, введем понятие независимости событий в совокупности. Несколько событий называют независимыми в совокупности, если каждое из них и любая комбинация остальных событий (содержащая либо все остальные события, либо часть из них) есть события независимые.
Например, А1, А2, А3 - независимы в совокупности, то независимыми являются: А1 и А2,, А1 и А3, А2 и А3, А1А2 и А3, А1А3 и А2, А2А3 и А1.
Подчеркнем, что если несколько событий независимы попарно, то они не всегда независимы в совокупности.
Следствие. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий
Р (А1А2 ... Аn)=Р (А1) Р (А2) ... Р (Аn)
Пример. Имеется три ящика, содержащих по 10 деталей. В первом ящике 8 стандартных, во втором - 7, в третьем - 9. Из каждого ящика наудачу вынимают по одной детали. Найти вероятность того, что все три детали окажутся стандартными.
Решение. А1, А2,А3 - соответственно из I, II, III ящика вынута стандартная деталь. Р (А1)= , Р (А2)= , Р (А3)=
причем А1, А2,А3 - независимы в совокупности,
т.е. Р (А1, А2,А3)=Р (А1) Р (А2) Р (А3)= =0,504