- •1. События и операции над ними
- •2. Классическое определение вероятности
- •3. Статистическое определение вероятности
- •4. Геометрическое определение вероятности
- •5. Теорема сложения вероятностей
- •6. Произведение событий
- •7. Условная вероятность
- •8. Теорема сложения вероятностей совместных событий
- •9. Формула полной вероятности
- •10. Вероятность гипотез. Формулы Бейеса
- •11. Формула Бернулли
- •12. Локальная теорема Лапласа
- •13. Интегральная теорема Лапласа
- •14. Дискретные и непрерывные случайные величины
- •15. Закон распределения вероятностей дискретной случайной величины.
- •16. Биномиальное распределение
- •17. Распределение Пуассона
- •18. Геометрическое распределение
- •19. Гипергеометрическое распределение
- •20. Математические операции над случайными величинами
- •21. Числовые характеристики дискретных случайных величин
- •22. Математическое ожидание дискретной случайной Величины
- •23. Вероятностный смысл математического ожидания
- •24. Свойства математического ожидания
- •25. Отклонение случайной величины от ее математического ожидания
- •26. Дисперсия дискретной случайной величины
- •27. Формула для вычисления дисперсии
- •28. Свойства дисперсии
- •29. Среднее квадратическое отклонение
- •30. Начальные и центральные теоретические моменты
- •31. Закон больших чисел
- •32. Функция распределения случайной величины
- •33. Непрерывные случайные величины. Плотность вероятности
- •34. Мода и медиана. Квантили. Моменты случайных величин. Асимметрия и эксцесс
- •35. Моменты непрерывной случайной величины
- •36. Равномерный закон распределения
- •37. Показательный (экспоненциальный) закон распределения
- •38. Нормальный закон распределения
- •39. Вероятность попадания в заданный интервал нормальной случайной величины
- •40. Вычисление вероятности заданного отклонения
- •41. Распределение "хи квадрат"
- •42. Распределение Стьюдента
- •43. Система двух случайных величин
- •1. Генеральная и выборочная совокупности
- •2. Повторная и бесповторная выборки. Репрезентативная выборка
- •3. Способы отбора из генеральной совокупности.
- •4. Статистическое распределение выборки.
- •5. Эмпирическая функция распределения.
- •6. Полигон и гистограмма.
- •7. Статистические оценки параметров распределения.
- •8. Несмещенные, эффективные и состоятельные оценки.
- •9. Средние значения количественного признака X.
- •10. Дисперсии количественного признака X.
- •11. Оценка генеральной дисперсии по исправленной выборочной.
- •12. Точность оценки, доверительная вероятность (надежность). Доверительный интервал.
- •13. Доверительные интервалы для оценки математического ожидания нормального распределения при известном σ.
- •14. Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестном σ.
- •15. Доверительные интервалы для оценки среднего квадратического отклонения σ нормального распределения.
- •16. Статистическая проверка статистических гипотез.
- •17. Отыскание правосторонней критической области.
- •18. Отыскание левосторонней и двусторонней критических областей.
6. Произведение событий
Вероятность произведения событий. Теорема. Вероятность совместного появления двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило: P(AB)=P(A)PA(B).
Доказательство. По определению условной вероятности, PA(B)=P(AB)/P(A). Отсюда P(AB)=P(A)PA(B).
Следствие. Вероятность совместного появления нескольких событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого последующего события вычисляется в предположении, что все предыдущие события уже появились: P(A1A2A3…An)=P(A1)PA1(A2)PA1A2(A3)…PA1A2…An-1(An), где PA1A2…An-1(An) вероятность события An, вычисленная в предположении, что события A1A2…An-1 наступили. В частности для трех событий P(ABC) = P(A) PA(B)PAB(C). Порядок расположения событий не важен.
7. Условная вероятность
Условная вероятность и независимость событий. Случайное событие определено как событие, которое при осуществлении совокупности условий S может произойти или не произойти. Если при вычислении вероятности события никаких других ограничений, кроме условий S, не налагается, то такую вероятность называют безусловной; если же налагаются и другие дополнительные условия, то вероятность события называют условной. Например, часто вычисляют вероятность события В при дополнительном условии, что произошло coбытие А. Заметим, что и безусловная вероятность, строго говоря, является условной, поскольку предполагается осуществление условий S,
Условной вероятностью РА (В) называют вероятность события В, вычисленную в предположении, что событие А уже наступило. P(A|B)=P(AB)/P(B); P(AB)=P(A)P(B|A)=P(B)P(A|B).
Событие В называют независимым от события А, если появление события А, если появление события А не изменяет вероятности события В, т.е. если условная вероятность события В равна его безусловной вероятности: PA(B)=P(B). Подставив это соотношение в соотношение P(A)PA(B)=P(B)PB(A), получим P(A)P(B)=P(B)PB(A), откуда PB(A)=P(A). Если событие В не зависит от события А, то и событие А не зависит от события В, т.е. свойство независимости событий взаимно.(Условие независимости событий P(A|B)=P(A)т.е. P(AB)=P(A)P(B)). Несколько событий называются независимыми в совокупности, если независимы каждые два из них и независимы каждое событие и все возможные произведения остальных.
8. Теорема сложения вероятностей совместных событий
Вероятность суммы событий. Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления:
Доказательство. Поскольку события А и В, по условию, совместны, то событие А + В наступил1, если наступит одно из следующих трех несовместных событий: А , В или АВ. По теореме сложения вероятностей несовместных событий, Р(А+В)=P (А )+P( В)+P (АВ) .(*)
Событие А произойдет, если наступит одно из двух несовместных событий: А или АВ. По теореме сложения вероятностей несовместных событий имеем Р(А) = Р(А ) + Р(АВ). Отсюда
Р(А ) = Р(А) — Р(АВ). (**)
Аналогично имеем Р(B) = Р( В) + Р(АВ)
Отсюда Р( В) = Р(B) — Р(АВ) (***)
Подставив (**) и (***) в (*), окончательно получим P(A+B)=P(A)+P(B)-P(AB) (****)
.Замечание I. При использовании полученной формулы следует иметь в виду, что события А и В могут быть как независимыми, так и зависимыми.
Для независимых событий
Р(А + В) = Р(А) + Р(В)-Р(А)Р(В);
для зависимых событий
Р (А + В) = Р (А) + Р (В) -Р (А) РA (В).
Замечание 2. Если события А и В несовместны, то их совмещение есть невозможное событие и, следовательно, P(AB)=0. Формула (****) для несовместных событий примет вид P(A+B)=P(A)+P(B).