- •4. Классическое определение вероятности.
- •5. Геометрические вероятности и статистическая вероятность.
- •6. Теоремы сложения и умножения вероятностей..
- •48. Основные понятия дисперсионного анализа.
- •7. Условная вероятность.
- •8. Независимость событий.
- •9. Формулы полной вероятности и Байеса.
- •47. Критерии согласия Пирсона и Колмогорова.
- •17. Случайные величины и законы их распределения
- •21 Мода и медиана
- •22.Моменты случайных величин
- •26. Закон Пуассона.
- •27. Геометрическое и гипергеометрическое распределения.
- •28. Равномерное распределение.
- •31.Функция Лапласа.
- •38. Центральная предельная теорема.
- •Вопрос 39. Предмет математической статистики.
- •Вопрос 40. Генеральная и выборочная совокупность.
- •2. Алгебра событий.
- •11.Формула Бернулли.
- •30.Нормальный закон распределения Непрерывная случайная величина х имеет нормальный закон распределения (закон Гаусса) с параметрами а и , если ее плотность вероятности имеет вид
- •13.Теорема Пуассона.
- •15. Случайные величины их класификация
- •29.Показательное распределение.
- •16.Дискретные и Непрерывные величины.
- •37. Теорема Чебышева и Бернулли.
- •23.Асимметрия и эксцесс.
- •25.Биномиальный закон распределения.
- •26.Функции случайных величин.
- •33. Многомерные случайные величины.
- •14. Локальной и интегральной формуле Муавра – Лапласа
- •3 Частота и вероятность
- •35. Корреляционный момент и коэфф.Корреляции.
- •34 Зависимые и независимые случайные величина.
- •12.Найвераятнейшее число успехов в схеме Бернулли.
- •10. Последовательность независимых повторных испытаний.
- •32. Распределение «хи-квардат». Стьюдента и Фишера –Снедекора.
- •44. Статистические гипотизы.
- •43. Предельная ошибка и необходимость объем выборки.
- •45. Уровень значимости и мощность критерии.
- •46. Проверка статистических гипотез.
- •53. Ранговая корреляция
- •52. Проверка значимости уравнение и коэффициентов уравнения регрессии.
- •50. Модели и Основные понятия корреляционного и регрессионного анализа
- •51. Линейная корреляционная зависимость и линии регрессии.
- •49. Однофакторный дисперсионный анализ
7. Условная вероятность.
В ряде случаев приходится рассматривать вероятности событий при дополнительном условии, что произошло некоторое другое событие, имеющее вероятность, отличную от нуля. Такие вероятности называются условными вероятностями.
Вероятность события В при условии, что произошло событие А, называется условной вероятностью события В и обозначается так: Р (В/А), или РА(В).
Например, пусть А – событие, состоящее в извлечении белого шара из урны, содержащей n шаров, в том числе mбелых, n – mчерных; В – событие, состоящее в извлечении белого шара из той же урны после того, как из нее уже извлечен один шар. Очевидно, если первый извлечённый шар был белым, т.е. если произошло событие А, то в урне после первого извлечения останется m – 1 белых иn-mчерных шаров, поэтому вероятность события В будет равнаm-1/n-1. Если же первый извлеченный шар был черным (произошло событие А), то в урне останется mбелых и n-m-1 черных шаров; искомая вероятность окажется равной m/n-1. Следовательно, вероятность события В меняется в зависимости от того, происходит или не происходит событие А, т.е. вероятность события В может принимать два различных значения m-1/n-1, m/n-1.
Таким образом, Р(В/А)=m-1 /n-1, P(B/A)= m/n-1.
В случае классического определения условные вероятности вычисляются аналогично тому, как вычисляются безусловные вероятности. Пусть среди полной группы элементарных исходов А1, А2, …, Аn событию А благоприятствуют m исходов, событию В – kисходов, событию АВ –lисходов (l<=m, l<=k). если событие В произошло, то это означает, что наступило одно из событий Ai, благоприятствующих В, при этомl и только l событийAi, благоприятствующих АВ, поэтому
Р(А/В) = l/k = l/n / k/n = P(AB)/P(B),
P(B/A) = l/m = l/n / m/n = P(AB) / P(A).
Итак, получены следующие формулы:
Р(А/В)=Р(АВ)/Р(В), Р(В/А)= Р(АВ)/Р(А).
При аксиоматическом введении понятия вероятности условные вероятности определяются соответственно формулами:Р(В/А)=Р(АВ)/Р(А), Р(А/В) = Р(АВ)/Р(В).
8. Независимость событий.
Введем понятие независимости одного события от другого. Событие В не зависит от события А, если Р(В/А) = Р(В),
Т.е. вероятность события В не зависит от того, произошло ли событие А.
Из формул Р(АВ)=Р(А)Р(В/А), Р(АВ)= Р(В)Р(А/В) следует, что Р(А)Р(В/А) = Р(В)Р(А/В). Учитывая Р(В/А) = Р(В), получаем Р(А)Р(В) = Р(В)Р(А/В). Отсюда следует, что Р(А/В)=Р(А), так как Р(В) ≠ 0. Это равенство означает, что событие А не зависит от события В.
Таким образом, свойство независимости событий является взаимным.
Если событие А и В независимы, то независимы также события Ā и В, А и , Ā и. Докажем независимость событий Ā и В. События А / В и Ā / В противоположны, поэтому Р(А/В) + Р(Ā/В)=1. Поскольку события А и В независимы, т.е. Р(А/В) = Р(А) и Р(В/А) = Р(В), тоР(А) + Р(Ā/В) = 1,
Р(Ā/В) = 1 – Р(А)= Р(Ā), Р(Ā/В) = Р(Ā).
Последнее равенство означает, что Ā не зависит от В. Но в этом случае и В не зависит от Ā, т.е. Ā и независимы.
9. Формулы полной вероятности и Байеса.
Пусть А – произвольное событие, события Н1, Н2, …Нnпопарно – несовместимы и А содержит Н1 + Н2, + …+ Нn. Вероятности событий Нi (I = 1,2,…, n) известны, причем Р(Нi) не равно 0; известны также условные вероятности Р(А/Нi). Требуется найти вероятность события А.
Событие А можно представить в виде суммы попарно-несовместных событий А=Н1А+ Н2А+…+НnA. На основании следствия из аксиомы Р(А1+А2+…+Аn) = P(A1)+P(A2)+…+P(An) имеем
Р(А) = Р(Н1А)+Р(Н2А)+…+Р(НnA).
Применяя теорему умножения вероятностей Р(АВ)=Р(А)Р(В/А), Р(АВ)=Р(В)Р(А/В) находим
Р(Н1А)=Р(Н1)Р(А/Н1),
Р(Н2А) = Р(Н2)Р(А/Н2), …Р(НnА)=Р(Нn)Р(А/Нn).
Подставив эти выражения в предыдущее равенство, получим
Р(А) = Р(Н1)Р(А/Н1)+Р(Н2)Р(А/Н2) +…+Р(Нn)Р(А/Нn) – эта формула называется формулой полной вероятности.
Пусть Н1,Н2,…Нn – попарно-несовместные события, вероятности которых Р(Ні) не равны 0 (і = 1,2,…n), и событие А содержит Н1 + Н2 +…+Нп, для которого известны условные вероятности Р(А/Ні) (і= 1,2,…п). произведем опыт, в результате которого появилось событие А. нужно найти условные вероятности событий Н1,Н2,… НП относительно событий А.
Применяя теорему умножения вероятностей Р(АВ)=Р(А)Р(В/А), Р(АВ)=Р(В)Р(А/В) получаем
Р(АНk) = Р(А)Р(Нk /A) = P(Hk)P(A/Hk),
ОткудаР(Нk/A)= P(Hk)P(A/Hk)/P(A).
Подставим сюда выражение для Р(А) из формулы полной вероятности Р(А)= Р(Н1)Р(А/Н1)+Р(Н2)Р(А/Н2)+…+Р(Нn)Р(А/Нn), получим
P(Hk)/A = P(Hk)P(A/Hk)/суммуP(Hi)P(A/Hi) ,k = (1,2,…n).
Эти формулы называют формулами Байеса.