
- •1. Классическое определение вероятности. Непосредственное вычисление. Статистическая оценка вероятности.
- •2. Алгебра событий. Вероятность противоположного признака.
- •3. Условная вероятность. Зависимые и независимые признаки.
- •4. Вероятность произведения двух и более признаков.
- •5. Вероятность суммы двух и более слагаемых. Совместные и несовместные признаки.
- •6. Элементы комбинаторики. Размещения, перестановки, сочетания
- •7.Геометрические вероятности. Аксиоматическое определение вероятности.
- •8. Формулы полной вероятности и Байеса.
- •9. Повторные независимые испытания. Формула Бернулли.
- •10. Формула Пуассона и локальная теорема Лапласа и их применение.
- •11.Интегральная теорема Лапласа. Работа с таблицами.
- •12.Понятие случайной величины. Дискретные величины. Ряд распределения вероятностей.
- •13. Математическое ожидание и его свойства.
- •14. Дисперсия и ее свойства.
- •15. Ковариация и ее свойства. Коррелированность и зависимость случайных величин.
- •16. Непрерывные случайные величины. Функция плотности. Примеры
- •17. Дисперсия и другие моменты непрерывно случайной величины
- •18. Функция распределения и ее свойства.
- •20. Устойчивость средних. Неравенство Чебышева.
- •21. Закон больших чисел. Теорема Чебышева.
- •22. Теорема Бернулли, усиленный закон больших чисел Бореля и Колмогорова.
- •Усиленный закон больших чисел
- •23. Центральная предельная теорема и интегральная теорема Лапласа
- •24. Совместное распределение случайных величин
- •25. Коэффициент корреляции и его свойства
- •28. Статистические оценки
- •29. Начальные и центральные моменты и их статистические оценки. Сходимость оценок.
- •31. Доверительные интервалы для дисперсии и среднего квадратичного отклонения
- •32. Проверка статических гипотез, гипотезы о средних.
- •34. Однофакторный дисперсионный анализ
- •35. Критерий согласия Пирсона, проверка гипотезы о законе распределения
- •36. Регрессия, как условная средняя. Оценка погрешности метода наименьших квадратов Суть метода наименьших квадратов (мнк).
- •Графическая иллюстрация метода наименьших квадратов (мнк).
- •37. Простая линейная регрессия.
- •38. Проверка значимости коэффициента регрессии по Фишеру и Стьюденту
- •39. Понятие о случайных процессах. Цепи Маркова и теорема Маркова.
- •40. Цепи Маркова. Предельные вероятности состояний
8. Формулы полной вероятности и Байеса.
Одним из следствий совместного применения
теорем сложения и умножения вероятностей
являются формулы полной вероятности и
Байеса. Напомним, что события A1,
A2, …, An
образуют полную группу, если Ai
∙ Aj
= Ø, i ≠ j
и
Ai
= Ω. Систему таких событий называют
также разбиением.
Теорема. Пусть событий H1, H2, …, Hn образуют полную группу. Тогда для любого, наблюдаемого в опыте, события A имеет место формула полной вероятности или средней вероятности.
P(A) = P(Hi) ∙ P(A|Hi).
Так как H1 + H2 + … + Hn = Ω, то в силу свойств операций над событиями,
A = A ∙ Ω = A ∙ (H1 + H2 + … + Hn ) = A ∙ H1 + A ∙ H2 + … + A ∙ Hn . Из того, что Hi ∙ Hj = Ø, следует, что (A ∙ Hi) ∙ (A ∙ Hj) = Ø, i ≠ j, т. е. события A ∙ Hi и A ∙ Hj также несовместны. Тогда по теореме сложения вероятностей P(A) = P(A ∙ H1 ) + P(A ∙ H2) +…+ P(A ∙ Hn) т. е. P(A)= P(A ∙ Hi ). По теореме умножения вероятностей P(A ∙ Hi ) = P(Hi) ∙ P(A|Hi), откуда и следует формула теоремы.
Отметим, что в формуле события H1, H2, …, Hn называют гипотезами; они исчерпывают все возможные предположения (гипотезы) относительно исходов как бы первого этапа опыта, событие A – один из возможных исходов второго этапа.
Следствием формулы полной вероятности является формула Байеса или теорема гипотез. Она позволяет переоценить вероятности гипотез Hi , принятых до опыта и называемых априорными по результатам уже проведенного опыта, т. е. найти условные вероятности P(A|Hi), которые называют апостериорными.
Теорема. Пусть события H1,
H2, …, Hn
образуют полную группу событий.
Тогда условная вероятность событий Hk
(k =
)
при условии, что событие A
произошло, задается формулой
P(Hk|A)
=
,
где P(A) =
P(H1)
∙ P(A|H1)
+…+ P(Hn)
∙ P(A|Hn)
– формула полной вероятности. Формула
называется формулой Байеса.
Применив формулу условной вероятности и умножения вероятностей, имеем
P(Hk|A)
=
=
,
где P(A)
– формула полной вероятности.
9. Повторные независимые испытания. Формула Бернулли.
Независимые испытания. Схема Бернулли.
С понятием «независимых событий» связано понятие «независимых испытаний (опытов)».
Несколько опытов называются независимыми, если их исходы представляют собой независимые испытания (независимые в совокупности).
Другими словами, если проводится несколько испытаний, т. е. опыт выполняется при данном комплексе условий многократно (такое явление называется «последовательностью испытаний»), причем вероятность наступления некоторого события A в каждом испытании не зависит от исходов других испытаний, то такие испытания называются независимыми.
При практическом применении теории вероятностей часто используется стандартная схема, называемая схемой Бернулли или схемой независимых испытаний.
Последовательность n независимых испытаний, в каждом из которых может произойти некоторое событие A (его называют успехом) с вероятностью P(A) = p или противоположное ему событие A̅ (его называют неудачей) с вероятностью P(A̅) = q = 1 – p, называется схемой Бернулли.
В каждом испытании ПЭС состоит только из двух элементарных событий, т. е. Ω = {ω0, ω1}, где ω0 – неудача, ω1 – успех, при этом A = {ω1}, A̅ = {ω0}. Вероятность этих событий обозначается через p и q соответственно (p + q = 1). Множество элементарных исходов для n опытов состоит из 2n элементов. Например, при n = 3, т. е. опыт повторяется 3 раза, Ω = {(A̅, A̅, A̅) / ω0 ; (A, A, A̅) / ω1 ; (A, A̅, A) / ω2 ; (A̅, A, A) / ω3 ;(A, A̅, A̅) / ω4 ; (A̅, A, A̅) / ω5 ;( A̅, A̅, A) / ω6 ;(A, A, A) / ω7 }. Вероятность каждого элементарного события определяется однозначно. По теореме умножения вероятность события, скажем ω6 = ( A̅, A̅, A), равна q ∙ q ∙ p = pq2 , события ω7 – p ∙ p ∙ p = p3q0 =p3 и т. д.
Часто успеху сопоставляется число 1, неудаче – число 0. элементарным событием для n опытов будет последовательность из n нулей и единиц. Тройка чисел (0, 0, 0,) означает, что во всех трех опытах событие A не наступило; тройка чисел (0, 1, 0) означает, что событие A наступило во втором опыте, а в первом и третьем – не наступило.
Формула Бернулли.
Простейшая задача, относящаяся к схеме Бернулли, состоит в определении вероятности того, что в n независимых испытаниях событие A наступит m раз (0 ≤ m ≤ n). Обозначается искомая вероятность так: Pn(m) или Pn,m или P(μn = m), где μn – число появления события A в серии из n опытов.
Теорема. Если производится n независимых испытаний, в каждом из которых вероятность появления события A равна p, а вероятность его непоявления равна q = 1 – p, то вероятность того, что событие A произойдет m раз, определяется формулой Бернулли
Pn(m)
= C
∙
pm
∙ qn–m ,
m = 0, 1,
…, n.
Вероятность одного сложного события,
состоящего в том, что событие A
в n независимых
опытах появится m раз
в первых m опытах
и не появится (n –
m) раз в остальных
опытах (это событие
)
по теореме умножения вероятностей равна
pm
∙ qn–m
. Вероятность появления события
A снова m
раз, но в другом порядке, будет той же
самой, т.е.pm∙qn–m
.
Число таких сложных событий – в n
опытах m раз
встречается событие A
в различном порядке – равно числу
сочетаний из n по m,
т. е. C
.
Так как все сложные события несовместны,
то по теореме сложения вероятностей
искомая вероятность равна сумме
вероятностей всех возможных сложных
событий, т. е. Pn(m)
=
=
C
∙
pm
∙ qn–m
, m = 0, 1, …, n.
Можно заметить, что вероятности Pn(m), m = 0, 1, …, n являются коэффициентами при xm в разложении (q + px)n по формуле бинома Ньютона:
(q
+ px)n
= qn
+ C
qn–1
px + C
qn–2
p2x2
+…+ C
qn–m
pm
xm
+…+ pn
xn
. Поэтому совокупность
вероятностей Pn(m)
называют биноминальным законом
распределения вероятностей, а функцию
φ(x) = (q
+ px)n
– производящей функцией для
последовательности независимых опытов.
Если в каждом из независимых испытаний вероятности наступления события A разные, то вероятность того, что событие A наступит m раз в n опытах, равна коэффициенту при m-ой степени многочлена φn (z)=(q1 + p1z)(q2 + p2z) ∙…∙ (qn + pnz), где φn (z) – производящая функция.
Если в серии из n независимых опытов, в каждом из которых может произойти одно и только одно из k событий A1, A2, …, Ak с соответствующими вероятностями p1, p2, …, pk , то вероятность того, что в этих опытах событие A1 появится m1 раз, событие A2 – m2 раз, …, событие Ak – mk раз, равна
Pn(m1,
m2, …,
mk)
=
,
где m1 + m2
+…+ mk
= n. Вероятности
называются полиномиальным распределением.