- •Элементы комбинаторики, размещения, перестановки, сочетания.
- •Случайные события, алгебра событий, формулы де Моргана.
- •Классическая вероятность, теорема сложения вероятностей.
- •Статистическое определение вероятности, геометрическая вероятность.
- •Аксиоматическое определение вероятностей.
- •7. Независимость двух событий и в совокупности.
- •8.Полная группа событий, формула полной вероятности, формула Байеса.
- •9. Схема Бернулли, формула Бернулли, наивероятнейшее число схемы Бернулли.
- •10. Локальная и интегральная формулы Муавра-Лапласа в схеме Бернулли.
- •11. Функция Гаусса и функция Лапласа, их применения и свойства
- •12. Формула Пуассона
- •13. Оценка вероятности отклонения частоты от среднего и частости от вероятности в схеме Бернулли.
- •14. Случайн. Величина как функция на вероятностном пространстве, ф-ция распред.
- •15. Дискретная случайная величина (дсв), полигон распределения, свойства функции распределения
- •17.Математическое ожидание, дисперсия и среднее квадратическое отклонение дискретной св, их свойства.
- •18. Биномиальное, геометрическое, гипергеометрическое распределение, их среднее и дисперсия.
- •25. Вероятность отклонения от седнего и вероятность попадания на промежуток для номальной св.
- •32. Ковариация и корреляция св, свойства коэффициента корреляции.
- •33. Двумерное нормальное распределение.
- •34. Преобразование св, теорема о функции плотности преобразованной абсолютно непрерывной св.
- •35. Теорема о функции плотности распределения суммы компонент абсолютно непрерывной двумерной св (формула свертки)
- •37. Неравенства Маркова и Чебышева.
- •39. Центральная предельная теорема
- •Генеральная совокупность и выборка, выборочный метод
- •41.Вариационный ряд выборки.
- •42.Выборочная ф-я распределения, ее св-ва и связь с генеральной ф-ей распределения.
- •43. Выборочное среднее и дисперсия, исправленная выборочная дисперсия
- •44.Точечные оценки параметров генеральной совокупности, оценка среднего и дисперсии.
- •45.Несмещенность, состоятельность и эффективность точечных оценок.
- •46. Свойства точечных оценок среднего, дисперсии и доли
- •47.Интервальная оценка параметра ген. Сов-сти, доверительная вероятность.
- •48.Интервальная оценка для среднего норм. Ген. Сов-ти для известной и неизвестной дисперсии
Аксиоматическое определение вероятностей.
Ω={ω} -- набор элементарных событий
Рассмотрим набор подмножеств F={A/A c Ω}
Аксиома 1: Если А1, А2…Аn… F => A1+A2+…+An+… F
Аксиома 2: Для любого А F => F
Любой набор подмножеств данного множества, обладающий свойствами 1 и 2 – σ-алгебра
Из этих аксиом следует, что произведение любого подмножества тоже принадлежит σ-алгебре.
Аксиомы вероятностей
Вероятность события А F(A c Ω) называется число P(A), которое обладает следующими свойствами:
P(Ω)=1 P(A)>=0
Если семейство событий А1, А2…Аn… попарно несовместны, т.е. Ai*Aj=Ø, то вероятность суммы P(A1+A2+…+An+…)=P(A1)+P(A2)+…+P(An)+…
Дискретное вероятностное пространство -- вероятностное пространство, в котором пространство событий конечно или счетно, а σ-алгебра F -- множество всевозможных подмножеств дискретного множества Ω .
6. Условные вероятности и теорема умножения.
На практике часто встречаются ситуации, когда наступление некоторого события значительно меняет возможности наступления других событий и их вероятности. Если произошло событие B, то новая вероятность события А называется условной вероятностью и обозначается PB(A), говорят: «вероятность события А при условии B». При этом B оказывается достоверным событием и играет роль пространства элементарных событий Ω.
Условная вероятность PB(A) определяется формулой (при P(B) >0):
PB(A)= (1)
Из (1) следует формула:
P(A*B)= PB(A) P(B), P(B)>0, (2)
И симметричная формула:
P(A*B)= PA(B)P(A), P(A)>0 (3)
Независимыми называются такие события А и В, что PB(A)=P(A)
Из (2) получаем теорему умножения:
Пусть события А и В независимы, тогда
P(A*B)=P(A)P(B) (4)
Часто отношение (4) служит определением независимости событий, так что события называются независимыми, если вероятность их произведения равна произведению вероятностей.
Условная вероятность PB обладает всеми свойствами вероятности.
7. Независимость двух событий и в совокупности.
события А и В называются независимыми, если
P(AB)=P(A)P(B)
Свойства независимых событий:
если P(B)>0, то независимость А и В эквивалентна требованию : PB(A)=P(A)
если события А и В независимы, то и события и В также независимы
пусть события А и В1 независимы, А и В2 независимы, В1В2=Ø, то есть В1 и В2 несовместны. Тогда события А и В1+В2 независимы.
если события А и В являются независимыми с положительными вероятностями, то они являются несовместными.
Следствие. Если события А и В несовместны и P(A)>0, P(B)>0, то А и В обязательно зависимы.
События А1, А2,…, Аn называются независимыми в совокупности, если для любого k(2≤k≤n) имеет место
P(Ai1, Ai2,…, Aik)= (1)
Если формула (1) имеет место только при k=2, то события А1,А2,…,Аn называются попарно независимыми.
Из попарной независимости событий не следует независимость событий в совокупности.
8.Полная группа событий, формула полной вероятности, формула Байеса.
События Н1,Н2,…,Нn образуют полную группу событий, если они попарно несовместны, а их сумма является достоверным событием, т.е.
Hi*Hj=Ø, при i≠j и H1+H2+…+Hn=Ω
Такие события называются гипотезами.
Простейшим примером полной группы событий является произвольное событие А и его дополнение . По теореме сложения вероятностей, для полной группы событий справедливо равенство
P(H1)+P(H2)+…+P(Hn)=1
Полная группа событий Нi, i= , расслаивает пространство Ω на непересекающиеся множества.
Пусть события Н1,Н2,…, Нn образуют полную группу событий. Тогда для любого события А имеет место формула полной вероятности:
P(A)=
В формулу полной вероятности входят вероятности P(H1), P(H2)…, P(Hn), которые называются априорными. Если событие А наступило, то эти вероятности изменяются. Это будут условные вероятности PA(H1),PA(H2),…,PA(Hn). Они могут быть найдены по формуле Байеса:
PA(H1)=