
- •0. Основные формулы комбинаторики
- •0/ /Выбор с возвращением и с учётом порядка.
- •| . . . | | . | . . | . . | | . |
- •| . . | . | . | . . | . . | | . | | | | | | | | . . . . . . . . . |
- •1. Классическое и геометрическое определения вероятности, примеры.
- •1//Геометрическое определение вероятности.
- •2. Дискретное вероятностное пространство, примеры.
- •3. Парадоксы доаксиоматической теории вероятностей.
- •4.Аксиоматика Колмогорова, вложение пред определений в аксиоматику.
- •5. Свойства вероятностей.
- •7. Условная вероятность. Теорема умножения вероятностей.
- •8. Независимость событий, примеры независимых и зависимых событий.
- •9. Формула полной вероятности, примеры.
- •10. Формула Байеса, примеры.
- •11. Схема Бернулли, примеры, полиномиальная схема.
- •12. Теорема Пуассона, примеры применения.
- •13. Теоремы Муавра-Лапласа, примеры применения.
- •14. Случайные величины, их распределения, функции распределения и их свойства.
- •15. Свойства плотностей распределения.
- •16. Математическое ожидание, механическая интерпретация, свойства.
- •17. Вычисление математических ожиданий функций от случайных величин с помощью дискретных и непрерывных плотностей распределения.
- •18. Свойства и статистический смысл дисперсии.
- •19. Математическое ожидание и дисперсия нормального закона.
- •20. Математическое ожидание и дисперсия биномиального распределения.
- •21. Математическое ожидание и дисперсия закона Пуассона.
- •22. Коэффициент корреляции и его свойства.
- •23. Двумерное нормальное распределение.
- •24. Случайные векторы, их распределения, функции и плотности распределения и их свойства.
- •25.Многомерный нормальный вектор
- •26. Теорема о плотности распределения преобразованной случайной величины.
- •27. Теорема о плотности распределения преобразованного случайного вектора. Примеры.
- •1. Преобразование случайных величин.
- •28. Неравенство Чебышева, закон больших чисел.
- •28//Закон больших чисел
- •29. Свойства характеристических функций.
- •30. Центральная предельная теорема Леви. Вывод из неё интегральной теоремы Муавра-Лапласа.
- •31. Свойства производящих функций, примеры их вычисления.
- •32. Примеры использования производящих функций для вычисления моментов.
- •33. Определение и свойства условного математического ожидания.
- •34. Условное мат ожидание и условное распределение одного подвектора норм случ вектора относит другого подвектора
- •34//Условная вероятность.
- •35. Задачи оценивания в математической статистике, состоятельность, несмещаемость, эффективность оценки.
- •36. Примеры построения оценок и исследования их свойств
- •36//Основные свойства
- •37. Критерий проверки гипотез.
- •38. Критерий Колиогорова и критерий χ², примеры.
- •39. Доверительные интервалы, примеры.
- •39//Пример:
- •40. Марковские цепи. Определения и основные характеристики.
- •41. Классификация состояний Марковских цепей. Период.
- •42. Уравнения Чупмена-Колмогорова.
- •43. Критерий возвратности и следствия из него.
- •44. Возвратность цепей Маркова
- •45. Эргодическая теорема для цепей Маркова.
11. Схема Бернулли, примеры, полиномиальная схема.
Под схемой Бернулли понимают конечную серию n повторных независимых испытаний с двумя исходами. Вероятность появления (удачи) одного исхода при одном испытании обозначают p = P(Y), а непоявления (неудачи) его P(H) = q = 1 - p. Я. Бернулли установил, что вероятность ровно успехов в серии из повторных независимых испытаний вычисляется по следующей формуле:
То значение m0, при котором число Pn(m) является максимальным из множества {Pn(m)}, называется наивероятнейшим, и оно удовлетворяет условию
Формулу Бернулли
можно обобщить на случай, когда при
каждом испытании происходит одно и
только одно из k
событий с вероятностью
( . Вероятность появления
раз первого события и
- второго и
-го
находится по формуле
При достаточно большой серии испытаний формула Бернулли становится трудно применимой, и в этих случаях используют приближенные формулы. Одну из них можно получить из предельной теоремы Пуассона:
Пример 36. Система радиолокационных станций ведет наблюдение за группой объектов, состоящей из 8 единиц. Каждый объект может быть (независимо от других) потерян с вероятностью 0,1. Найти вероятность того, что хотя бы один из объектов будет потерян.
Решение. Пусть событие A = {потерять системой радиолокационных станций хотя бы один объект}, тогда P(A) = Ps(1) + Ps(2) + … + Ps(8)
Проще найти вероятность противоположного события - ни один объект не потерян.
Полиномиальная схема
Схему независимых
испытаний Бернулли еще называют
биномиальной схемой, поскольку она
рассматривает последовательности
испытаний с двумя исходами. От нее можно
перейти к более общей полиномиальной
схеме последовательных независимых
испытаний, в каждом из которых возможны
k
> 2 исходов
с вероятностями P1,
P2,…,
Pk
, 0 < Pi
< 1.
В этом случае
пространство элементарных исходов
содержит .Вероятность того,
что из n
испытаний m1
закончатся первым исходом, m2
– вторым исходом, …, mk
– k-ым
исходом равна:
12. Теорема Пуассона, примеры применения.
Теорема Пуассона.
При большом количестве испытаний вычисления по формуле Бернулли становятся затруднительными. Однако в ряде случаев их можно заменить более простыми асимптотическими формулами. Одна из них основана на теореме Пуассона.
Если число испытаний
так, что
при любых k
= 0, 1, 2..
Это означает, что при больших n и малых p вместо вычислений по точной формуле
можно воспользоваться приближенной
формулой
,
т.е. использовать формулу Пуассона для
l
= np.
Доказательство:
т.к.
то
Взяв предел от последнего выражения получим искомую формулу:
limn→∞pn(k)=k!λke−λ
Примеры применения.
Два стрелка подбрасывают монетку и выбирают, кто из них стреляет по мишени (одной пулей). Первый стрелок попадает по мишени с вероятностью 1, второй стрелок — с вероятностью 0,00001. Можно сделать два предположения об эксперименте:
H1 = {стреляет 1-ый стрелок} и H2 = {стреляет 2-ый стрелок}.
Априорные (a'priori —
«до опыта») вероятности этих гипотез
одинаковы:
Рассмотрим событие A = {пуля попала в мишень}. Известно, что
Поэтому вероятность пуле попасть в мишень
Предположим, что событие A произошло. Какова теперь апостериорная (a'posteriori — «после опыта») вероятность каждой из гипотез?
Очевидно, что первая из этих гипотез много вероятнее второй (а именно, в раз).
Действительно,