
- •1. Предмет теории вероятностей. Исходные понятия теории вероятностей (вероятность, испытание, событие, совместные и несовместные события).
- •2. Классификация событий (достоверные, невозможные и случайные события).
- •3. Классическое, статистическое и геометрические определения вероятности.
- •4. Элементы комбинаторики (размещения, перестановки, сочетания).
- •5. Теорема сложения вероятностей несовместных и совместных событий.
- •6. Элементарные события, полная группа событий. Противоположные события, вероятность противоположных событий.
- •7. Независимые события, умножение вероятностей независимых событий. Вероятность появления хотя бы одного события
- •8. Зависимые события, условная вероятность, умножение вероятностей зависимых событий.
- •9. Формула полной вероятности, формулы Байеса.
- •Формула Бейеса (Байеса)
- •10. Повторные испытания. Схема Бернулли.
- •11. Формула Пуассона для повторных испытаний.
- •12. Понятие случайной величины, дискретная и непрерывная случайные величины. Закон распределения вероятностей дискретной случайной величины, способы его задания.
- •13. Законы распределения дискретной случайной величины: биномиальный и Пуассона.
- •14. Статистические характеристики дискретной случайной величины.
- •15. Свойства математического ожидания дискретной случайной величины.
- •16. Свойства дисперсии дискретной случайной величины, основные формулы.
- •Свойства функции распределения вероятностей случайной величины
- •18. Функция распределения плотности вероятностей непрерывной случайной величины, ее числовые характеристики мат. Ожидание, дисперсия, среднее квадратичное отклонение.
- •19. Вероятность попадания значения непрерывной случайной в заданный интервал.
- •20. Равномерное распределение плотности вероятности непрерывной случайной величины.
- •22. Вероятность попадания значений непрерывной случайной величины в заданный интервал для нормального распределения плотности вероятностей.
- •23. Расчет вероятности заданного отклонения нормальной случайной величины. Правило трех сигм.
- •Правило трех сигм
- •26. Понятия генеральной совокупности, выборки и степени ее свободы, связных и несвязных выборок, нулевой и альтернативной гипотез.
- •Зависимые(связанные) и независимые (несвязанные) выборки
- •28. Непараметрические критерии, критерии знаков и Вилкоксона, их сходство и различия.
- •Алгоритм подсчета g – критерия знаков.
- •29. Параметрические критерии Стьюдента и Фишера, их сходство и различия.
- •30. Критерий согласия χ 2- Пирсона, его особенности и процедура принятия статист. Вывода.
4. Элементы комбинаторики (размещения, перестановки, сочетания).
При вычислении вероятностей часто приходится использовать некоторые формулы комбинаторики — науки, изучающей комбинации, которые можно составить по определенным правилам из элементов некоторого конечного множества. Перестановки — это комбинации, составленные из всех п элементов данного множества и отличающиеся только порядком их расположения. Число всех возможных перестановок Рп = п!
Размещения — комбинации из т элементов множества, содержащего п различных элементов, отличающиеся либо составом элементов, либо их порядком.
Сочетания — неупорядоченные наборы из т элементов множества, содержащего п различных элементов (то есть наборы, отличающиеся только составом элементов).
Вариант
упорядочивания данного множества
называется перестановкой
Например,
есть множество, состоящее из 3 элементов
- А, В, и С. Пример перестановки - СВА.
Число всех перестановок из n элементов
Если
из множества n элементов выбирают m в
определенном порядке, это
называется размещением.
Если
из множества n элементов выбирают m, и
порядок не имеет значения, это
называется сочетанием.
Приведем
до кучи формулу соотношения между
перестановками, размещениями и
сочетаниями
5. Теорема сложения вероятностей несовместных и совместных событий.
Несовместных
событий: Теорема. Вероятность
суммы конечного числа несовместных
событий
равна
сумме вероятностей этих событий
Совместных событий: Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления: P(A+B) = P(A) + P(B) — P(AB).
6. Элементарные события, полная группа событий. Противоположные события, вероятность противоположных событий.
В теории вероятностей элементарные события или события-атомы это исходы случайного эксперимента, из которых в эксперименте происходит ровно один. Множество всех элементарных событий обычно обозначается (....).
Пусть (....) есть вероятностное пространство. Любое разбиение множества (....) элементами называется полной группой событий.
По́лной гру́ппой собы́тий в теории вероятностей называется система случайных событий такая, что в результате произведенногослучайного эксперимента непременно произойдет одно из них. Теорема. Сумма вероятностей событий А1 , А2 , ..., Аn , образующих полную группу, равна единице: Р (A1) + Р (А2) + ... + Р (Аn) = 1.
Противоположные
события.
Противоположными называют
два единственно возможных события,
образующих полную группу. Если одно из
двух противоположных событий обозначено
через A, то другое принято обозначать
Теорема. Сумма
вероятностей противоположных событий
равна единице:
.
7. Независимые события, умножение вероятностей независимых событий. Вероятность появления хотя бы одного события
Событие В называют независимым от события А, если появление события А не изменяет вероятности события В, т. е. если условная вероятность события В равна его безусловной вероятности: РA (В) = Р (В).
Отсюда РB (A) = Р (A), т. е. условная вероятность события A в предположении что наступило событие В, равна его безусловной вероятности. Другими словами, событие A не зависит от события В. Итак, если событие В не зависит от события A, то событие A не зависит от события В; это означает, что с в о й с т в о н е з а в и с и м о с т и с о б ы т и й в з а и м н о. Для независимых событий теорема умножения вероятностей имеет вид:
Р (АВ) = Р (А) Р (В), т. е. вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий.
Два события называют независимыми, если вероятность их совмещения равна произведению вероятностей этих событий; в противном случае события называют зависимыми.
Несколько событий называют попарно независимыми, если каждые два из них независимы. Например, события А, В, С попарно независимы, если независимы события А и В, А и С, В и С.
Несколько событий называют независимыми в совокупности, если независимы каждые два из них и независимы каждое событие и все возможные произведения остальных. Например, если события A1, A2, А3, независимы в совокупности, то независимы события A1 и А2, А1 и А3, А2 и A3; А1 и A2A3, A2 и A1A3, А3 и A1A2. Из сказанного следует, что если события независимы в совокупности, то условная вероятность появления любого события из них, вычисленная в предположении, что наступили какие-либо другие события из числа остальных, равна его безусловной вероятности.
С л е д с т в и е. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий: Р (А1А2 ... Аn) = Р (А1) Р (А2) ... Р (Аn).
Вероятность появления хотя бы одного события. Теорема: вероятность появления хотя бы одного из попарно независимых событий А1, А2,…, Ап равна р (А) = 1 — q1q2…qn , где qi — вероятность события , противоположного событию Аi .