- •1. Испытания и события. Виды случайных событий.
- •2. Классическое определение вероятности.
- •3. Основные формулы комбинаторики.
- •4. Относительная частота.
- •5. Статистическая вероятность.
- •6. Геометрические вероятности.
- •7. Теорема сложения вероятностей несовместных событий.
- •8. Полная группа событий.
- •9. Противоположные события.
- •10. Произведение событий.
- •11. Условная вероятность.
- •12. Теорема умножения вероятностей.
- •13. Независимые события. Теорема умножения для независимых событий.
- •14. Вероятность появления хотя бы одного события.
- •15. Теорема сложения вероятностей совместных событий.
- •16. Формула полной вероятности.
- •17. Вероятность гипотез. Формулы Байеса.
- •18. Повторение испытаний.
- •19. Дискретные и непрерывные случайные величины.
- •20. Закон распределения вероятностей дискретной случайной величины.
- •21. Биномиальное распределение.
- •22. Распределение Пуассона.
- •23. Геометрическое распределение.
- •24. Математическое ожидание дискретной случайной величины. Вероятностный смысл.
- •25. Свойства математического ожидания.
- •26. Отклонение случайной величины от ее математического ожидания.
- •27. Дисперсия дискретной случайной величины.
- •28. Формулы для вычисления дисперсии. Свойства дисперсии.
- •29. Среднее квадратическое отклонение.
- •30. Среднее квадратическое отклонение суммы взаимно независимых случайных величин.
- •31. Генеральная и выборочная совокупности.
- •32. Повторная и бесповторная выборки. Репрезентативная выборка. Способы отбора.
- •33. Статистическое распределение выборки.
- •34. Эмпирическая функция распределения.
- •35. Полигон и гистограмма.
- •36. Генеральная средняя. Выборочная средняя.
- •37. Оценка генеральной средней по выборочной средней.
- •38. Групповая и общая средние.
- •39. Отклонение от общей средней и его свойство.
- •40. Генеральная дисперсия. Выборочная дисперсия.
- •41. Статистические оценки параметров распределения. Формулы для вычисления дисперсии.
- •42. Групповая, внутригрупповая, межгрупповая и общая дисперсии.
- •43. Сложение дисперсий.
- •44. Оценка генеральной дисперсии по исправленной выборочной.
- •45. Точность оценки, доверительная вероятность. Доверительный интервал.
- •Краткие объяснения от chatgpt
- •1. Испытания и события
- •2. Классическое определение вероятности
- •3. Основные формулы комбинаторики
- •4. Относительная частота
- •5. Статистическая вероятность
- •6. Геометрические вероятности
- •7. Теорема сложения вероятностей несовместных событий
- •8. Полная группа событий
- •9. Противоположные события
- •10. Произведение событий
- •11. Условная вероятность
- •12. Теорема умножения вероятностей
- •13. Независимые события
- •14. Вероятность появления хотя бы одного события
- •15. Теорема сложения вероятностей совместных событий
- •16. Формула полной вероятности
13. Независимые события
Событие A называется независимым от B, если вероятность A не зависит от того, произошло ли B. Формально:
P(A∣B)=P(A)
Или:
P(A⋅B)=P(A)⋅P(B)
Пример:
Подбрасывание двух монет. Выпадение «орла» на первой монете и выпадение «орла» на второй монете — независимые события. P(орел на 1-й⋅орел на 2-й)=P(орел на 1-й)⋅P(орел на 2-й)=1/2⋅1/2=1/4.
14. Вероятность появления хотя бы одного события
Если у нас есть несколько событий (A1,A2,...,An), вероятность того, что произойдет хотя бы одно из них, можно найти так:
P(A)=1−P(Aˉ1⋅Aˉ2⋅...⋅Aˉn),
где Aˉi — противоположное событие (т.е. событие, что Ai не произошло).
Пример:
Три монеты подбрасываются. Найти вероятность, что хотя бы одна монета покажет орла.
Вероятность того, что на одной монете не выпал орел P(Aˉ)=1/2.
Вероятность того, что ни на одной из трех монет не выпал орел: P(Aˉ1⋅Aˉ2⋅Aˉ3)=P(Aˉ1)⋅P(Aˉ2)⋅P(Aˉ3)=1/2⋅1/2⋅1/2=1/8.
Вероятность того, что хотя бы на одной монете выпал орел: P(A)=1−P(Aˉ1⋅Aˉ2⋅Aˉ3)=1−1/8=7/8
15. Теорема сложения вероятностей совместных событий
Если два события A и B могут произойти одновременно, их вероятность суммы вычисляется так:
P(A+B)=P(A)+P(B)−P(A⋅B)
Пример:
Вероятность, что карта из колоды — туз (A), равна P(A)=4/36 Вероятность, что карта — бубновая (B), равна P(B)=1/4. Вероятность, что карта — бубновый туз (A⋅B), равна P(A⋅B)=1/36. Тогда вероятность того, что карта либо туз, либо бубновая: P(A+B)=P(A)+P(B)−P(A⋅B)=4/36+1/4−1/36=12/36=1/3
16. Формула полной вероятности
Если событие A связано с рядом несовместных гипотез H1,H2,...,Hn, образующих полную группу, вероятность A вычисляется так:
P(A)=∑i=1nP(Hi)⋅P(A∣Hi)
Пример:
Три урны:
Урна 1: 1 белый, 3 черных шара (P(H1)=1/3
Урна 2: 2 белых, 2 черных шара (P(H2)=1/3
Урна 3: 3 белых, 1 черный шар (P(H3)=1/3
Вероятность достать белый шар: P(A)=P(H1)P(A∣H1)+P(H2)P(A∣H2)+P(H3)P(A∣H3),P(A) = P(H_1)P(A|H_1) + P(H_2)P(A|H_2) + P(H_3)P(A|H_3), где P(A∣H1)=1/4,P(A∣H2)=2/4,P(A∣H3)=3/4
P(A)=1/3⋅1/4+1/3⋅2/4+1/3⋅3/4=1/12+2/12+3/12=6/12=1/2
17. Формула Байеса
18. Повторение испытаний: схема Бернулли
19. Дискретные и непрерывные случайные величины
20. Математическое ожидание
Математическое ожидание (M(X)M(X)) — это среднее значение случайной величины при большом числе экспериментов.
Для дискретной случайной величины:
M(X)=∑i=1nxi⋅P(xi),M(X) = \sum_{i=1}^n x_i \cdot P(x_i),
где xix_i — возможные значения, а P(xi)P(x_i) — их вероятности.
Пример:
Случайная величина XX — выпавшее число на игральной кости. X:{1,2,3,4,5,6},P(X)=16.X: \{1, 2, 3, 4, 5, 6\}, \quad P(X) = \frac{1}{6}. Тогда: M(X)=1⋅16+2⋅16+⋯+6⋅16=1+2+3+4+5+66=3.5.M(X) = 1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + \dots + 6 \cdot \frac{1}{6} = \frac{1 + 2 + 3 + 4 + 5 + 6}{6} = 3.5.
Для непрерывной случайной величины:
M(X)=∫−∞∞x⋅f(x)dx,M(X) = \int_{-\infty}^\infty x \cdot f(x) dx,
где f(x)f(x) — плотность вероятности.
Если всё понятно, можем продолжить с дисперсией, среднеквадратичным отклонением и другими характеристиками случайных величин! 😊
