Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория вероятности БГУ.docx
Скачиваний:
3
Добавлен:
14.01.2025
Размер:
1.31 Mб
Скачать

13. Независимые события

Событие A называется независимым от B, если вероятность A не зависит от того, произошло ли B. Формально:

P(A∣B)=P(A)

Или:

P(A⋅B)=P(A)⋅P(B)

Пример:

  • Подбрасывание двух монет. Выпадение «орла» на первой монете и выпадение «орла» на второй монете — независимые события. P(орел на 1-й⋅орел на 2-й)=P(орел на 1-й)⋅P(орел на 2-й)=1/2⋅1/2=1/4.

14. Вероятность появления хотя бы одного события

Если у нас есть несколько событий (A1,A2,...,An), вероятность того, что произойдет хотя бы одно из них, можно найти так:

P(A)=1−P(Aˉ1⋅Aˉ2⋅...⋅Aˉn),

где Aˉi — противоположное событие (т.е. событие, что Ai не произошло).

Пример:

  • Три монеты подбрасываются. Найти вероятность, что хотя бы одна монета покажет орла.

    • Вероятность того, что на одной монете не выпал орел P(Aˉ)=1/2.

    • Вероятность того, что ни на одной из трех монет не выпал орел: P(Aˉ1⋅Aˉ2⋅Aˉ3)=P(Aˉ1)⋅P(Aˉ2)⋅P(Aˉ3)=1/2⋅1/2⋅1/2=1/8.

    • Вероятность того, что хотя бы на одной монете выпал орел: P(A)=1−P(Aˉ1⋅Aˉ2⋅Aˉ3)=1−1/8=7/8

15. Теорема сложения вероятностей совместных событий

Если два события A и B могут произойти одновременно, их вероятность суммы вычисляется так:

P(A+B)=P(A)+P(B)−P(A⋅B)

Пример:

  • Вероятность, что карта из колоды — туз (A), равна P(A)=4/36 Вероятность, что карта — бубновая (B), равна P(B)=1/4. Вероятность, что карта — бубновый туз (A⋅B), равна P(A⋅B)=1/36. Тогда вероятность того, что карта либо туз, либо бубновая: P(A+B)=P(A)+P(B)−P(A⋅B)=4/36+1/4−1/36=12/36=1/3

16. Формула полной вероятности

Если событие A связано с рядом несовместных гипотез H1,H2,...,Hn, образующих полную группу, вероятность A вычисляется так:

P(A)=∑i=1nP(Hi)⋅P(A∣Hi)

Пример:

  • Три урны:

    • Урна 1: 1 белый, 3 черных шара (P(H1)=1/3

    • Урна 2: 2 белых, 2 черных шара (P(H2)=1/3

    • Урна 3: 3 белых, 1 черный шар (P(H3)=1/3

  • Вероятность достать белый шар: P(A)=P(H1)P(A∣H1)+P(H2)P(A∣H2)+P(H3)P(A∣H3),P(A) = P(H_1)P(A|H_1) + P(H_2)P(A|H_2) + P(H_3)P(A|H_3), где P(A∣H1)=1/4,P(A∣H2)=2/4,P(A∣H3)=3/4

  • P(A)=1/3⋅1/4+1/3⋅2/4+1/3⋅3/4=1/12+2/12+3/12=6/12=1/2

17. Формула Байеса

18. Повторение испытаний: схема Бернулли

19. Дискретные и непрерывные случайные величины

20. Математическое ожидание

Математическое ожидание (M(X)M(X)) — это среднее значение случайной величины при большом числе экспериментов.

Для дискретной случайной величины:

M(X)=∑i=1nxi⋅P(xi),M(X) = \sum_{i=1}^n x_i \cdot P(x_i),

где xix_i — возможные значения, а P(xi)P(x_i) — их вероятности.

Пример:

  • Случайная величина XX — выпавшее число на игральной кости. X:{1,2,3,4,5,6},P(X)=16.X: \{1, 2, 3, 4, 5, 6\}, \quad P(X) = \frac{1}{6}. Тогда: M(X)=1⋅16+2⋅16+⋯+6⋅16=1+2+3+4+5+66=3.5.M(X) = 1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + \dots + 6 \cdot \frac{1}{6} = \frac{1 + 2 + 3 + 4 + 5 + 6}{6} = 3.5.

Для непрерывной случайной величины:

M(X)=∫−∞∞x⋅f(x)dx,M(X) = \int_{-\infty}^\infty x \cdot f(x) dx,

где f(x)f(x) — плотность вероятности.

Если всё понятно, можем продолжить с дисперсией, среднеквадратичным отклонением и другими характеристиками случайных величин! 😊