Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Seminar theory extracts.docx
Скачиваний:
3
Добавлен:
10.11.2019
Размер:
262.87 Кб
Скачать

Связь между (не)совместностью и (не)зависимостью

    • Несовместные события с ненулевыми вероятностями зависимы.

Доказательство. Здесь и далее докажем для двух событий и , не ограничивая общности.

Дано:

Иными словами, если произошло одно событие, то другое, вследствие несовместности, произойти уже не может. Следовательно, они зависимы.

Замечание. Здесь .

    • Независимые события с ненулевыми вероятностями совместны.

Доказательство.

Дано: .

Иными словами, если произошло одно событие, то и другое может произойти не зависимо от первого. Следовательно, они совместны.

Формулы полной вероятности и байеса

Если события удовлетворяют двум условиям:

  1. несовместность (см. выше);

  2. всеохватность (сумма всех событий есть достоверное событие): ;

то говорят, что образуют полную группу событий (ПГС). А сами события называют гипотезами.

Если об обстановке можно выдвинуть гипотез и если событие может появиться только при одной из этих гипотез, то формула полной вероятности.

До данного момента нам были известны лишь априорные вероятности. Формула Байеса применяется, когда известны апостериорные вероятности.

схема бернулли

Биномиальное распределение

Схема Бернулли заключается в последовательном проведении n случайных независимых экспериментов, в каждом из которых может произойти либо успех с равной вероятностью p, либо неудача. Под «успехом» можно подразумевать что угодно.

Случайная величина, равная вероятности числа успехов m, имеет биномиальное распределение:

Здесь подразумевается, что в остальных (n-m) экспериментах будет иметь место неудача с вероятностью (1-p).

При n=1 имеет место распределение Бернулли.

Биномиальное распределение может описывать как процессы с заранее заданной вероятностью (например, средняя всхожесть семян равно 0,8; см. Пример 3 на стр. 47), так и быть предельным случаем гипергеометрического распределения с p=M/N:

Наивероятнейшее число событий

Иногда в схеме Бернулли требуется найти лишь число успехов , которому соответствует максимальная вероятность. Это можно сделать и без вычисления всего ряда распределения.

заключено в интервале единичной длины, откуда различают 2 случая:

1) обычный случай – ; – одно число;

2) исключительный случай – ; – два рядом стоящие числа.

Так же двойное неравенство можно разрешить и относительно других неизвестных:

Простые однородные цепи маркова

Простая цепь Маркова – это последовательность дискретных случайных величин , где

Иными словами, условное распределение последующего состояния зависит только от текущего состояния. Здесь nномер шага.

Вероятности перехода из состояния i в состояние j образуют матрицу переходных вероятностей или переходную матрицу на шаге n. Из свойств вероятностей имеем: ; . Цепь Маркова однородна, если переходная матрица не зависит от номера шага: . Переходная матрица квадратна, её размерность N есть число состояний цепи.

Кроме того, задается начальное вероятностное распределение цепи – вектор-строка ; . Тогда –распределение за один шаг (после одного цикла переходов). В общем случае – распределение за n шагов.

Распределение пуассона

При большом числе испытаний n вычисление по формуле биномиального распределения становится неудобным. В этом случае используют различные приближения.

Пусть также вероятность успеха p в каждом из них мала. В этом случае биномиальное распределение аппроксимируется распределением Пуассона:

Распределению Пуассона обычно соответствуют редкие события.

Формула даёт удовлетворительное приближение при малых p ≤ 0,1 и npq ≤ 9. Если вероятность велика (p ≥ 0,9), то перейдя к противоположному событию, получим тот же случай.

Распределение Пуассона имеет и самостоятельное значение. Оно играет важную роль для описания редких событий в физике, теории связи, теории надежности, теории массового обслуживания и т.д. – там, где в течение определенного времени может происходить случайное число каких-то событий (радиоактивных распадов, телефонных вызовов, отказов оборудования, несчастных случаев и т. п.).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]