
- •1. Предмет теории вероятностей. Случайный эксперимент.
- •2. Классическое определение вероятности.
- •3. Геометрическое определение вероятности
- •4. Аксиоматическое определение вероятности
- •5. Условные вероятности
- •6. Независимые события
- •7. Формулы полной вероятности и Байеса
- •8. Схема независимых испытаний Бернулли
- •9. Случайные величины. Функция распределения случайной величины и ее свойства
- •10. Дискретные случайные величины. Закон распределения дсв.
- •12. Непрерывные случайные величины. Плотность вероятностей
- •13. Важнейшие непрерывные случайные величины
- •1 4. Математическое ожидание св.
- •15. Моменты. Дисперсия. Среднее квадратическое отклонение.
- •16. Чх дискретных и непрерывных случайных величин
- •17. Случайные векторы. Фр случайного вектора и ее свойства.
- •18. Дискретные случайные векторы. Зр дискретного случайного вектора
- •19. Непрерывные случайные векторы. Плотность вероятностей и ее свойства
- •20. Пример. (Равномерное распределение в области ).
- •21. Независимость случайных величин
- •22. Условные законы распределения и условные числовые характеристики
- •23. Числовые характеристики случайных векторов
- •24. Теоремы о числовых характеристиках
- •25. Некоррелированность случайных величин и ее связь с независимостью
- •26. Коэффициент корреляции его свойства
- •27. Многомерное нормальное (гауссовское) распределение
- •28. Функции случайных аргументов
- •29. Композиция (свертка) законов распределения
- •30. Неравенство Чебышева
- •31. Законы больших чисел
- •32. Теорема 3 (збч для независимых, одинаково распределенных св).
- •33. Центральная предельная теорема
- •34. Теорема 2 (Ляпунова) (цпт для независимых, разнораспределенных св)
6. Независимые события
Зависимость событий понимается в вероятностном смысле, а не в функциональном. Это означает, что по появлению одного из зависимых событий нельзя однозначно судить о появлении другого. Вероятностная зависимость означает, что появление одного из зависимых событий только изменяет вероятность появления другого. Если вероятность не изменяется, то события считаются независимыми.
Определение: Говорят, что событие
А не зависит от события В,
если его условная вероятность
совпадает
с безусловной вероятностью
:
.
Если событие А зависит от события
В, то
.
Понятие независимости симметрично, то
есть, если событие А не зависит от
события В, то и событие В не
зависит от события А. Действительно,
пусть
.
Тогда
.
Поэтому говорят просто, что события А и В независимы.
Определение: События А и В
называются независимыми, если
.
Если
,
то события А и В считаются
зависимыми.
Отметим, что данное определение
справедливо и в случае, когда
или
.
Свойства независимых событий.
1. Если события А и В являются
независимыми, то независимыми являются
также следующие пары событий:
.
Докажем, например, независимость событий
.
Представим событие А в виде:
.
Поскольку события
являются несовместными, то
,
а в силу независимости событий А и
В получаем, что
.
Отсюда
,
что и означает независимость
.
■
2. Если событие А не зависит от событий
В1 и В2, которые
являются несовместными (
),
то событие А не зависит и от суммы
.
Действительно, используя аксиому аддитивности вероятности и независимость события А от событий В1 и В2, имеем:
.
■
Связь между понятиями независимости и несовместности.
Пусть А и В
любые события, имеющие ненулевую
вероятность:
,
так что
.
Если при этом события А и В
являются несовместными (
),
то
и поэтому равенство
не может иметь место никогда. Таким
образом, несовместные события являются
зависимыми.
Когда рассматривают более двух событий одновременно, то попарная их независимость недостаточно характеризует связь между событиями всей группы. В этом случае вводится понятие независимости в совокупности.
Определение: События
называются независимыми в совокупности,
если для любого 2
m
n и любой комбинации
индексов
справедливо равенство:
.
При m = 2 из независимости в совокупности следует попарная независимость событий. Обратное неверно.
7. Формулы полной вероятности и Байеса
Предположим, что с данным случайным
экспериментом связана полная группа
событий
,
вероятности которых
известны. Нас интересует некоторое
событие А, которое может наступить
одновременно с одним из событий
.
При этом условные вероятности
наступления события А при каждом
известны. Надо определить безусловную
вероятность
.
Представим событие А в виде:
.
В последней сумме слагаемые являются
попарно несовместными:
.
Поэтому, используя аксиому аддитивности
и правило умножения вероятностей,
получаем:
.
Формула
называется формулой полной вероятности.
В ней события
называются гипотезами (так как одно
из
обязательно происходит), а
- вероятностями гипотез.
Пусть, по-прежнему, со случайным
экспериментом связано n
гипотез
,
вероятности которых
известны. Известно также, что гипотеза
сообщает событию А вероятность
.
Предположим, что эксперимент был
произведён, и в результате событие А
произошло. Этот факт приводит к переоценке
вероятностей гипотез
.
Количественно этот вопрос решает
следующая формула:
.
Полученная формула называется формулой
Байеса (или формулой гипотез). В ней
называются априорными вероятностями
гипотез (они определяются a
priori – до проведения
опыта). Условные вероятности
называются апостериорными вероятностями
гипотез (они вычисляются a
posteriori – после
проведения опыта, когда стало известно,
что событие А произошло).
Пример. По каналу связи с помехами
передаются двоичные символы {0,1}.
Вероятности искажения символов в канале
(0
1,
1
0)
одинаковы и равны 0.2. Вероятность символа
0 на входе канала равна 0,9, а вероятность
символа 1 - 0,1. На выходе канала принят
сигнал, соответствующий 1. Определить
вероятность того, что на вход канала
подавалась также 1.
Решение. гипотезы:
= {На входе канала связи символ 0},
= {На входе канала связи символ 1}.
Очевидно,
и по условию
,
то есть события
и
образуют полную группу событий. Пусть
событие А = {На выходе канала принят
символ 1}.
По условию задачи вероятность искажения
символа 0 в канале суть условная
вероятность
,
а условная вероятность
является вероятностью неискажения в
канале символа 1. В терминах введенных
обозначений требуется найти условную
(апостериорную) вероятность
.
Найдем вначале по формуле полной вероятности безусловную вероятность события А:
.
Затем, в соответствии с формулой Байеса, находим апостериорную вероятность :
(при априорной вероятности
).
Очевидно, что при этом апостериорная
вероятность
(при априорной вероятности
).
Замечание. Таким образом, даже при приеме на выходе канала связи 1 мы отдаем предпочтение в пользу 0 на входе. Это объясняется тем, что априорная вероятность 0 на входе канала существенно больше априорной вероятности 1.