
- •Понятие случайности, изучаемое теорией вероятностей. Частотное определение вероятности.
- •Основные понятия теории вероятностей на основе аксиоматического подхода: пространство элементарных исходов, алгебра случайных событий, вероятность и аксиомы, которым она подчиняется.
- •Простейшие свойства вероятности: монотонность, формула сложения, вероятность разности событий.
- •Классическая схема. Вычисление вероятностей исходов в трех комбинаторных моделях.
- •Классическая схема. Примеры решения задачи о совпадениях, расчета вероятности выигрыша в лотерее.
- •Независимые события. Свойства независимых событий. Примеры: расчет надежности.
- •Условная вероятность. Пример вычисления условной вероятности в классической схеме. Свойства условной вероятности.
- •Полная группа гипотез. Формула полной вероятности. Пример.
- •Формула умножения. Формула Байеса. Примеры.
- •Этапы определения математического ожидания. Вычисление математического ожидания в непрерывном и дискретном случаях.
- •Вычисление математического ожидания в непрерывном и дискретном случаях. Примеры.
- •Определение частных законов распределения по совместному (в общем, дискретном и непрерывном случаях). Пример для дискретного случая.
- •Условия независимости случайных величин (в общем, дискретном и непрерывном случаях). Пример: независимость компонент случайного вектора, равномерно распределенного на прямоугольнике.
Условная вероятность. Пример вычисления условной вероятности в классической схеме. Свойства условной вероятности.
Условной вероятностью Р(А|B) события А относительно события В, если Р(В) > 0, называется вероятность осуществления события А при условии, что событие В уже произошло. Условная вероятность определяется формулой Р(А|B) = (по определению) P(AB)/P(B). Рассмотрим опыт G, сводящийся к схеме случаев, и предположим, что событиям А, В, АВ благоприятствуют соответственно mA, mB > 0, mAB случаев из всех n возможных. Допустим, что событие В уже произошло. Это означает, что из всех возможных n случаев реально могло появиться только mB случаев, причем из них только mAB случаев благоприятствуют событию А. Тогда Р(А|B) = mAB/mB.
P(AB)=P(A)P(B|A)=P(B)P(A|B). Свойства условной вероятности:
- Р(А|) = Р(А).
- Если события А и В несовместны, то Р(А|B)=0.
- Если события А и В независимы, то Р(А|B) = P(A). События независимы тогда и только тогда, когда условная вероятность совпадает с безусловной.
- Условная вероятность обладает всеми свойствами вероятности.
- Если В А, то Р(А|B)=1.
Пример: Пусть опыт G состоит в подбрасывании монеты. Монету подбросили. В первый раз выпала решка. Какова вероятность того, что и во второй раз выпадет решка? Решение: Обозначим событие А (в первый раз выпала решка) и событие В (во второй раз выпала решка). Р(B|A)=P(AB)/P(A)=(1/4)/(1/2)=1/2. Обратим внимание, что Р(В|A)=P(B), что говорит о том, что события А и В независимы.
Полная группа гипотез. Формула полной вероятности. Пример.
События H1, …, Hn в опыте G образуют полную группу несовместных событий, если они попарно несовместны (HiHj = i j) и в результате опыта произойдет хотя бы одно из событий Hi, i = 1,n, т.е. H1+…+Hn=. События H1, …, Hn называются гипотезами, если они образуют полную группу несовместных событий и Р(Hi) > 0, i = 1,n. Для полной группы событий характерно P(H1) + … + P(Hn) = 1. Пусть с опытом G связаны гипотезы Н1, …, Нn. Тогда вероятность появления произвольного события А в опыте G выражается формулой полной вероятности:
Формула полной вероятности позволяет выразить вероятность сложного события А через вероятности составляющих его более простых событий АHi, i=1,n. Данная формула используется в опытах, не сводящихся к схеме случаев. Пример: В торговую фирму поступают телевизоры от трёх фирм изготовителей в соотношении 2:5:3. Телевизоры, поступающие от первой фирмы, требуют ремонта в течение гарантийного срока в 15% случаев, от второй и третьей – соответственно в 8% и 6% случаев. Найти вероятность того, что проданный телевизор потребует ремонта в течение гарантийного срока. Решение: Событие А заключается в том, что проданный телевизор потребовал гарантийного ремонта. Введем гипотезы: H1 - телевизор изготовлен первой фирмой, Н2 и Н3. Вероятности этих гипотез 0,2, 0,5 и 0,3 соответственно. Условные вероятности тоже известны. P(A|H1) = 0,15; P(A|H2)=0,08; P(A|H3)=0,06. По формуле полной вероятности P(A) = 0,20,15 + 0,50,08 + 0,30,06 = 0,088.
Формула умножения. Формула Байеса. Примеры.
Вероятность одновременного появления событий A1, …, An выражается формулой умножения вероятностей: P(A1A2…An)=P(A1)P(A2|A1)…P(An|A1…An-1), в которой вероятность каждого следующего по порядку события вычисляется при условии, что в рассматриваемом опыте произошли все предыдущие события. Пусть с опытом G связаны гипотезы H1, …, Hn. Предположим, что при проведении опыта произошло событие А, вероятность которого была Р(А) > 0. Пусть до опыта G были известны лишь априорные вероятности гипотез Р(Hi), i=1,n, и соответствующие им условные вероятности события А. В этом случае условная вероятность P(Hi|A) гипотезы Hi при условии, что событие А произошло, вычисляется по формуле Байеса:
Даная формула вытекает из свойств условной вероятности. Рассмотрим пример: После осмотра больного врач считает, что равновозможно одно из двух заболеваний С или D. Для уточнения диагноза больного направляют на анализ, исход которого дает положительную реакцию при заболевании C в 30% случаев, а при заболевании D – 20% случаев. Анализ дал положительную реакцию. Какое заболевание становится более вероятным? Решение: Событие А заключается в том, что анализ дал положительную реакцию. Гипотезы H1 и Н2 заключаются в том, что пациент болен заболеванием C или D соответственно. P(H1) = P(H2) = 0,5. P(A|H1) = 0,3; P(A|H2) = 0,2. Найдем полную вероятность.
Р(H1|A)=0,15/0,25=0,6; P(H2|A)=0,1/0,25=0,4. Более вероятно заболевание C.
Случайные величины. Закон распределения случайной величины. Дискретные случайные величины: ряд распределения и его свойства. Непрерывные случайные величины: функция плотности и ее свойства. Вероятность попадания случайной величины в множество.
Случайной величиной (СВ) Х() называется функция элементарного события такая, что событие {: X() x} принадлежит -алгебре F при любом действительном x. Значения x функции Х() называются реализациями СВ Х(). Законом распределения случайной величины называется любое правило (таблица, функция), позволяющее находить вероятности всех возможных событий, связанных с СВ. СВ называется дискретной, если множество ее возможных значений конечно или счетно. Простейшей формой закона распределения дискретной СВ с конечным множеством значений является ряд распределения pk = (по определению) P{X = xk}, k=0,n, который задается аналитически или таблицей. В полученном ряду распределения сумма всех вероятностей равна единице. СВ Х с непрерывной функцией распределения Fx(x) называется непрерывной. Плотностью распределения (плотностью вероятности) СВ Х называется неотрицательная кусочно-непрерывная функция fx(x), для которой при любом x R1 выполняется соотношение:
Свойства fx(x):
- f(x) 0 для всех x R1, т.е. выполняется условие неотрицательности плотности.
-
(Условие нормировки плотности).
-
- F`(x)=f(x) в точках непрерывности плотности f(x).
Функция распределения случайной величины и ее свойства. Вероятность попадания случайной величины в промежуток. Связь функции распределения с плотностью вероятности (в непрерывном случае).
Функция распределения F(x) является одной из форм закона распределения для СВ всех типов и однозначно определяет СВ.
Свойства F(x):
- F(x) определена для всех x R1.
- 0 F(x) 1 для всех x R1.
- F(-) = 0; F() = 1.
- F(х2) – F(х1) = Р{х1 < Х х2}, если х2 > х1.
- F(x) не убывает.
- Если F(x) непрерывна, то F(х2) – F(х1) = Р{х1 Х х2}.
- F`(x)=f(x) в точках непрерывности плотности f(x).
Квантиль и медиана случайной величины. Медиана симметричного распределения. Пример нахождения квантили нормальной случайной величины.
Квантилью уровня p функции распределения F(x) СВ Х называется минимальное значение xp, при котором функция распределения F(x) не меньше значения p, где p (0,1). Если функция распределения строго монотонна и непрерывна, то квантиль является единственным решением уравнения F(xp) = p. Квантиль уровня p = ½ называется медианой. Если плотность распределения существует, симметрична относительно оси Оу и строго положительна на связном множестве (отрезке или оси Ох), то хр = -х1-р. Пример нахождения квантили нормальной СВ: Для нормальной случайной величины функция распределения F(X) = Ф((x-m)/) = ½ + Ф0((x-m)/). Для функции Ф0 (функции Лапласа) имеется таблица значений. Найдем квантиль уровня ¾. Для этого найдем решение уравнения F(xp) = ¾. Ф0((x-m)/) = ¼. Воспользовавшись таблицей значений функции Лапласа получаем, что ((x-m)/) 0,675. Для стандартной нормальной СВ, у которой m=0 и 2=1 полученное значение 0,675 является квантилью уровня ¾.
Квантили стандартного нормального распределения:
р |
Квантиль уровня р |
|
0,01 |
-2,326348 |
|
0,025 |
-1,959964 |
|
0,05 |
-1,644854 |
|
0,1 |
-1,281552 |
|
0,3 |
-0,524401 |
|
0,4 |
-0,253347 |
|
0,5 |
0 |
|
0,6 |
0,253347 |
|
0,7 |
0,524401 |
|
0,8 |
0,841621 |
|
0,9 |
1,281552 |
|
0,95 |
1,644854 |
|
0,975 |
1,959964 |
|
0,99 |
2,326348 |