
- •Используемая литература
- •Теории вероятностей
- •Лекция 3. Числовые характеристики дискретной и непрерывной случайной величины
- •1.1. Математическое ожидание
- •1.2. Дисперсия. Среднее квадратическое отклонение.
- •Лекция 4. Двумерные и многомерные случайные величины
- •Лекция 5. Гауссовские случайные величины нормальный закон распределения
- •Лекция 6. Общие определения, методы описания и классификация случайных процессов
- •Лекция 7. Описание случайных процессов и полей
- •Лекция 8. Числовые характеристики случайных процессов
- •Лекция 9. Спектральный анализ
- •Лекция 10. Гаусовские и морковский случайные прочессы
- •Лекция 11. Функциональные преобразования случайных величин и процессов
- •Лекция 12. Случайные процессы в линейных системах
Теории вероятностей
Цель лекции: Изучить основных положений теории вероятностей; законов, определений, теорем. Определение дискретной случайной величины и законы ее распределения.
НАЗЫВАЕМЫЕ И ЗАВИСИМЫЕ СЛУЧАЙНЫЕ СОБЫТИЯ. МАТЕМАТИЧЕСКИЕ ОПЕРАЦИИ С ВЕРОЯТНОСТЯМИ.
ФОРМУЛА БАЙССА
Основные понятия и термины.
Независимые события
Вероятность независимых событий
Зависимые события
Условные вероятности. Вероятность совмещения двух событий.
Полная вероятность
Гипотеза
Формула гипотез Байссек.
Случайные события могут не зависеть или зависеть друг от друга.
Определение 16. Событие А называется независимым от события В, если вероятность появления события А не зависит от того, произошло событие В или не произошло.
Теорема 3. Если случайные события А и В независимы, то вероятность совмещения событий А и В равна произведению вероятностей появления событий А и В
Р ( и В) = Р(А) Р(В) [2.1]
Если имеем n – независимых событий А1 и А2 и А3 … и Аn, то по аналогии имеем:
Р (А1 и А2 и А3 … и Аn) = Р(А1) Р(А2) Р(А3) … Р(Аn) [2.2]
Определение 17. Событие А называется зависимым от события В, если вероятность появления события А зависит от того, произошло или не произошло событие В.
Определение 18. Вероятность того, что произошло событие А при условии, что произошло событие В называется условной вероятностью события А при условии события В и обозначается Р (А/В).
Пример: Дано: В уроне 3 белых и 2 черных шара. Осуществляется 2 вынимания шара из уроны.
В – событие появления белого шара при первом вынимании.
А - событие появление белого шара при втором вынимании.
Определяем: Вероятность вытащить белый шар с первого раза:
Р (В) =
Вероятность
вытащить черный шар с первого раза Р(6)
=
Вероятность события А Р(А) при условии, что произошло событие В (выняли белый шар с первого раза)
Р (А/В) =
=
Вероятность события А при условии. что событие В не произошло (выняли с первого раза черный шар)
Р(А/
)
=
≠
Р(А/
)
Теорема 4. Вероятность совмещения двух зависимых событий равняется произведению вероятности одного из них на условную вероятность второго, вычисленную при условии, что первое событие произошло.
Р (А и В) = Р(В) Р(А/В) [2.3]
или Р(А/В) =
при Р(В) = 0 [2.4]
- условная вероятность события А при условии, что произошло событие В.
Справедливо также выражение:
Р(А и В) = Р(в и А) = Р(В) Р(А/В) = Р(А) Р)В/А) [2.5]
Теорема 5. Если событие А может осуществляться только при выполнении одного из событий В1В2 … Вn, которые образуют полную группу несовместных событий, то вероятность события А вычисляется по формуле
Р(А) = Р(В1) Р(А/В1) + Р(В2) Р(А/В2)+… Р(Вn) Р(А/ Вn) [2.6]
Формула [2.6] есть формула полной вероятности.
Если события А и В не является зависимыми, и независимы друг от друга, то
Р(А/В) = Р(А) [2.7]
Р(А и В) = Р(В) Р(А) [2.8]
Сформулируем задачу для определения формулы Байсса
Определение 19. Если имеется событие А и оно может произойти только вместе с каким либо из событий В1В2… Вn - то события В1В2 В3… Вn - будем называть гипотезами.
Рассмотрим полную группу несовместных событий В1, В2… Вn и вероятности определены и равны Р(В1) , Р(В2) … Р(Вn). Событие А может произойти только вместе с одним каким-либо событием В1 , В2 … Вn необходимо получить вероятность того что, событие А произойдет при условии выполнения одним из гипотез В1 или В2 или В2… или Вn
Из формулы [2.6] следует:
Р(А) = Р(В1) Р(А/В1) + Р(В2) Р(А/В2) +… Р(Вn) Р(А/ Вn) [2.9]
Если событие А произошло, то это изменит вероятности гипотез Р(В1) Р(Вn) Определим условные вероятности гипотез, в предположении, что А произошло т.е. Р(В1/А); Р(В1/А) … Р(Вn/А) исходя из [2.3] имеем
Р(А и В1) = Р(В1) Р(А/В1) = Р(А) Р(В1/А) [2.10]
Откуда
[2.11]
Подставим в [2.11] выражение [2.9] имеем:
[2.12]
Аналогично можно определить и для любой из других гипотез В1, В2 …Вn
Окончательно получаем формулу Байсса для расчета вероятности и осуществления гипотезы В2, при условии, что событие А произошло
[2.13]
Знаменатель в формуле [2.13] не зависит от номера R гипотезы.
Пример: Дано: Два танка сделали по одному выстрелу по цели. Имеем лишь одно попадание в цель. Рассчитанные ранее вероятности попадания для: 1 танка Р = 0,8
2 танка Р = 0,4
Определить вероятность того, что объект поражает первым танком с вероятностью поражения Р = 0,8
Решение: Событие А поражение цели одним попаданием одним из танков. До начала стрельбы имеем следующие гипотезы.
В1 – оба танка не попали
В2 – оба танка попали
В3 – первый попал, второй не попал
В4 – первый не попал, второй попал
Тогда по формуле умножения вероятностей [2.1] имеем вероятности гипотез:
Р(В1) = (1-Р1) (1-Р2) = 0,2 . 0,6 = 0,12
Р(В2) = Р1Р2 = 0,8 . 0,4 = 0,32
Р(В3) = Р1 (1-Р2) = 0,8 . 0,6 = 0,48
Р(В4) = (1-Р1) Р2 = 0,2 . 0,4 = 0,08
Определяем условные вероятности гипотез:
Р(А/В1) = 0; Р(А/В2) = 0; Р(А/В3) = 1; Р(А/В4) = 1
Находим условные вероятности гипотез: формула [2.13]
ДИСКРЕТНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА. ЗАКОН РАСПРЕДЕЛЕНИЯ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ
Основные понятия и термины
Дискретная случайная величина
Закон распространения дискретной случайной величины
Способ задания закона распространения дискретной случайной величины (СВ)
Мода случайной величины.
Определение 20. Переменная величина Х или (ξ) принимающая в результате испытания одно из конечной или бесконечной последовательности значений Х1, Х2, Х3…Хn,называется дискретной случайной величиной, если каждому значению ХR, соответствует определенная вероятность РR, того что переменная величина Х примет значение ХR.
Конкретному значению ХR – соответствует своя вероятностная Р R
Определение 21. Функциональная зависимость вероятности РR от ХR называется законом распределения вероятностей дискретной случайной величины Х.
РR = ƒ( ХR)
Функциональная зависимость может быть задана различными способами
Определение 22. Дискретная случайная величина и ее закон распределения когда Х1→ Р1; Х2→ Р2 … ХR→ РR может быть задан различными способами.
В виде таблицы:
Возможные значения Х1, Х2, Х3…ХR случайной величины Х = ξ
Вероятность этих значение Х1, Х2, Х3…ХR
Графически в виде многоугольника распределения вероятностей.
Строятся в прямоугольной системе координат точки (ХR, PR) и соединяются ломаной линией.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0,5 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Х1 |
Х2 |
|
Х3 |
Х4 |
|
… |
ХR |
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Рис.2.1.
Так как случайная величина Х примет одно из значений ХR – событие достоверное то
[2.14] конечная
последовательность
[2.15] бесконечная
последовательность
Определение 23. Значение случайной величины Xi имеющее наибольшее значение вероятности называется модой. Для рис 2.1. Значение Х2.
Аналитически в виде функциональной зависимости
РR = ƒ( ХR)
Пример: Х – число очков игральной кости →
Х Х1=1; Х2=2; Х3=3; Х4=4; Х5=5; Х6=6
Р 1/6 1/6 1/6 1/6 1/6 1/6
В дальнейшем случайные величины будем обозначать буквами греческого алфавита:
ξ
η
ζ и.т.д. а при наличии или значении строчными буквами латинского алфавита х,у,z
НЕПРЕРЫВНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ НЕПРЕРЫВНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ.
Основные понятия и термины:
Непрерывная случайная величина ξ
Плотность распределения вероятностей случайной величиной или закон распределения непрерывной а в, или плотность распределения, плотн6ость вероятности Ру
Свойства плотности вероятностей, элемент вероятности Р(х)Δу
Функция распределения случайной величины F(х)
Определение 24. Пусть имеется некоторая случайная величина ξ, которая может принимать любое значение из некоторого конечного интервала (а, в) или любое значение в общем случае из бесконечного интервала [-∞; +∞] такую случайную величину называют непрерывной случайной величиной.
Дано: интервал изменения с/ величины ξ [а, в] принимает любое из значений Х0 … Хn. Вероятность того, что случайная величина ξ попадет в интервал Хi-1, Х I известна и равна Р (Хi-1 < ξ<Х) это по сути площадь прямоугольника с основанием Δ Хi = Хi - Хi-1
Рис. 2.2.
Если теперь поставим в соответствие для каждого значения случайной величины свою вероятность показания в интервал, то получим ступенчатую ломанную Рис.2.2.
Если существует такая функция у = р(х), что
[3.1]
то эта функция называется плотностью распределения вероятностей случайной величины ξ или законом распределения непрерывной случайной величины. Плотность р(х) – max → значит случайная величина имеет наибольшую вероятность попадания в интервал Х1 и Х2
Плотность распределения вероятностей непрерывной случайной величины ξ или плотность распределения, или плотность вероятности – эти термины эквивалентны.
р(х)Δх – называют элементом вероятности.
Плотность вероятности обладает тремя свойствами:
Она не отрицательная р(х)>0∞
Нормирована к единице
Вероятность попадания случайной в полузамкнутый интервал [а,в] равна интегралу от плотности вероятности в этих пределах.
Р {а≤ ξ <в} =
[3.2]
Геометрическая вероятность соответствует площади трапеции.
Рис.2.3.
ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ ИЛИ ИНТЕГРАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ
Универсальной характеристикой, одинаково пригодной как для дискретных, так и непрерывных случайных величин, является функция распределения случайной величины F(х).
Определение 26. Функцией распределения случайной величины ξ называется функция F(х) равная вероятности того, что случайная величина ξ принимает значение, меньше, чем Х для всех /(х) на числовой оси.
F(х)
= Р{ ξ <х} -∞<х<∞→ F(х)
-
[3.3]
Для дискретной случайной величины функция распределения равна сумме вероятностей тех ее значений, которые меньше Х.
F(-∞) =0; F(+ ∞) =1
Рис. 2.5. – график функции F(х) называется интегральной кривой распределения
[3.4]
Рис.2.4 Рис. 2.5.