
- •Теория вероятности Лекция№1 Случайные события
- •Операции над событиями
- •Виды случайных событий
- •Лекция №2 Вероятность событий
- •Лекция 4. Схема Бернулли
- •Лекция 5 Приближенные ассимитрич формулы для схемы Бернули
- •Лекция 7. Числовые хар-ки с.В.
- •Лекция 8.Основные законы распределения дсв
- •Лекция 9. Основные законы распределения нсв.
- •Лекция 10. Функция от св. Многомерные св.
- •Лекция 11. Выборка
Лекция 4. Схема Бернулли
Опр1.Испытание называется независимым если вер-ть какого либо исхода каждого из них не зависит от того какие исходы имели другие испытания.
Опр2. Повторные независимые испытания называются испытаниям Бернулли или схемой Бернулли, если: 1) каждое испытание имеет только 2 возможных исхода; 2) вероятности этих исходов постоянны для всех испытаний, т.о. в схеме Бернулли или для каждого испытания имеется только 2 исхода: событие А(успех) и событие не А (неудача) с постоянными вероятностями Р(А)=Р и Р(неА)=q при этом Р+q=1.
Замечание. для n испытаний Бернулли события удобно обозначать комбинациями в виде цепочек длиной n состоящих из букв У(успех) и Н (неудача), либо из букв А(успех) и неА(неудача), т.е. ω=УУН…ННУn ; =ААнеА…неАнеААn
Замечание. Испытания Бернулли возникают и при более сложных экспериментах, если мы не будем несколько возможных исходов, а опишем результат каждого испытания только в виде двух исходов А(успех), неА(неудача).
Теорема (Формула Бернулли)
Вероятность того что n испытаний Бернулли успех наступит ровно m-раз равна Pn(m)=C n m *P^m*q^n-m, m-0,1,2,…,n, где Р -вероятность появления успеха в каждом испытании q=1-P-вероятность неудачи.
Док-во. Обозначим интересующее событие Вn(m)={в n испытаниях Бернулли событие А(успех) наступит ровно m раз}. Представим событие Вn(m) через элементарные события например: при n=3 и m=2 будем иметь В3(2)= ААнеА+АнеАА+неААА. В общем виде события Вn(m) представляет собой сумму элементарных событий в виде цепочек длиной n, каждая из которых состоит ровно из m событий А и (n-m) событий неА, т.е. Bn(m)=А,А,…,А* неА,неА, …,неА+АА…А*неААнеА…неА+…+неАнеА…неААА…А (*). В силы независимости испытаний вероятность каждой цепочки в формуле (*) равно Р(ААнеА….неАА)=Р(А)Р(А)Р(неА)…Р(неА)Р(А)=Р^m(A)*Р^n-m(неА)=Р^n*q^n-m
А-m раз Р(А)- m раз
неА(n-m)-раз Р(неА)-(n-m) раз
Общее число цепочек в формуле(*)равно числу способов выбора из n испытаний m испытаний, в которых событие А произошло, т.е. равно числу сочетаний С n m. В связи с тем, что цепочки между собой независимы получаем: Рn(m)=P(Bn(m))=P^m*q^n-m+P^m*q^n-m+…+P^m*q^n-m=С n m *P^m*q^n-m.
Опр3. число m0 называется наивероятнейшим числом наступлений события А в n испытаниях Бернулли, если Рn(m0)>=Pn(m), m=0,1,2,….,n
Замечание: наивероятнейшее число m0=целой части числа (n+1)*P и может быть определено из двойного неравенства: np-q<=m0<=np+q, если р≠0, р≠1. Если число (n+1)*p-целое, то наивероятнейшим так же будет являться и число m0-1, с той же вероятностью Pn(m0).
Лекция 5 Приближенные ассимитрич формулы для схемы Бернули
Теорема 1 (Формула Пуассона)
Вероятность того что в n(n∞) в испытаниях Бернулли успех наступит ровно m раз приближенно равное Pn(m)≈λ^m/m!*e^-λ где λ=n*p, Р(Р0) вер-ть появление успеха в каждом испытании.
Док-во: По ф.Бернулли имеем Pn(m)=Cnmpmqn-m =!p=λ/n => g=1-p=1- λ/n! = (n (n-1)*…*(n-m+1))/m! *λm/nm * (1- λ/n)n-m = (n (n-1)*…*(n-m+1))/ nm *λm/ m!* (1- λ/n)n-m = 1*(1-1/n)*…*(1- (m-1)/n)* λm/ m!* (1- λ/n) m *(1- λ/n) –m (*). Найдем пределы каждого сомножителя в формуле * при n→∞ :1)lim n→∞ 1= lim n→∞ (1-1/n)=…= lim n→∞ (1- (m-1)/n)=1 2) lim n→∞ λm/ m!= λm/ m! 3) lim n→∞ (1- λ/n) m =(1∞)=e –λ 4) lim n→∞ (1- λ/n) –m =1.
Из данных пределов и формулы * получаем lim n→∞ Pn(m)= λm/ m!*e –λ . => Pn(m)≈ λm/ m!*e –λ при достаточно великой n.
Замечание. Приближенную формулу Пуассона применяют практически в случаях когда n велико, а р мало. Обычно р<0,1, а λ=n*p не превосходит 10(<=10). Существуют таблицы значений функции λ^m/m!*e^-λ
Теорема 2(Локальная формула Муавра-Лапласа). Вероятность того, что n(n∞) испытание Бернулли успех наступит ровно m-раз приближенно равна: Pn(m)≈ 1/√npq * φ(xn,m), где р-вероятность появление успеха в каждом испытании; q=1-p – вероятность неудачи; Xn,m=m-np/√npq; φ(x)=1/√2П*e^-(x^2)/2.
Замечание. Вычесление по локальной формуле Муавра-Лапласса дает несущественную погрешность при выполнении условия npq>= 20. Существует спец. таблицы значений функций φ(х) для положительных значений х, для отицательных значений пользуются теми же таблицами, так как функция φ(х) четная.
Теорема 3(интегральная формула Муавро-Лапласса) вероятность того что в n(n∞) испытаниях Бернулли, число успехов μ находиться между m1 и m2 , приближенно равно P{m1<=μ<=m2}≈Ф(х2)-Ф(х1), где Ф(х)=1/√2π ∫(от –бес до +бес) е^-((t^2)/2)*dt (интеграл вероятностей ), х2=(m2-np)/√npq; x2=(m1-np)/ /√npq, где Р-вероятность появления успеха в каждом испытании, q=1-p.
Замечание: существуют специальные таблицы значений функции Лапласса, при этом Ф(х)+Ф(-х)=1
Лекция №6 Случайные величины
Опр1: (неформальное определение случайной величины)Случайной величиной (СВ) называется величина, которая в результате испытания случайно принимает одно значение из множества возможных значений.
Опр2: (формальное определение СВ) СВ называется ф-ция, определенная на пространстве элементарных событий.
#: 1.Число очков выпавших при однократном подбрасывании игральной кости. СВ может принимать значения: 1,2,3,4,5,6
2.число выстрелов из орудия по мишени до 1-ого попадания. СВ может принимать значения:1,2,3..-мн-во натуральных чисел.
3. Момент появления сбоя в работе аппаратуры в течении промежутка времени [О,Т]. СВ может принимать: все значения из промежутка [О,Т]
Замечание: СВ условимся обозначать большими буквами X,Y,Z и т. д.,а их возможные значения малыми x,y,z и т. д.
Опр3: СВ, которая может принимать только конечное или счетное множество значений называется дискретной (ДСВ).
#: ДСВ: рассмотренные выше примеры номер 1,2.
Опр4: СВ, которая может принимать все значения из некоторого числового промежутка называется непрерывной(НСВ).
#: НСВ: рассмотренный выше пример №3
Опр5: Законом распределения CВ называется соотношение, устанавливающее тем или иным способом связь между возможными значениями CВ и их вероятностями.
Замечание: Закон распределения ДСВ обычно задается рядом распределения.
Опр6: Рядом распределения ДСВ называется таблица, в верхней строке которой перечислены все возможные значения CВ, а в нижней – соответствующие им вероятности.
Σ(i=1 – n )pi =1 (Таблица!)
Замечание: читается таблица след. образом: СВ. X может принимать значение x1 с вероятностью P1 и т.д., значение xn с вероятностью pn.
Замечание: для наглядности распределения ДСВ можно изобразить графически. Для этого прямоугольник в системе координат строят точки (xi;pi), а затем соединяют их отрезками прямых, полученную фигуру называют многоугольником распределения. (ГРАФИК с др.стороны!)
Опр7: Функцией распределения СВ Х называется вероятность того, что она примет значение меньшее, чем заданно х: F(x)=P{X<x}.
Замечание: геометрически функция распределения интерпретируется как вероятность события {наблюдаемое значение случайной величины Х находится левее заданной точки х}.
Свойства ФР.
1) 0<=F(x)<=1; 2)F(x)-неубывающая функция своего аргумента, т.е. если х1<x2, то F(x1)<F(x2); 3) F(-∞)=0; 4) F(+∞ =1; 5)P{a<=x<=b} =F(b)-F(a).
Функция распределения ДСВ.
Если Х –ДСВ, принимающая значение х1, х2, х3, и т. д. с вероятностями р1, р2, р3, и т. д., то её ФР задается равенством: F(x)=Σ(xi<x)pi, где суммируются вероятности тех значений xi, которые меньше х.
Замечание: ФР любой ДСВ есть разрывная ступенчатая функция (непрерывная слева), скачки которой происходят в точках х1, х2, х3 и т.д. и равны вероятности р1, р2 ,р3 и т.д. (ГРАФИК)
Опр8: Плотность распределения или плотность вероятности НСВ Х в точке х называется произвольная её функции распределения в этой точке. Обозначают f(x): f(x)=F’(x)
Замечание: плотность вероятности как закон распределения имеет смысл только для НСВ.
Опр9: График плотности вероятности f(x) называется кривой распределения.
Свойства плотности вероятности.
1)f(x)>=0; 2) -∞∫+∞f(x)dx=1; )P{a<=x<=b}= a∫bf(x)dx; 4)F(x)=-∞ ∫xf(t)dt(позволят находить функцию распределения по заданной плотности вероятности).