teorver / Вопросы
.docВопросы.
1.Понятие события и соотношения м/у ними;
2. Классическое определение вероятности и следствия из него;
3. Относительная частота и ее свойства. Статистическое определение вероятности;
4. Независимое событие. Условная вероятность. Теорема умножения вероятностей.
5. Формула полной вероятности. Формула Байеса.
6. Последовательность независимых испытаний. формула Бернулли.
7. Предельная теорема Пуассона.
8. Наивероятнейшее число наступлений в схеме Бернулли.
9. Наивероятнейшее число наступлений в схеме Бернулли.
10. Случайная величина и закон его распределения
11. Функция распределения и ее свойства
12. Плотность распределения и ее свойства
13. Математическое ожидание и его свойства
14. Среднее квадратическое отклонение и его свойства
15. Дисперсия случайной величины и ее свойства
16. Центр распределения. Мода и медиана.
17. Биномиальное распределение случайных величин
18. Равномерное распределение случайных величин
19. Показательное распределение случайных величин
20. Простейший стационарный (Пуассоновский) поток событий
21. Нормальный закон распределения и его параметры
22. Момент случайных величин
23. Момент нормального распределения
24. Вероятность попадания случайной величины, распределенной нормально на заданный участок.
25. Закон больших чисел. Предельной теоремы
26. Неравенство Чебышева (Дискретная случайная величина)
27. Неравенство Чебышева (непрерывная случ. величина)
28. Теорема Бернулли и ее доказательство с помощью неравенства Чебышева
29. Характеристическая ф-ия и ее свойства. Предельная теорема
30. Генеральная выборочная совокупность. Эмпирическая ф-ия распределения
31. Статистический ряд. Гистограмма. Полигон частот.
32. Задача оценки параметров в статистики
33. Метод моментов точечной оценки параметров распределения
34. Метод максимального правдоподобия
1. Т.в. как любая мат. Дисциплина исход. Из основных понятий. И таким понятием является СОБЫТИЕ. Событие – всякое явление о котором имеет смысл говорить, что оно происходило, происходит или будет происходить. Событие принято обозначать заглавн. буквами начала лат. алфавита. A,B,C,D…. A1,A2,A3….An. Если событию нельзя заранее гарантировать его наступление, то такое событие называется случайным. рассморт. некоторый фиксиров. комплекс условий G и связанный с этим комплексом систему S событий A,B,C…D. Каждый из которых может произойти или не произойти при реализации комплексов условий G. Реализацию компл. условий G будем называть испытанием, экспериментом , опытом. В связи с различн. испытаниями м/у событ. A,B,C…D с точкой системы S возник. след. соотношения: 1) говорят что событие А влечет событие B если при каждом испытании при котором наступает соб. B наступ. и событие А(АсВ). 2)Если АсВ, а ВсА, то говорят, что события А и В эквивалентны или равносильны. Все равносильные события тождественно = м/у собой (А=в).3) Событие состоящее в нустаплении и соб. А и соб. В называются произведением событий и обозначается А*В либо А∩В. Введенное нами определение допускает обобщение на любую конечную группу событий, а именно событие состоящее в наступлении соб. и А1, иА2, и Аn. 4) Событие состоящее в наступлении хотя бы 1 события или А или В или АиВ(А*В) называются суммой событий и обозначается А+В, АνВ. Введенное нами определение допускает обобщение на любую конечн. группу событий а именно событие состоящее в наступлении хотя бы 1 события А1,А2,А3, ….А1+А2+…Аn;∑ni=1Ai; 5) Событие с необход. наступающее при каждом испытании называется достоверн. событием. Все достоверные события равносильны м/у собой обозначаются U. Событие ни наступающее ни при одном испытании называется невозможн. событием. Все невозможные события равносильны м/у собой и обозначаются V; 6) События А и А называются противоп. или их сумма достоверна, а произведение невозможно. А+А=U; А*А=V; 7)Два события А и В называются несовместн., если их совместное наступление невозможно А*В=V; 8) Говорят, что событие А1,А2,а3, ….Аn образуют полную группу событий. Если хотя бы одно из событий этой группы с необходимостью наступает, а два любых из этой группы вместе никогда не наступают. Над событиями как и над числами выполн. все основные законы арифмет. действий: камуннитативный ( от перестановки слог. сумма не меняется); дистредитивный (ав)*с=(ас)в. Каждая задача т.в. имеет дело с вполне определен. сист. S событий А,В,С,…D поэтому относительно этой системы высказываются след. утверждения: 1) Если события А и В принадлежат сист. S то и событие а*в и а+в так же принадлежат этой системе. 2) Соб. достоверные и невозможные принадлежат сист. S. Если сист. удовлетвор. этим 2-ум требованиям называется полем событий.
2. Вероятность это количественная характеристика наступления случайн. события при многократных испытаниях. В теории вероятности можно ввести так назыв. статистическое определение вероятности, состоящее в следующем: вероятность случ. события обладающего устойчивой частотой называется некоторое положительное число в близи которого колеблется относит. частота случайн. события при многократных испытаниях. Введенное выше статистическое определен. дает возможность найти вероятность события только после проведения испытаний. Однако возникает вопрос а нельзя ли найти вероятность события без проведениря испытаний и оказывается что это возможно для простейшего класса испытаний все результаты которых считаются равновозможными или равновероятными, причем основн. понятием т.в. и формально не определяется. Определение классическое: если все результаты можно представить n- равновозможными исходами и если событие А наступает m-исходами, которые называются благоприятствующими исходами наступления события А, то вероятность события А =отношению числа благоприятствующих исходов к числу равновозможных исходов Р*(А)=m\n. Следствия из классического определения: 1) из самого определения следует что каждому событию А из поле событий S соответствует неотрицательное число называемое его вероятностью(АсS; Р(А)≥0); 2)Вероятность достоверного события =1 Р(U)=1 m=n; 3)Аксиома сложений вероятностей: если соб. А и В несовместны, то вероятность их суммы=сумме их вероятностей АВ=V; Р(А+В)=Р(А)+Р(В). Эта аксиома допускает обобщение на случай конечной группы попарно-несовместных событий. Если событие А1,А2…Аn попарно несовместны Аi*Aj=V, то вероятность суммы событий=сумме их вероятностей. Р(∑ni=1A1)= ∑ni=1Р(А1) Пусть теперь А и В 2 произвольных события Р(А+В)=Р(А)+Р(В)-Р(А+В). Для док-ва этого с-ва заметим, т.к. А и В – совместные А+В=А+(В-АВ), где А и (В-АВ) – уже не совместные. А тогда применяя к событию А+В с-во (3) будем иметь: Р(А+В)=Р[А+(В-АВ)]=Р(А)+Р(В-АВ) (1) но с другой стороны событие В можно представить в виде: В=АВ+(В-АВ); заметим АВ и (В-АВ) несовместные. А тогда применяя к событию с-во (3) Р(В)=Р[АВ+(В-АВ)]=Р(АВ)+Р(В-АВ) (2). из (1) и (2) Р(А+В)-Р(В)=Р(А)-Р(АВ)=›Р(А+В)=Р(А)+Р(В)-Р(АВ). Обобщение теоремы на случай 3-х произвольных событий: А,В,С Р(А+В+С)-? Р(А+В+С)=Р(А+(В+С)=Р(А)+Р(В+С)-Р(А(ВС))=Р(А)+Р(В)+Р(С)-Р(ВС)-Р(АВ+АС)=Р(А)+Р(В)+Р(С)-Р(ВС)-Р(АВ)-Р(АС)+Р(АВС)=Р(А)+Р(В)+Р(С)-Р(АВ)-Р(АС)-Р(ВС)+Р(АВС). 4)Вероятность невозможного события=0 Р(U+V)=P(U)+P(V)=P(U)=>P (V)=0; 5) Если А и А противоположные Р(А)=1-Р(А). По определению противоположного события Р(А+А)=Р(А)*Р(А)=1; 6) Если событие А влечет В Р(А)≤Р(В), т.к. А влечет В то соб. В=А+АВ, а т.к. А и АВ-несовместны А(АВ)=АА*В=VB=V Р(В)=Р(А)+Р(АВ)=>Р(В)≤Р(А) т.к. по (1) Р(АВ)≥0; 7) Из предыдущих свойств => 0≤Р(А)≤1
3. Случайная величина массового характера можно хар. числом подсчитав его чистоту или иначе относительн. частоту. Относительн. частоту случайн. соб. А будет обозн. символом Р*(А) и по определению относительной частотой случайного события назыв. отношение числа наступлений интересующего нас события к числу проведен. испытаний. Р*(А)=m\n (1) n-число испытаний; m- число наступлений; Основн. с-ва:1) относительная частота достоверного события=1; 2) Относительная частота невозможного события=0; 3)Если события А и В несовместны, то относительная частота их суммы = сумме их относительных частот Р*(а+в)=Р*(а)+Р*(в). Д-во: Пусть число испытаний связанных с этими событиями А и В будет n и пусть событие А наступает m раз, а В-k раз. Т.К. А и В несовместны то среди m-наступлений события А нет ни одного наступлений события В и совершенно аналогично:k-наступлений события В нет ни одного наступления события А. И тогда соб. А+В в n испытаниях наступает m+k называется согласно определения отн. частоты: Р*(А)=m\n; P*(B)=k\n; P*(A+B)= m\n+k\n = P*(A)+P*(B). Замечание: если события А и В произвольны, то в этом случаи относительная частота их суммы: Р*(А+В)=Р*(А)+Р*(В)-Р*(АВ)
4. Опред. 2 события А и В назыв. независимыми если наступление одного из них не меняет наступление вероятности другого в противном случаи эти события независимые. Опред. Вероятность события А вычисленная в предположении что событие В наступило назыв. условной вероятностью соб. А и обозначается Р(А/В)- Р от А при условии В. Если условная вероятность и безусловная вероятность совпадают, то события А и В –независимые; Р(А)=Р(А/В); Р(В)=Р(В/А). Теорема умножения вероятностей: Если А и В - 2 произвольных соб. то вероятн. их произведения = произвед. вероятностей одного из них на условную вероятность другого. Р(АВ)=Р(А)*Р(В/А)=Р(В)*Р(А/В) (1). Для док-ва рассмотрим некоторую конечн. группу событий А1,А2….Аn, каждое из которых может как благоприятствовать так и не благопр. наступлению соб. В и разобьем эту группу событий на 4 подгруппы: 1) А1,А2,… Аk; 2) Аk+1; Ak+L; 3) Ak+L+1….Ak+L+m; 4)Ak+L+m+1…..Ak+L+m+n; Рассмотрим вероятность и найдем вероятность по классическому определению: А;В;А*В;А/В;В/А. А-равновозможных исходов n; благоприятств. - k+L; В-равновозм. n; благ.- k; А/В – равновозм. k+m; благоприят.- k; В/А- равновозм. k+L; благоприятств. – k; Р(А)=(k+L)/n(1); P(B)=(k+m)/n(2); P(AB)=k/m (3); P(A/B)=k/(k+m) (4); P(B/A)=k/(k+L) (5); (1) (5)=› Р(А)*Р(В/А)=k/n=P(AB); (2)(4) P(B)*P(A/B)=k/n=P(AB). Отметим основные средства из Т. 1)Если А независит то В и наоборот. Д-во Р(А/В)=Р(А); Р(А)*Р(В/А)+Р(В)*Р(А/В)=> Р(В/А)=Р(В) В независит от А. Если В независит от А Р(В/А)=Р(В); Р(А)*Р(В/А)=Р(В)*Р(А/В)=>Р(А)=Р(А/В) а послед. означает А незав. от В из этого следует что если пары событий А и В независимы, то и независимы след. пары: (А;В); (А;В);(А;В); (А;В). Следствие 2 Если события А и В независимы, то вероятн. их произвед. = произвед. их вероятности. Р(АВ)=Р(А)*Р(В); Р(В/А)=Р(В); Р(АВ)=Р(А)*Р(В/А)=>Р(АВ)=Р(А)*Р(В). Послед. следствие допускает обобщения если соб А1,А2…Аn- независимые в совокупности, то вероятн. их произведения= произвед. их вероятн. Если соб А1,А2…Аn – произвольные то вероятн произведения Р(А1,А2…Аn)=Р(А1)*Р(А2/А1)Р(А3/А1А2)……Р(An/A1A2…An-1)
5. Пусть соб. А наступает с одним из попарно несовместн. событий Н1,Н2…Нn, образующие полную группу Hi Hj;Hj=V’Hi=U. Путь известна вероятность каждой гипотезы и и известна вероятность события при каждой гипотезе и спрашивается какова вероятность соб. А при заданных условиях. Т.Если событие наступает с одной из попарно-несовместных гипотез образующих полную группу то вероятность события А: Р(А)=∑ni=1P(Hi)P(A/Hi), т.е. событие А=АН1+АН2+…+АНn c другой стороны соб. АНi и AHj – несовместны. Действительно (АНi)(AHj)=AHiHj=AV=V а тогда к событию А можно применить аксиому сложения вероятн. согласно которой будет: Р(А)=Р(∑ni=1AHi)= ∑ni=1P(AHi); Р(А)=∑ni=1P(Hi)P(A/Hi) – формула полной вероятности. Формула полной вероятности это обобщения т. сложения и умножения вероятности. Ф-ла Байеса. Обобщение т. сложения и ф-лы полной вероятности есть формула Байеса. Согласно т.в. Р(А/Нi)=P(Hi)*P(A/Hi)=P(A)*P(Hi/A)=> P(Hi/A)=P(Hi)P(A/Hi)/P(A) =( P(Hi)P(A/Hi))/ (∑ni=1P(Hi)P(A/Hi))
6. Пусть в каждом из n- независимых испытаний соб А наступ. с постоян. вероятностью Р и ненаступ. с вероятн. q=1-p. Необходимо найти вероятность того, что в этих испытаниях соб. А наступит ровно n-раз. Обозначим ч/з Аi соб. сост. в том, что соб. А наступ. в i-том испытании и Аi-соб состоящее в том, что соб. А не наступило. И теперь опишем соб. Вm ч/з сумму произведений соб. Аi и Ai с разными индексами. Причем заметим, что каждое слог. такой суммы будет содержать ровно m наступлений, соб А ровно m букв событий с разными индексами и ровно n-m. Вm=А1А2…АmAm+1, Am+2…An+…+A1,A2…An-m+An-m+1…An. Т.к. события входящие в сумму попарно несовместны, а входящие в произведение независимы, то к соб. Вm можно одновременно применить аксиому сложения вероятностей и теорему умножения для независимых событий. P(Bm)=Pm,n=P(A1)…P(Am)*P(Am+1)…P(An)+….+P(A1)….P(An-m)*P(An-m+1)…P(An)=p*p…*p*q*q…*q+….+q*q….*q*p*p….p(где р-m раз; где q-n-m – раз)=pmqn-m+…+qn-mpm=Сnm; Pm,n=Cnm*pm*qn-m. Составляет содержание частной теоремы повторения числа испытаний. Рm,n – вероятность наступления события m-раз в n-испытаниях Рm,n=Pn(m)
7. Введем ф-лу которая при достаточно большом n p дает незначительную погрешность при чем: p=λ/n (λ- постоянная величина=np) Т. Если в каждом из n-независимых испытаний событие А наступает с постоянной вероятностью р= λ/n, то вероятность того что в этих испытания соб. А нуступит ровно m раз вычисляется по ф-ле: Pm,n= λm/m!*e-λ. Док-во: для доказательства теоремы будем исходить Pm,n=Cnm*pnqn-m=> Pm,n=n!/m!(n-m)!* (λ/n)m*(1- λ/n)n-m= λm/m!*n!/(n-m)!nm*(1- λ /n)n*(1- λ /n)-m= λm/m!*n(n-1)…(n-m-1)/nm*(1- λ/m)n*(1- λ/n)-m= λm/m!*(1- 1/n)*(1-2/n)…(1-m+1/n)*(- λ/n)n*(1- λ/n)-m; Limn→∞Pm,n= λm/m!Lim n→∞(1-1/n)n=[1∞]=λm/m!Lim n→∞[(1-λ/n)-n/λ]-λ=λm/m!*e-λ- Формула Пуассона
8. Если в каждом из n-независимых испытаний соб. А наступает с постоянной вероятностью р, то вероятность того что в этих испытаниях событие наступает ровно m раз = Pm,n=1/(корень из 2πnpq)*e-x2/2(1+αn), где αn→0>, при n→∞=> Pm,n=1/(корень из 2πnpq)*e-x2/2. Введем след. Обозначение 1/корень из 2π*e-x2/2=φ(х); Pm,n=1/(корень из npq)* φ(х), где х=m-np/(корень из npq); Pm,n=1/(корень из npq)* φ(m-np/(корень из npq)). Замечание: 1)φ(х)- четная;2) значение этой ф-ии для всех значений аргымента >4=0;3) ф-ия убывающая, есть мах=0, т.е. φ(0)=0,3989; 4) Составлена таблица. Интегральная Т. Лапласа: Если в каждом из n – независимых испытаний соб.А наступает с постоян. Р, то вероятность того что a≤m≤b можно вычислить по ф-ле. Pn(a≤m≤b)≈1/ (корень из 2π)ts ∫t0 tse-t2/2 dt; t0=a-np/ (корень из npq); ts=b-np/(корень из npq); т.к. ∫t0 tse-t2/2 dt не берется в элемент. Ф-иях то выразим этот интеграл ч-з спец. Ф-ию выражающ. определенный интеграл от ф-ии e-t2/2dt и в качестве спец. функции мы берем ф-ию Лапласа; Ф(t)=1/(корень из 2π)∫0tse-t2/2 dt; Выразим теперь интеграл ч\з ф-ию Лапласа для чего промежуток интегрирования разобьем на 2 пром. [t0;0] [0;ts и тогда ∫t0ts=∫t00+∫0ts=∫0ts-∫0t0; 1/(корень из 2π)∫t0tse-t2/2 dt=1/(корень из 2π)∫0tse-t2/2 dt-1/(корень из 2π)∫0t0e-t2/2 dt; Pn(a≤m≤b)=Ф(ts)-Ф(t0)=> Pn(a≤m≤b)=Ф(b-np/корень из npq)-Ф(ф-np/корень из npq); 1) ф-ия нечетная; 2) неубывающая Ф(0)=0; t≥5 Ф(t)=0,5; 3)Для ф-ии составлена таблица.
9. Наивероятнейшее число наступлений соб. А и В независимых испытаниях, называется такое число m0 наступлений, вероятность которого вычисляется по ф-ле Бернулли больше или покрасней мере не меньше вероятности всех остальных возможных исходов. Исходя из определения наивероятнейшего числа можно заметить, что если m0- наивероятнейшее число, и если m0-1, m0+1 соседние с ним исходы, то Pm0,n≥Pm0-1 (1) Pm0,n≥Pm+1,n (2) Рассмотрим каждое из этих неравенств относительно m0. (1) Cnm0 pm0qn-m0≥ Cnm0-1 pm0-1qn-m0+1; Cnm0 p≥ Cnm0-1q; n!/m0!(n-m0)!*p≥n!/(m0-1)!(n-m+1)*q=>p/m0≥q/n-m0+1=>np-m0p+p≥m0q=>m0(p+q0)≤np+p=>m0<np+p (3); (2) Cnm0 pm0qn-m0≥ Cnm0+1 pm0+1qn-m0+1 (4)=> т.к. p,q≥0 то (3) (4)=>np-q≤m0≤np+p$ (np+p)-(np-q)=p+q=1, np-q – дробное, то m0=[np-q]+1; если np-q – целое; m0=[np-q и np+p]
10. Случайное событие является качествен. характер. случ. результата опыта. Однако случ. результат опыта можно характер. и количественно. Колич. хар. случ. результата опыта является случ. величина. Случайная величина – это такая переменная, которая в результате опыта может принять одно и только одно свое возможное значение и до опыта не известное. Случайн. величины принято обозначать заглавн. буквами конца лат. алфавита: X;Y;Z или X1,X2…Xn. Принимаемые значения случ. величины обычно обознач. соответственно малыми буквами лат. алфавита. 2 вида: 1) Дискретные. Случ. величина Х называется дискретной, если число ее значений конечно, либо бесконечно но счетно в том смысле что значен. можно занумеровать числами натурального ряда. 2) Случ. величина назыв. непрерывной если ее возможные значения сплошь заполняют некоторый интервал конечный или бесконечный. Значения только значений дискретной случайной величины не характериз. полностью с вероятностной точки зрения. Для полной хар. данной случ. величины необходимо дополнительно знать, как часто случ. величина принимает то или иное возможное значение. Для того чтобы судить о случ. величине надо знаить закон ее распределения. Рассмотрим след. полную группу событий Х=Х1. Случайная велич. Х приничмает знач. х1. Эта группа событий бедет полной, что случ. величина Х приняла все знач. от х1 до xn. С другой стороны эта группа событий является полной группой попарно несовместных событий, т.к. случ. величина в результате опыта может принимать одно и только одно значение. Обозначим вероятн. того что случ. величина Х примет в результате опыта значение Pi. P(X=xi)=Pi(i=1…n). Тогда вероятность суммы этих событий = сумме вероятностей и т.к. они образуют полную группу=1: P(∑i=1n(X=xi))= ∑i=1nP(X=xi)=1=>∑i=1nPi=1(последнее означает найти вероятность приходящуюся на каждое значение случайной величины от 1); Таким образом закон распределения случайной величины устанавливает связь м/у возможными значениями случ. величины и возможными соответствиями. Наиболее распространенной формой задания закона распределения дискретной случайной величины – ряд распределения – это таблица состоящая из 2-х строк(возможные случайные величины-1я строка; 2-я строка: вероятность возможных значений). Для того чтобы ряд принял более наглядный вид прибегают к его геометр. интерпретации (хi- возможные знач. случ. величины; piна оси y- вероятность этих значений). Полученные точки на плоскости условно соед. отрезками прямой – полученную фигуру на пл. называют многоугольником распределения. Многоугольник расп. так же как и ряд распределения является формой задания дискретн. случайной величины разнообр. формой. Общее свойство: сумма ардинат вершин всегда =1. Замечание: Соединение точек на плоскости условно по той причине что м/у значениями xi-1 и xi нет ни одной промежуточной величины.
11. Основн. формой задания закона распред. дисикретн. случ. величины явл. ряд распределения. Если случ. величина непрерывна то сотавить ряд распределения для этой случ. случ. величины просто невозможно. по 2-ум причинам: - нельзя песчитать всевозм. значен. непрерывн. случ. величины; - Вероятн. одной случайно взятой непрерывной случ. величины в пределе = 0. Универсальной формой распределения случ. величины является функция распределения. F(X) и по определению ф-ию распределения или интеграл. законом распределения случ. величины Х называется задание вероятностного выполнимого неравенства Х<x т.е. F(X)=P(X<x). Ф-ия распределения сущ. как для дискретн. так и для непрерывной случайной величин и есть формула задания закона распределения. Ф-ия распределения имеет простой геометр. смысл: еслислуч. величину рассматривать, как случ. точку Х числовой прямой, то ф-ия распределения этой случ. величины есть вероятность того что т.Х в результате опыта окажится левее точки х. Если случ. величина Х дискретна, то ее: F(X)=∑Xi<xP(X=xi). Нер-во Xi<x под знаком ∑ означает что суммирование распространяется на те значения случ. величины, которые меньше чем заданное х. Дискретн. случайная величина – разрывная ф-ия и разрывы этих ф-ий являются возможн. значения данной случ. величины. В точках разрыва ф-ия всегда меняется скачкообразно, причем величина скачка= вероятности этого значения. График ф-ии распределения дискретн. случайной величины – всегда ступенчатая линия. С-ва: 1) Ф-ия распределения случ. величины Х заключена м/у 0 и 1. Д-во: F(X)=P(X<x) 0≤P(X)≤1; 1)Вероятность попадания случ. величины на пром. от α до β=приращению ф-ии распределения на этом промежутке, т.е. α≤Х<P; P(α<X<P)=F(β)-F(α). Д-во: Событие А: Х<β; B: X<α; C: α≤X<β. Тогда в силу несовместимости указанных событий соб. А можно представить суммой событий В и С и применить к соб. А аксиому сложения вероятности: P(A)=P(B)+P(C); ((X<β)=P(X<α)+P(α≤X< β)=F(β)=P(α)+P(α≤X<β)=> P(α≤X<β)=F(β)-F(α) (1); Перейдем (1) к пределу тогда α≤X<β=>Х сходится к α; Р(Х=α) = Limβ→α(F(β)-F(α), т.е. в последнем равенстве слева это верочятность того, что случ. Х в рез. опыта примет значение=α; А справа, величина предела будет зависеть от того является случ. величина дисикретной или непрерывной. Если х – дискретная, то справа есть вероятность того, что случ. величина примет значение = α; А если случ. величина непрерывная то это вер.=0. А последнее доказывает что вер. одного отдельно взятого значения непрерывной случ. величины в пределе стремится к 0. 3)Ф-ия распределения случ. величины Х есть неубывающая ф-ия своего аргумента. Действительно из (1)=> F(β)=F(α)+P(α≤X<β); F(β)≥F(α) т.к. P(α≤X<β)≥0 Последнее означает, при условии β>α F(X)- неубывающая. Если Х- непрерывна то: P(α≤X<β)= P(α<X≤β)= P(α≤X≤β); Ф-ия распределенная на +∞=1; -∞=0. Для док-ва этого с-ва воспользуемся геометр. интерпретацией. Событие Х<x(x→+∞) в пределе становится достоверным, вероятность достоверного события=1, то это доказывает Х→+∞ F(X)=1; F(+∞)=1, При Х→-∞; Х<x=V – становится событие невозможным, а т.к. Р(V)=0, F(-∞)=0;
12. Рассмотрим непрерывную случ. величину Х имеющую дифференциальную ф-ию распределения F(X). Рассмотрим элемент. участок длины ∆Х примыкающий к т.Х. Тогда F(x+∆x)-F(X)=P(x≤X<x+∆x)=> P(x≤X<x+∆x)/ ∆x= F(x+∆x)-F(X)/∆x; P(x≤X<x+∆x)/ ∆x – плотность вероятности на отношение на единицу длины. Если теперь в (1) перейти к пределу (∆x→0), то в силу дифференциации ф-ии Lim∆x→0F(x+∆x)-F(X)/X=F’(x); F’(x) - плотность распределения вероятности; F’(x)=f(x). График ф-ии f(x) обычно называется кривой распределения. С-ва 1) f(x)≥0; производная от неубывающей ф-ии заключ, м/у 0 и 1; 2) F(x)=∫-∞хf(x)dx. Действительно по определению F’(x)=f(x) => dF(x)/dx=f(x) => dF(x)=f(x)dx проинтегр. р-во по промежутку -∞ до х; ∫-∞хdF(x)= ∫-∞хf(x)dx =>F(x)|-∞x=∫-∞хf(x)dx; F(x)=F(-∞)=∫-∞хf(x)dx; F(x)= =∫-∞хf(x)dx; 3) Р(α<x<β)= ∫αβf(x)dx S под кривой распределения на пром. от α до β= вероятность попадания. Д-во: Р(α<x<β)= F(β)-F(α)= ∫-∞βf(x)dx-∫-∞xf(x)dx=∫α-∞f(x)dx+ ∫-∞βf(x)dx=∫αβf(x)dx; 4) ∫-∞+∞f(x)dx=1; Полная площадь под кривой распределения=1. Д-во: ∫-∞+∞f(x)dx=∫-∞+∞dF(x)dx=F(x)|-∞+∞=F(+∞)+F(-∞)=1. Замечание: Если случайная величина х- непрерывна то ее ф-ия всегда непрерывна, однако плотн. распределения может быть и ф-ия разрывная.
13. Математ. ожидание случ. величины будем обозначать МХ. Опр. Математ. ожидание дискретн. случ. величины называется сумма произвед. возможн. значений случ. величины. на вероятн. этих значений, т.е. МХ=∑i=1nxi pi. Если случ. величина дискретна но число ее значений бесконечно, но счетно, то мат. ожидание этой случайной величины есть сумма ряда, при условии сходимости этого ряда. МХ=∑i=1∞xi pi. Введем теперь понятие мат. ожидания для непрерывной случ. величины. Пусть х- непрерывн. случ. велич. с плотностью распределения f(x) и пусть значение случ. величины х є[a;b]. для определения мат. ожидания сл. величины пром. [a;b] точками х1,х2,….хn разобъем на частичные и длины пром. разбиения обозначим ч/з ∆xi (i=1…n) Внутри каждого пром. разбиения выбирем точкуζi . найдем f(x) т.к. f(ζi)∆xi. Т.к. последнее есть вер. попадания точки на соотв. промежуток, то тогда естествен. мат ожидание непрерывной случ. величины определ. так же как и мат. ожидание дискретн. случ. величины. А тогда мат. ожидан. непрерывн. случ. величин. называется – Limmax∆x→o∑i=1n xif(ζi)∆xi. если предпол. что ф-ия f(x) непрерывна, то и непрерывна ф-ия х*f(x)- а тогда она интегрир., а => сущ. интеграл ∫abxf(x)dx, тогда мат. ожидание хf(x); хє[a;b]; МХ=∫abxf(x)dx но хє[-∞;+∞], то МХ=∫-∞+∞xf(x)dx при условии сход. этого несобствен. интеграла. Основные с-ва мат. ожидания:1) Мат. ожидание постоянной =ей самой, действительно постоян. можно рассматривать, как дискретную случ. величину распределен. по случайному закону С(С и 1); 2) Постоян. можно выносить за знак мат. ожидания: МСХ=СМХ; МСХ=Limmax →o∑i=1nСхif(ζi) ∆xi=CLim; 3) Если Х,Y –независимые случ. величины, то матем. ожидание их суммы = сумме их мат. ожидания. М(X+Y)=MX+MY; Д-во: Пусть Х,Y задаются по законам распределения. Тогда возможные значения будут всевозможные суммы: xi+yj; 1≤i≤n; 1≤j≤k; P(X+Y=xi+yj)=Pij=P(X=xi∩Y=yj)=P(X=xi)*P(Y=yj)=Piqj и тогда по определению мат. ожидание суммы случ. величин М(X+Y)= ∑i=1n ∑j=1k(xi+yj)pij=∑i=1n ∑j=1k(xi+yj)*piqj= ∑i=1n ∑j=1k(xipjqj+yjqjpi)= ∑i=1n ∑j=1kxipiqj+∑i=1n ∑j=1kyjqjpi=∑i=1n xipi∑j=1kqj+ ∑i=1n pi∑j=1kyjqj=∑i=1nxipi+ ∑j=1kyjqj=MX+MY; следствие мат. ожидание линейн. комбинации случ. величин= лин. комбин. их матем. ожиданий. 4) Если X Y независимые случ. величины, то математ ожидание их произведении= М(XY)=MX*MY. Пусть Х,Y задаются по законам распределения. Тогда возможные значения будут всевозможные суммы: xi+yj; 1≤i≤n; 1≤j≤k; P(X*Y)=xi+yj=Pij=Piqj и тогда по определению М(X*Y)= ∑i=1n ∑j=1kxiyjpiqj=∑i=1n xipi∑j=1kyjqj=MX*MY
14. Вводится характеристика рассеяния. Среднее квадратическое отклонение обозначается буквой σ=кореньиз(М(х-а)2). если дискретная случ. величина Х распределена по закону(х1-р1…..хn-pn) и если МХ=а, то случ. величина (х-а)по закону(х1-а внизу р1; х2-а внизу р2…..хn-a внизу рn); а случ. величина (х-а)2 по закону((х1-а)2 внизу р1; (х2-а)2 внизу р2…..(хn-a)2 внизу рn) и таким образом что если случ. величина Х – дискретная σ=корень из (∑i=1n(xi-a)2*pi). Если случ. величина Х-непрерывная то смма значений заменяется ∫; σ=корень из (∫-∞+∞(х-а)2f(x)dx). Основные с-ва: 1) Среднее квадр. отклонение постоян. =0 σс=0. Д-во: σс=корень из (М(с-Мс)2)= корень из ( М(с-с)2; 2) Постоянную можно выносить за знак слреднего квадр. отклонения по обсолютн. величине. σсх=|c|σx Д-во: σсх= корень из (М(сх-М(сх))2)=корень из (М(сх-са)2)=корень из (МС2(х-а)2)=|c|корень из (М(х-а)2) =|c| σx; 3) Прибавление постоян. к случ. величине не меняет ее среднего квадрат. отклонения: σс+x= σx; σс+x= корень из (М(с+х-М(с+х))2)= корень из (М(с+х-с-а)2)= корень из (М(х-а)2)= σx;
