
шпоргалка / шпора
.docx14) Случайные события, их классификация. Эксперимент – событие, исход которого предсказать невозможно, но можно повторить произвольное число раз. Случайное событие – любой исход опыта, который может произойти или не произойти. Элементарные события – непосредственные исходы опыта. Невозможное событие – если оно заведомо не может произойти в результате опыта. Событие называется достоверным, если оно точно наступит в результате опыта. Два события называются несовместными, если наступление одного исключает появление другого. Полная группа – группа, которую образуют события, если они попарно несовместны. События называются равновозможными, если ни одно из них не является более объективно возможным, чем другое. Статистическое определение. Относительная частота (n – число опытов, nА – частота события А в результате опытов). Частота обладает фундаментальным свойством – статистической устойчивостью. Статистической вероятностью события А называется число, около которого колеблется частота события А при достаточно большом количестве испытаний. Р(А)=nА/n. Классическое определение. Пусть проводится опыт с n исходами. Исходы можно представить в виде группы несовместных равновозможных событий. Такие исходы называются случаями, а опыт классическим. Случай, который приводит к наступлению события А, называется благоприятным. Тогда вероятностью события А называют отношение числа m случаев, благоприятных этому событию, к общему числу n: P(A)=m/n.
15) Размещение, сочетание, перестановки (формулы для схемы выбора без возвращений). Размещение – выборки (комбинации), состоящие из m элементов, которые отличаются друг от друга либо составом, либо порядком их расположения. Аnm=n!/(n-m)!, m – по сколько, n – из скольки. Сочетанием из n элементов по m называется любое подмножество, которое содержит m элементов данного множества. Cnm=n!/[m!(n-m)!]. Перестановкой из n элементов называют размещение из n элементов, отличающихся только порядком следования. Рn=n!.
17) Комбинаторика – раздел математики, в котором изучаются задачи выбора элементов из заданного множества и расположение их группы по заданным правилам (сложения и умножения). Правило сложения. Если первый элемент можно выбрать n1 способами, а второй элемент n2 способами, причём первые и вторые способы не пересекаются, то любой из этих элементов можно выбрать (n1+n2) способами. Правило умножения. Если из некоторого множества первый элемент можно выбрать n1 способами и после каждого такого выбора второй элемент можно выбрать n2 способами, то оба элемента можно выбрать n1*n2 способами. Различают схемы выбора с возвращениями и без возвращений.
18) Условная вероятность. Пусть А и В – два события. Когда наступление одного может влиять на наступление другого, говорят об условной вероятности. Условная вероятность события В при условии, что произошло событие А, называют отношение произведения этих вероятностей к вероятности события А. Р(В!А)=Р(АВ)/Р(А) – В наступит, если А уже произошло, Р(А!В)=Р(АВ)/Р(В).
19) Вероятность произведения событий Р(АВ)=Р(А)Р(В!А). Событие А называется независимым от события В, если его условная вероятность равна безусловной Р(А!В)=Р(А). Для независимых событий справедлива следующая формула Р(АВ)=Р(А)Р(В).
20) Вероятность суммы двух совместных событий равна сумме их вероятностей без вероятности их произведения Р(А+В)=Р(А)+Р(В)-Р(АВ).
21) Формула полной вероятности. Пусть события Н1, Н2…Нn образуют полную группу, тогда для любого события А имеет место формула полной вероятности Р(А)=∑i=1nP(Hi)P(A!Hi), H1, H2…Hn – гипотезы (исчерпывают все возможные предположения относительно этапов как бы первого этапа опыта), событие А – один из возможных исходов второго этапа.
22)Формула Байеса. Теорема. Пусть H1, H2…Hn образуют полную группу, тогда условная вероятность события Hk при условии, что событие А уже произошло, задаётся формулой Р(Нk!A)=P(Hk)Р(A!Hk)/P(A), Р(А) – полная вероятность.
23) Независимые испытания Бернулли. Несколько опытов называются независимыми, если их исходы представляют собой независимые события, т.е. производится несколько испытаний. Вероятность наступления некоторого события А в каждом испытании не зависит от исходов других. Последовательность n независимых событий, в каждом из которых может произойти некоторое событие А с вероятностью р или противоположное ему событие с вероятностью q=1-p, называют схемой Бернулли. Теорема. Если производится n независимых испытаний, в каждом из которых вероятность наступления события А равна р, а вероятность его ненаступления равна q, то вероятность того, что событие А наступит m раз из n определяется формулой: Pm(A)=Cnmpmqn-m.
24) Формула Пуассона. Если число испытаний неограниченно увеличивается, а вероятность наступления события в каждом испытании неограниченно уменьшается, т.е. р→0, но так, что np=a – const, то Pn(m)=ame-a/m!.
25) Локальная теорема Муавра-Лапласа. Если m и n→∞ так, что t=(m-np)/(npq)1/2 (*) есть величина, принимающая значение из ограниченной области t, то вероятность появления события m раз в n испытаниях определяется по формуле: Pn(m)=φ(t)/(npq)1/2, φ(t) – локальная функция Лапласа, φ(t)=e-t2/2/(2π)1/2.
26) Интегральная теорема Лапласа. Даёт приближённую формулу того, что событие А появится в n испытаниях не менее m1 раз и не более m2 раз [m1;m2]. Из формулы t=(m-np)/(npq)1/2 следует m=np+t(npq)1/2. Если t1<=t<=t2, то np+t1(npq)1/2<=m<=np+t2(npq)1/2. Теорема. Если в схеме Бернулли m и n→∞, то вероятность такого события Pn(np+t1(npq)1/2<=m<=np+t2(npq)1/2) приближённо определяется по формуле: P(m1<=m<=m2)≈Ф(t2)-Ф(t1), где Ф(t)=(1/(2π)1/2)∫0te-x2/2dx – интегральная функция Лапласа, нечётная Ф(-t)=-Ф(t). Ф(-∞)=-0,5, Ф(+∞)=0,5, для t>5 Ф(t)=0,5.
27) Случайные величины. Случайной величиной называют величину, которая в результате испытания примет одно и только одно возможное значение, наперёд неизвестное и зависящее от случайных причин, которые заранее не могут быть учтены. При бросании игральной кости могут появиться цифры 1-6. Число очков есть величина случайная (Х, У…), а сами числа есть возможные значения СВ (х1, х2…у1, у2).
28) Закон распределения вероятностей ДСВ – соответствие между возможными значениями и их вероятностями. Его можно задать таблично, аналитически и графически. При табличном задании закона распределения первая строка таблицы содержит возможные значения СВ, вторая – их вероятности. Т.к. в одном испытании СВ принимает одно возможное значение, то события образуют полную группу, поэтому сумма вероятностей второй строки таблицы равна 1. Для наглядности закон распределения ДСВ можно изобразить графически, для чего в прямоугольной СК строят точки (хi;pi), а затем соединяют их отрезками прямых. Полученную фигуру называют многоугольником распределения.
29) Функция распределения вероятностей СВ. Если ДСВ можно задать законом распределения, то НСВ в силу бесконечного набора значений, так задать нельзя. Для задания НСВ вводится функция распределения вероятностей СВ. Пусть х – действительное число. Вероятность события, состоящего в том, что Х примет значений, меньшее х, обозначим через F(х). Если х изменяется, то и F изменяется, т.е. F(x) является функцией от х. Функция распределения вероятностей СВ – функция F(x), определяющая вероятность того, что СВ Х в результате испытания примет значение меньшее х. F(x)=p(X<x), F(x) – интегральная функция. Свойства функции распределения: 1) F(x)€[0;1]. 2) неубывающая, т.е. если x2>x1 => F(x2)>=F(x1). Следствие 1. P(a<=X<=b)=F(b)-F(a). Следствие 2. Вероятность того, что НСВ примет одно определённое значение, равна 0. 3) Если возможные значения СВ € интервалу (a;b), то F(x)=0 при x<=a и F(x)=1 при x>=b. График функции распределения.
30) Плотность распределения. Для НСВ интегральная функция распределения определяется через плотность распределения F(x)=∫-∞xf(y)dy. Плотность распределения можно интерпретировать следующим образом: f(x)=lim∆x→0(P(x<=X<=x+∆x)/∆x). Согласно формуле (1) f(x)=lim∆x→0(F(x+∆x)-F(x)/∆x)=F’(x) => f(x)=F’(x). Плотность распределения (дифференциальная функция) – первая производная (если она существует) от функции распределения. f(x)>=0 (т.к. является производной от неубывающей функции).
41) Функция распределения двумерной СВ. Функция распределения является универсальной формой задания распределения двумерной СВ (она же интегральная). Функция распределения системы СВ (Х;Y) – вероятность совместного выполнения двух условий: X<x, Y<y. F(X;Y)=P{X<x;Y<y}. Геометрически это интерпретируется как вероятность попадания случайной точки в бесконечный квадрат с вершиной в т.(X;Y).
Свойства функции распределения двумерной СВ. 1) Ограничена [0;1]. 2) Не убывает по каждому из своих аргументов при фиксированном другом F(X2;Y)>=F(X1;Y), X2>X1. 3) Если хотя бы один из аргументов обращается в -∞, то функция распределения равна 0 F(X;-∞)=F(-∞;X)=F(-∞;-∞)=0. 4) Если оба аргумента обращаются в +∞, то функция распределения равна 1 F(+∞;+∞)=1. 5) Если один из аргументов обращается в +∞, то функция распределения СВ становится соответствующей другому аргументу F(X;+∞)=F1(X); F(+∞;Y)=F2(Y). 6) F(X;Y) непрерывна слева по каждому из своих аргументов limx→x0-0F(X;Y)=F(X0;Y0), limy→y0-0F(X;Y)=F2(Y).
42) Плотность распределения вероятностей двумерной СВ – вторая смешанная производная от функции распределения f(x;y)=∂2F(X;Y)/∂x∂y=F”xy(X;Y). Плотность распределения есть предел отношения вероятности попадания случайной точки (X;Y) в элементарный прямоугольник со сторонами ∆х и ∆у, примыкающий к точке (X;Y), к площади этого прямоугольника, когда ∆х, ∆у→0. Геометрически плотность распределения системы двух СВ представляет собой некоторую поверхность распределения. Свойства плотности распределения вероятностей. 1) f(x;y)>=0. 2) Вероятность попадания случайной точки (X;Y) в область D вычисляется по формуле P{(X;Y)€D}=∫∫Df(x;y)dxdy. 3) F(X;Y)=∫-∞x∫-∞yf(x;y)dxdy. 4) ∫-∞+∞∫-∞+∞f(x;y)dxdy=1. 5) Плотность распределения одномерных составляющий ∫-∞+∞f(x;y)dy=f(x), ∫-∞+∞f(x;y)dx=f(y).
43) Зависимость и независимость двух СВ. Независимые СВ, если закон распределения каждой из них не зависит от того, какие значения принимает другая. В противном случае они называются зависимыми. Независимые, когда независимыми событиями являются X;Y. Условие независимости. Теорема. Для того, чтобы СВ X, Y были независимыми, необходимо и достаточно, чтобы функция распределения системы была равна произведению функций составляющих F(X;Y)=F1(X)F2(Y). Необходимое и достаточное условие независимости двух НСВ, образующих систему f(x;y)=f1(x)f2(y). Необходимое и достаточное условие независимости двух ДСВ, образующих систему P{X=Xi;Y=Yi}=P{X=Xi}P{Y=Yi}. Понятие независимости несколько отличается от понятия зависимости в математике. Здесь используется вероятностный принцип зависимости величин (нельзя точно указать значение Y, можно только указать закон её распределения). Часто эта зависимость задаётся эмпирической формулой.
45) Корреляционный момент. Особую роль играет центральный момент 2го порядка: μk,s=M(X-mx)(Y-my)=MX°Y° называемый корреляционным моментом или моментом связи. Корреляционный момент или ковариация двух СВ (X;Y) – МО произведения отклонения этих СВ от их МО: Kxy=cov(X;Y)=M[(X-mx)(Y-my)]=MX°Y°. Если (X;Y) ДСВ, то Kxy=∑i=1n∑j=1m(X-mx)(Y-my)Pij. Если (X;Y) НСВ, то Kxy=∫-∞+∞∫-∞+∞(X-mx)(Y-my)f(x;y)dxdy. Однако ковариацию легче вычислять через МО: Kxy=MXY-MX*MY. Свойства ковариации. 1) Симметрична Kxy=Kyx. 2) Дисперсия СВ есть ковариация её самой Kyy=DY. 3) Если СВ независимы, то Kxy=0. 4) Дисперсия суммы и разности двух СВ равна D(X±Y)=DX+DY±2Kxy. 5) Постоянный множитель можно выносить за знак ковариации Kcxy=CKxy. 6) Ковариация не изменится, если к одной из СВ или к обеим сразу прибавить постоянную Kx+c,y=Kxy=Kx,y+c=Kx+c,y+c. 7) Не превосходит по модулю произведение средних квадратических отклонений !Kxy!<=σxσy. СВ, для которых корреляция не равна 0, называют коррелированными. В противном случае – некоррелированными. Ковариация характеризует степень зависимости СВ и их рассеяние вокруг точки с координатами (mx;my). Размерность ковариации равна произведению размерностей СВ X, Y.
Коэффициент корреляции. В качестве числовой характеристики зависимости СВ берут безразмерную величину – коэффициент корреляции, который является оценкой влияния одной величины на другую. rxy=Kxy/σxσy=Kxy/√DX√DY. Свойства коэффициента корреляции. 1) По абсолютной величине не превосходит 1: -1<=rxy<=1. 2) Если коэффициенты Х и Y независимы, то rxy=0. 3) Если СВ связаны линейной зависимостью Y=αX+b, то !rxy!=1; при α>0 rxy=1, при α<0 rxy=-1. 4) Если !rxy!=1, то СВ связаны линейной функциональной зависимостью Y=αX+b. Для независимых СВ rxy=0, для линейно зависимых СВ !rxy!=1, для остальных случаев rxy€(-1;1). Корреляционный момент задают матрицей (Kxx Kxy; Kyx Kyy).
46) Двумерное нормальное распределение. Двумерная СВ называется распределённой по нормальному закону, если совместная плотность распределения имеет вид: f(x;y)=(1/2πσxσy√(1-r2))e(-1/2(1-r2))[(x-mx)2/σx2-2r(x-mx)(y-my)σxσy+(y-my)2/σy2], где mx, my, σx, σy, r – параметры. Это двумерное нормальное распределение, или распределение на плотности, т.е. функция плотности определяется заданием числовых характеристик, которые можно определить на практике. График плотности имеет вид… f1(x)=(1/σ√2π)e-(x-mx)2/2σx2 – кривая Гаусса. Если сделать сечение, параллельными плоскостями оху, то проекцией окажется эллипс, который называется эллипсом рассеяния. (mx;my) – центр эллипса. После приведения к каноническому виду, уравнение эллипса имеет вид: (x-mx)2/(hσx)2-(y-my)2/(hσy)2=1, h2=-2(1-r2)ln(2πz0σxσy√(1-r2)), z0=be-a(x-mx)2. Если СВ независимы, то вероятность попадания точки (X;Y), распределённой по нормальному закону R={a<=X<=b,c<=Y<=d}, равна P{a<=X<=b,c<=Y<=d}=(Ф0((b-mx)/σx)-Ф0((a-mx)/σx))*(Ф0((c-my)/σy)-Ф0((d-my)/σy)), Ф0 – функция Лапласа.
47) Регрессия. При изучении двумерной СВ часто рассматриваются числовые характеристики условного распределения. Условным МО одной СВ, входящей в систему, называется её МО, вычисленное при условии, что другая СВ приняла определённое значение. M(X!Y), M(Y!X). Для ДСВ M(Y!Xi)=∑j=1myiP(Yi!Xi), M(X!Yi)=∑i=1nxiP(Xi!Yi). Для НСВ M(Y!X)=∫-∞+∞yf(Y!X)dy, M(X!Y)=∫-∞+∞xf(X!Y)dx. Условное МО СВ Y при заданном значении Х=х называется регрессией Y на Х. Графики этих функций называются линиями регрессии. Если обе функции Y на Х и Х на Y линейны, то говорят, что СВ связаны корреляционной зависимостью. Если двумерная СВ распределена по нормальному закону, то СВ Х и Y связаны линейной корреляционной зависимостью – теорема о нормальной корреляции.
51) Теоремы Чебышева. 1) Если х1, … xn попарно независимые СВ, имеющие одно и то же МО а и если дисперсии этих величин равномерно ограничены, то для любого ε>0 limn→∞P(!(x1+…+xn)/n-a!<ε)=1 – достаточное событие. 2) Если х1, … xn попарно независимые СВ, причём дисперсии их равномерно ограничены, то как бы мало ни было ε>0 limn→∞P(!(х1+…+xn)/n-(M(x1)+…+M(xn))/n!<ε)=1 – достоверное событие. Сущность теоремы такова: хотя отдельные независимые СВ могут принимать значения, далёкие от своих МО, среднее арифметическое достаточно большого числа СВ с большой вероятностью принимает значения, близкие к определённому постоянному числу (к а или к (M(x1)+…+M(xn))/n).
52) Теорема Бернулли. Если в каждом из n независимых испытаний вероятность р появления события А постоянна, то как угодно близка к 1 вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико. limn→∞P(!m/n-p!<ε)=1. Теорема Бернулли утверждает, что при n→∞ относительная частота → по вероятности к р.