Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

шпоргалка / шпоры колоквиум по вышке2

.docx
Скачиваний:
25
Добавлен:
28.01.2014
Размер:
42.86 Кб
Скачать

Теория вероятностей – наука, которая изучает закономерности, присущие массовым случайным явлениям. Рассматриваемые явления изучаются в абстрактной форме, т.е. изучаются математические модели случайных процессов. Цель – осуществление прогнозов (возможность предсказания).

Случайные события, их классификация. Эксперимент – событие, исход которого предсказать невозможно, но можно повторить произвольное число раз. Случайное событие – любой исход опыта, который может произойти или не произойти. Элементарные события – непосредственные исходы опыта. Невозможное событие – если оно заведомо не может произойти в результате опыта. Событие называется достоверным, если оно точно наступит в результате опыта. Два события называются несовместными, если наступление одного исключает появление другого. Полная группа – группа, которую образуют события, если они попарно несовместны. События называются равновозможными, если ни одно из них не является более объективно возможным, чем другое.

ТВ имеет два определения: статистическое и классическое. Статистическое определение. Относительная частота (n – число опытов, nА – частота события А в результате опытов). Частота обладает фундаментальным свойством – статистической устойчивостью. С увеличением числа опытов она принимает значение, близкое к постоянному. Одни события имеют больше шансов, чем другие. Статистической вероятностью события А называется число, около которого колеблется частота события А при достаточно большом количестве испытаний. Р(А)=nА/n. Свойства статистической вероятности: 1) 0<=P(A)<=1. 2) Р(А) невозможного события = 0. 3) Р(А) достоверного события = 1. 4) Р(А) суммы несовместных событий = сумме вероятностей Р(А+В)=Р(А)+Р(В). Классическое определение. Пусть проводится опыт с n исходами. Исходы можно представить в виде группы несовместных равновозможных событий. Такие исходы называются случаями, а опыт классическим. Случай, который приводит к наступлению события А, называется благоприятным. Тогда вероятностью события А называют отношение числа m случаев, благоприятных этому событию, к общему числу n: P(A)=m/n.

Комбинаторика – раздел математики, в котором изучаются задачи выбора элементов из заданного множества и расположение их группы по заданным правилам (сложения и умножения). Правило сложения. Если первый элемент можно выбрать n1 способами, а второй элемент n2 способами, причём первые и вторые способы не пересекаются, то любой из этих элементов можно выбрать (n1+n2) способами. Правило умножения. Если из некоторого множества первый элемент можно выбрать n1 способами и после каждого такого выбора второй элемент можно выбрать n2 способами, то оба элемента можно выбрать n1*n2 способами. Различают схемы выбора с возвращениями и без возвращений.

Размещение, сочетание, перестановки (формулы для схемы выбора без возвращений). Размещение – выборки (комбинации), состоящие из m элементов, которые отличаются друг от друга либо составом, либо порядком их расположения. Аnm=n!/(n-m)!, m – по сколько, n – из скольки. Сочетанием из n элементов по m называется любое подмножество, которое содержит m элементов данного множества. Cnm=n!/[m!(n-m)!]. Перестановкой из n элементов называют размещение из n элементов, отличающихся только порядком следования. Рn=n!.

Условная вероятность. Пусть А и В – два события. Когда наступление одного может влиять на наступление другого, говорят об условной вероятности. Условная вероятность события В при условии, что произошло событие А, называют отношение произведения этих вероятностей к вероятности события А. Р(В!А)=Р(АВ)/Р(А) – В наступит, если А уже произошло, Р(А!В)=Р(АВ)/Р(В).

Вероятность произведения событий Р(АВ)=Р(А)Р(В!А). Событие А называется независимым от события В, если его условная вероятность равна безусловной Р(А!В)=Р(А). Для независимых событий справедлива следующая формула Р(АВ)=Р(А)Р(В). Вероятность суммы двух совместных событий равна сумме их вероятностей без вероятности их произведения Р(А+В)=Р(А)+Р(В)-Р(АВ).

Формула полной вероятности. Пусть события Н1, Н2…Нn образуют полную группу, тогда для любого события А имеет место формула полной вероятности Р(А)=∑i=1nP(Hi)P(A!Hi), H1, H2…Hn – гипотезы (исчерпывают все возможные предположения относительно этапов как бы первого этапа опыта), событие А – один из возможных исходов второго этапа. Формула Байеса. Теорема. Пусть H1, H2…Hn образуют полную группу, тогда условная вероятность события Hk при условии, что событие А уже произошло, задаётся формулой Р(Нk!A)=P(Hk)Р(A!Hk)/P(A), Р(А) – полная вероятность.

Независимые испытания Бернулли. Несколько опытов называются независимыми, если их исходы представляют собой независимые события, т.е. производится несколько испытаний. Вероятность наступления некоторого события А в каждом испытании не зависит от исходов других (стрельба, подбрасывание монет). Схема Бернулли – схема независимых испытаний. Последовательность n независимых событий, в каждом из которых может произойти некоторое событие А с вероятностью р или противоположное ему событие с вероятностью q=1-p, называют схемой Бернулли. Теорема. Если производится n независимых испытаний, в каждом из которых вероятность наступления события А равна р, а вероятность его ненаступления равна q, то вероятность того, что событие А наступит m раз из n определяется формулой: Pm(A)=Cnmpmqn-m.

Приближённые формулы в схеме независимых испытаний. Существуют формулы, которые позволяют с большой точностью определить вероятность события при больших значениях m и n.

Формула Пуассона. Если число испытаний неограниченно увеличивается, а вероятность наступления события в каждом испытании неограниченно уменьшается, т.е. р→0, но так, что np=a – const, то Pn(m)=ame-a/m!. Используется в теории массового обслуживания. Формула Пуассона может стать математической моделью простейшего потока событий. Потоком событий называют последовательность событий, наступающих в случайный момент времени. Поток событий, обладающий свойством стационарности, одинарности, отсутствия, называется простейшим. Стационарность – вероятность появлений события К на участке времени τ зависит только от длины этого участка, т.е. среднее число событий, появляющихся в единицу времени, есть величина постоянная и называется интенсивность: λ(t)=λ. Ординарность означает, что события появляются не группами, а поодиночке, т.е. вероятность наступления более одного события на участке ∆t очень мала. Отсутствие последствий означает, что вероятность появления К событий на любом участке времени не зависит от того, сколько событий появилось на любом другом участке, непересекающемся с этим (будущее потока не зависит от прошлого). Вероятность появления m событий простейшего потока за время t: Pt(m)=(λt)met/m!.

Локальная теорема Лапласа даёт асимтпатическую (приближённую) формулу, которая позволяет приближённо найти вероятность появления события m раз в n испытаниях, если число испытаний достаточно велико. Для частного случая р=1/2 была найдена в 1730 году Муавром, а в 1783 Лаплас обобщил формулу Муавра для произвольного р.

Локальная теорема Муавра-Лапласа. Если m и n→∞ так, что t=(m-np)/(npq)1/2 (*) есть величина, принимающая значение из ограниченной области t, то вероятность появления события m раз в n испытаниях определяется по формуле: Pn(m)=φ(t)/(npq)1/2, φ(t) – локальная функция Лапласа, φ(t)=e-t2/2/(2π)1/2.

Интегральная теорема Лапласа. Даёт приближённую формулу того, что событие А появится в n испытаниях не менее m1 раз и не более m2 раз [m1;m2]. Из формулы (*) следует m=np+t(npq)1/2. Если t1<=t<=t2, то np+t1(npq)1/2<=m<=np+t2(npq)1/2. Теорема. Если в схеме Бернулли m и n→∞, то вероятность такого события Pn(np+t1(npq)1/2<=m<=np+t2(npq)1/2) приближённо определяется по формуле: P(m1<=m<=m2)≈Ф(t2)-Ф(t1), где Ф(t)=(1/(2π)1/2)∫0te-x2/2dx – интегральная функция Лапласа, нечётная Ф(-t)=-Ф(t). Ф(-∞)=-0,5, Ф(+∞)=0,5, для t>5 Ф(t)=0,5.

Случайные величины. Случайной величиной называют величину, которая в результате испытания примет одно и только одно возможное значение, наперёд неизвестное и зависящее от случайных причин, которые заранее не могут быть учтены. При бросании игральной кости могут появиться цифры 1-6. Число очков есть величина случайная (Х, У…), а сами числа есть возможные значения СВ (х1, х2…у1, у2).

Дискретные и непрерывные СВ. Дискретной называют СВ, которая принимает отдельные изолированные возможные значения с определёнными вероятностями. Число возможных значений СВ может быть конечным и бесконечным. Непрерывной называют СВ, которая может принимать все значения из некоторого конечного или бесконечного промежутка.

Среднее квадратичное отклонение суммы взаимонезависимых СВ. Теорема. Среднее квадратичное отклонение суммы конечного числа взаимонезависимых СВ равно квадратному корню из суммы квадратов средних квадратичных отклонений этих величин. σ(х1+…xn)=√(σ2(x1)+…+σ2(xn). Доказательство. X=x1+…xn, D(X)=D(x1)+…D(xn), √D(X)=√(D(x1)+…+D(xn)), σ(х1+…xn)=√(σ2(x1)+…+σ2(xn).

Закон распределения вероятностей ДСВ – соответствие между возможными значениями и их вероятностями. Его можно задать таблично, аналитически и графически. При табличном задании закона распределения первая строка таблицы содержит возможные значения СВ, вторая – их вероятности. Т.к. в одном испытании СВ принимает одно возможное значение, то события образуют полную группу, поэтому сумма вероятностей второй строки таблицы равна 1. Для наглядности закон распределения ДСВ можно изобразить графически, для чего в прямоугольной СК строят точки (хi;pi), а затем соединяют их отрезками прямых. Полученную фигуру называют многоугольником распределения.

Биномиальное распределение. Пусть производится n независимых испытаний, в каждом из которых событие А может появиться, либо не появиться. Вероятность наступления события во всех испытаниях постоянна и равна р. Рассмотрим в качестве ДСВ Х число появлений события А в этих испытаниях. Найдём закон распределения СВ Х. Для этого требуется определить возможные значения СВ и их вероятности. Событие А в n испытаниях может либо не появиться, либо появиться 1 раз, либо 2 и т.д., либо n раз. Т.е. возможные значения таковы х1=0, х2=1, х3=2…xn=n. Вероятности этих событий вычисляются с помощью формулы Бернулли. Биноминальным называют распределение вероятности, определяемое формулой Бернулли.

Числовые характеристики случайных величин.

Математическое ожидание ДСВ – сумма произведений всех её возможных значений на их вероятности: М(Х)=∑xipi. МО приблизительно равно среднему значению СВ, поэтому для решения многих задач достаточно знать МО, а не закон распределения СВ. МО появления события в одном испытании равно вероятности этого события. Свойства МО: 1) М(с)=с. 2) М(сХ)=сМ(Х). Две СВ называют независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина. В противном случае случайные величины зависимы. 3) МО произведения двух независимых величин равно произведению их МО. 4) МО суммы двух СВ равно сумме МО слагаемых. Теорема. МО числа появлений события А в n независимых испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытании М(Х)=np.

Дисперсия ДСВ показывает как рассеяны возможные значения СВ вокруг её МО. МО отклонения СВ от её среднего значения равно 0: M[X-M(X)]=0. Эта формула не может служить характеристикой рассеяния СВ около её среднего значения, поэтому вводится дисперсия D(X). Дисперсией ДСВ называется МО квадрата отклонения: D(X)=M[X-M(X)]2. Согласно этой формуле ряд распределения D(X)=M[X1-M(X)]2+…+ M[Xk-M(X)]2. D(X)=M[X-M(X)]2=M(X2)-M2(X) – дисперсия равна разности между МО квадрата СВ и квадратом МО. Свойства дисперсии: 1) D(c)=0. 2) D(cX)=c2D(X). 3) Дисперсия суммы конечного числа взаимонезависимых СВ равна сумме дисперсий этих СВ. D(X+Y+…+Z)=D(X)+D(Y)+…+D(Z). 4) D(X-Y)=D(X)+D(Y).

Среднеквадратическое отклонение СВ (σ) есть корень квадратный из дисперсии этой СВ: σ(Х)=(D(X))1/2. В отличие от среднеквадратического отклонение выражается в тех же единицах измерения, что и СВ.

Характеристики более высокого порядка. Через эти характеристики изучается форма распределения кривой (асимметрия – сдвиг вершины либо вправо, либо влево; островершинность – сдвиг вершины либо вверх, либо вниз). Начальным моментом k-го порядка называется МО СВ Хk: νk=M(Xk). Центральным моментом k-го порядка СВ Х называется МО СВ [X-M(X)]k: μk=M[X-M(X)]k. Связь между центральными и начальными моментами. ν00=1, ν1=М(Х), μ1=М(Х-М(Х)), μ2=D(X)=ν212, μ33-3ν2ν1+2ν13, μ44-4ν1ν3+6ν12ν2-3ν14. Коэффициент асимметрии AS33. Коэффициент эксцесса Ех44.

Теоремы Чебышева. 1) Если х1, … xn попарно независимые СВ, имеющие одно и то же МО а и если дисперсии этих величин равномерно ограничены, то для любого ε>0 limn→∞P(!(x1+…+xn)/n-a!<ε)=1 – достаточное событие. 2) Если х1, … xn попарно независимые СВ, причём дисперсии их равномерно ограничены, то как бы мало ни было ε>0 limn→∞P(!(х1+…+xn)/n-(M(x1)+…+M(xn))/n!<ε)=1 – достоверное событие. Сущность теоремы такова: хотя отдельные независимые СВ могут принимать значения, далёкие от своих МО, среднее арифметическое достаточно большого числа СВ с большой вероятностью принимает значения, близкие к определённому постоянному числу (к а или к (M(x1)+…+M(xn))/n).

Теорема Бернулли. Если в каждом из n независимых испытаний вероятность р появления события А постоянна, то как угодно близка к 1 вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико. limn→∞P(!m/n-p!<ε)=1. Теорема Бернулли утверждает, что при n→∞ относительная частота → по вероятности к р.

Функция распределения вероятностей СВ. Если ДСВ можно задать законом распределения, то НСВ в силу бесконечного набора значений, так задать нельзя. Для задания НСВ вводится функция распределения вероятностей СВ. Пусть х – действительное число. Вероятность события, состоящего в том, что Х примет значений, меньшее х, обозначим через F(х). Если х изменяется, то и F изменяется, т.е. F(x) является функцией от х. Функция распределения вероятностей СВ – функция F(x), определяющая вероятность того, что СВ Х в результате испытания примет значение меньшее х. F(x)=p(X<x), F(x) – интегральная функция. Свойства функции распределения: 1) F(x)€[0;1]. 2) неубывающая, т.е. если x2>x1 => F(x2)>=F(x1). Следствие 1. P(a<=X<=b)=F(b)-F(a). Следствие 2. Вероятность того, что НСВ примет одно определённое значение, равна 0. 3) Если возможные значения СВ € интервалу (a;b), то F(x)=0 при x<=a и F(x)=1 при x>=b. График функции распределения.

НСВ – СВ, возможное значение которых заполняют конечный или бесконечный интервал. Вне зависимости от того, ДСВ или НСВ, функция распределения имеет вид: F(x)=P(X<x). Для НСВ функция распеределения F(x)=∑XkPk. Та СВ, для которой можно определить неотрицательную функцию распределения F(x)>0 такую, что F(x)=∫-∞xf(y)dy, называется НСВ. Функция f(x) называется плотностью распределения СВ или дифференциальной функцией распределения. Свойства функции распределения: 1) F(x)€[0;1]. 2) F(x) – неубывающая, P(x1<=X<=x2)=F(x2)-F(x1)(1). 3) F(-∞)=0, F(+∞)=1.

Законы распределения НСВ. Равномерный закон распределения, если плотность НСВ постоянна на отрезке [a;b], а вне этого отрезка равна 0. f(x)={1/(b-a), x€[a;b]; 0, x не€ [a;b]. X~R[a;b] – НСВ распределена равномерно. График плотности равномерно распределенной СВ. F(x)={(x-a)/(b-a), x€[a;b]; 0, x не€[a;b]. MX=(a+b)/2. DX=(b-a)2/12. P{c<X<d}=(d-c)/(b-a). К СВ, имеющим равномерный закон распределения, относятся время ожидания транспорта, очередь, т.е. это СВ, которые имеют одинаковую вероятность (плотность) и лежат внутри некоторого интервала.

Плотность распределения. Для НСВ интегральная функция распределения определяется через плотность распределения F(x)=∫-∞xf(y)dy. Плотность распределения можно интерпретировать следующим образом: f(x)=limx→0(P(x<=X<=x+∆x)/∆x). Согласно формуле (1) f(x)=limx→0(F(x+∆x)-F(x)/∆x)=F’(x) => f(x)=F’(x). Плотность распределения (дифференциальная функция) – первая производная (если она существует) от функции распределения. f(x)>=0 (т.к. является производной от неубывающей функции).

Вероятностный смысл дифференциальной функции. Из дифференциального исчисления известно, что при достаточно малых ∆х F(x+∆x)-F(x)=f(x)∆x. Вероятностная интерпретация состоит в том, что СВ, принимающая значение, принадлежащее интервалу (х;х+∆х) с некоторой вероятностью, приблизительно равна произведению плотности распределения некоторой точки х€(х;х+∆х) на длину этого интервала. Теорема. Вероятность того, что НСВ принимает значение из интервала (х12) равна интегралу от плотности распределения на этом интервале P(x1<X<x2)=∫x1x2f(x)dx. Свойства плотности распределения. 1) f(x)>=0. 2) ∫-∞+∞f(x)dx=1. В общем случае дифференциальная функция распределения разрывна, но существуют функции, которые не являются разрывными, например, нормальный закон распределения НСВ (закон Гаусса).

Характеристики НСВ. 1) МО MX=∫-∞+∞xf(x)dx. 2) Дисперсия DX=∫-∞+∞[x-MX]2f(x)dx. Для расчетов используется упрощенная формула DX=∫-∞+∞x2f(x)dx-(MX)2. 3) Среднее квадратическое отклонение σX=√DX.

Показательный закон распределения. f(x)={λex, x>=0; 0, x<0, λ – параметр распределения. f(x)={1-ex, x>=0; 0, x<0. MX=σX=1/λ, DX=1/λ2. P{a<=X<=b}=ea-eb. Показательный закон распределения – единственный закон, который обладает свойством отсутствия последействия, т.е. если промежуток времени Т уже длился некоторое время τ, то показательный закон распределения остаётся таким же для оставшегося промежутка (Т-τ).

Нормальный закон распределения или закон Гаусса. При определённых условиях к нему приближаются все остальные законы распределения НСВ. f(x)=(1/σ√2π)e-!x-a!2/2σ2, x€R, X~N(a;σ). F(x)=∫-∞xf(t)dt=∫-∞x(1/σ√2π)e-!t-a!2/2σ2dt. a=0, σ=1 => нормальный закон называется стандартным. Плотность стандартной величины φ(x)=(1√2π)e-x2/2, Ф(x)=1/√2π∫-∞xe-t2/2dt – функция Лапласа. MX=a, DX=σ2. График плотности распределения. 1) φ(x)>0. 2) ось ох – асимптота (не пересекает). 3) Максимум в точке а=1/σ√2π. 4) Симметрия относительно оси х=а. Данная кривая называется нормальной кривой или кривой Гаусса. Площадь, ограниченная кривой распределения, равна 1. С возрастанием σ кривая становится более пологой и растягивается вдоль оси ох (S=const). Нормальному закону подчиняются ошибки измерений, величины износа деталей, рост человека, колебания акций. P{α<X<β}=Ф((β-a)/σ)-Ф((α-a)/σ).

Правило трёх σ. На практике часто приходится определять попадание СВ в интервал, симметричный относительно центра распределения а. (a-l;a+l), длина интервала 2l. P{a-l<X<a+l}=P{!x-a!<l}=Ф(a+l-a/σ)-Ф(a-l-a/σ)=2Ф(l/σ), l=3σ, P{!x-a!}<3σ. 2Ф(l/σ)=2Ф(3σ/σ)=2Ф(3)=2*0,4986=0,9973. P{!x-a!}<3σ=0,9973. Практически достоверно, что СВ принимает значение (a-3σ;a+3σ).

Понятие о системе СВ. При изучении СВ часто приходится сталкиваться с задачами, в которых результат опыта описан не одной, а несколькими СВ, образующими комплекс или систему. Упорядоченный набор (Х1, Х2 …, Хn) CB Xi, где i€(1;n), называется n-мерной СВ или системой. Упорядоченная пара чисел (Х;Y) называется двумерной СВ. Можно пользоваться геометрической интерпретацией системы (случайная точка на плоскости оху). Системы СВ могут быть непрерывными, дискретными и смешанными. Полной характеристикой системы является закон её распределения. Pij=P{X=Xi;Y=Yj}, ∑i=1nj=1mPij=1. Зная закон распределения двумерной СВ можно определить закон распределения составляющих компонент.

Функция распределения двумерной СВ. Функция распределения является универсальной формой задания распределения двумерной СВ (она же интегральная). Функция распределения системы СВ (Х;Y) – вероятность совместного выполнения двух условий: X<x, Y<y. F(X;Y)=P{X<x;Y<y}. Геометрически это интерпретируется как вероятность попадания случайной точки в бесконечный квадрат с вершиной в т.(X;Y).

Свойства функции распределения двумерной СВ. 1) Ограничена [0;1]. 2) Не убывает по каждому из своих аргументов при фиксированном другом F(X2;Y)>=F(X1;Y), X2>X1. 3) Если хотя бы один из аргументов обращается в -∞, то функция распределения равна 0 F(X;-∞)=F(-∞;X)=F(-∞;-∞)=0. 4) Если оба аргумента обращаются в +∞, то функция распределения равна 1 F(+∞;+∞)=1. 5) Если один из аргументов обращается в +∞, то функция распределения СВ становится соответствующей другому аргументу F(X;+∞)=F1(X); F(+∞;Y)=F2(Y). 6) F(X;Y) непрерывна слева по каждому из своих аргументов limxx0-0F(X;Y)=F(X0;Y0), limyy0-0F(X;Y)=F2(Y).

Плотность распределения вероятностей двумерной СВ – вторая смешанная производная от функции распределения f(x;y)=∂2F(X;Y)/∂x∂y=F”xy(X;Y). Плотность распределения есть предел отношения вероятности попадания случайной точки (X;Y) в элементарный прямоугольник со сторонами ∆х и ∆у, примыкающий к точке (X;Y), к площади этого прямоугольника, когда ∆х, ∆у→0. Геометрически плотность распределения системы двух СВ представляет собой некоторую поверхность распределения. Свойства плотности распределения вероятностей. 1) f(x;y)>=0. 2) Вероятность попадания случайной точки (X;Y) в область D вычисляется по формуле P{(X;Y)€D}=∫∫Df(x;y)dxdy. 3) F(X;Y)=∫-∞x-∞yf(x;y)dxdy. 4) ∫-∞+∞-∞+∞f(x;y)dxdy=1. 5) Плотность распределения одномерных составляющий ∫-∞+∞f(x;y)dy=f(x), ∫-∞+∞f(x;y)dx=f(y).

Зависимость и независимость двух СВ. Независимые СВ, если закон распределения каждой из них не зависит от того, какие значения принимает другая. В противном случае они называются зависимыми. Независимые, когда независимыми событиями являются X;Y. Условие независимости. Теорема. Для того, чтобы СВ X, Y были независимыми, необходимо и достаточно, чтобы функция распределения системы была равна произведению функций составляющих F(X;Y)=F1(X)F2(Y). Необходимое и достаточное условие независимости двух НСВ, образующих систему f(x;y)=f1(x)f2(y). Необходимое и достаточное условие независимости двух ДСВ, образующих систему P{X=Xi;Y=Yi}=P{X=Xi}P{Y=Yi}. Понятие независимости несколько отличается от понятия зависимости в математике. Здесь используется вероятностный принцип зависимости величин (нельзя точно указать значение Y, можно только указать закон её распределения). Часто эта зависимость задаётся эмпирической формулой.

Законы распределения. Двумерное нормальное распределение. Двумерная СВ называется распределённой по нормальному закону, если совместная плотность распределения имеет вид: f(x;y)=(1/2πσxσy√(1-r2))e(-1/2(1-r2))[(x-mx)2/σx2-2r(x-mx)(y-myxσy+(y-my)2/σy2], где mx, my, σx, σy, r – параметры. Это двумерное нормальное распределение, или распределение на плотности, т.е. функция плотности определяется заданием числовых характеристик, которые можно определить на практике. График плотности имеет вид… f1(x)=(1/σ√2π)e-(x-mx)2/2σx2 – кривая Гаусса. Если сделать сечение, параллельными плоскостями оху, то проекцией окажется эллипс, который называется эллипсом рассеяния. (mx;my) – центр эллипса. После приведения к каноническому виду, уравнение эллипса имеет вид: (x-mx)2/(hσx)2-(y-my)2/(hσy)2=1, h2=-2(1-r2)ln(2πz0σxσy√(1-r2)), z0=be-a(x-mx)2. Если СВ независимы, то вероятность попадания точки (X;Y), распределённой по нормальному закону R={a<=X<=b,c<=Y<=d}, равна P{a<=X<=b,c<=Y<=d}=(Ф0((b-mx)/σx)-Ф0((a-mx)/σx))*(Ф0((c-my)/σy)-Ф0((d-my)/σy)), Ф0 – функция Лапласа.

Корреляционный момент. Особую роль играет центральный момент 2го порядка: μk,s=M(X-mx)(Y-my)=MX°Y° называемый корреляционным моментом или моментом связи. Корреляционный момент или ковариация двух СВ (X;Y) – МО произведения отклонения этих СВ от их МО: Kxy=cov(X;Y)=M[(X-mx)(Y-my)]=MX°Y°. Если (X;Y) ДСВ, то Kxy=∑i=1nj=1m(X-mx)(Y-my)Pij. Если (X;Y) НСВ, то Kxy=∫-∞+∞-∞+∞(X-mx)(Y-my)f(x;y)dxdy. Однако ковариацию легче вычислять через МО: Kxy=MXY-MX*MY. Свойства ковариации. 1) Симметрична Kxy=Kyx. 2) Дисперсия СВ есть ковариация её самой Kyy=DY. 3) Если СВ независимы, то Kxy=0. 4) Дисперсия суммы и разности двух СВ равна D(X±Y)=DX+DY±2Kxy. 5) Постоянный множитель можно выносить за знак ковариации Kcxy=CKxy. 6) Ковариация не изменится, если к одной из СВ или к обеим сразу прибавить постоянную Kx+c,y=Kxy=Kx,y+c=Kx+c,y+c. 7) Не превосходит по модулю произведение средних квадратических отклонений !Kxy!<=σxσy. СВ, для которых корреляция не равна 0, называют коррелированными. В противном случае – некоррелированными. Ковариация характеризует степень зависимости СВ и их рассеяние вокруг точки с координатами (mx;my). Размерность ковариации равна произведению размерностей СВ X, Y.

Соседние файлы в папке шпоргалка