Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Еще шпаргалка по теории вероятности.doc
Скачиваний:
160
Добавлен:
01.05.2014
Размер:
1.85 Mб
Скачать
  1. Классическое и геометрическое определение вероятности. Примеры. Вложение этих определений в аксиоматику Колмогорова.

(1) Частотное определение вероятности. Возмем симметричную монету и подсчитаем частоту выпадения решки.

m/np-частота

m– число выпадений решки,n– число испытаний.

повторяем много раз и считаем частоту, то вероятность будетp.

Частота приближается к вероятности.

Это определение историческое.

(2) Классическое определение вероятности.

Пусть существует n– конечное число одинаковых элементарных исходов и пусть с этим опытом связано событие А, которому соответсвуетmизnэлементарных исходов, тогда за вероятность события А: принимаютp(A)=m/n

Пример:

Пусть бросается монета 1 раз.

Исходы: орел, решка.

P(Орла)=1/2 ,P(Решки)=1/2

Пусть бросают монету два раза

Исходы: орел – 0 00, 01, 10, 11

решка –1

p(исхода)=¼

Найти вероятность того, что сумма была четная (00, 11) p=½

p(Am) – бросаем монетуmраз

Am– событие, что выпалоmединиц.

Минусы этого определения:

  1. Оно требует симметрию (наличие равновероятных исходов). Это достаточно сложно.

  2. Наличие конечного числа событий.

  1. Дискретное вероятностное пространство

Пусть существует конечное или счетное множество элементарных событий и для каждого события определяется вероятностиpiдля каждого элементарного события.

(,pi,i=1,2…) – эта пара определяет вероятностное пространство.

pi=p(i)i

Событие – множество элементарных событий – А, тогда p(A)=p(i)

Дискретное определение включает классическое определение pi=1/n1<i<mp(A)=m/n

Минусы:

1) Не всегда известны pi

2) Оно не всегда всеобщее (бывает не счетное множество)

(4) Существует геометрическая вероятность.

Пусть есть задача, так что удается описать множеством точек в пространстве или на прямой. Каждому событию Асопоставить подмножество точек в множестве точек

 площади

Задача о встрече.

Молодой человек и девушка договорились встретиться в 12ч. Каждый может придти от 12 до 13 ч. Договорились ждать 20 минут. Какова вероятность, что они встретятся.

|x-y|<1/3

Эту площадь надо сосчитать

1-4/9=5/9

  1. Парадоксы Бертрана их объяснение

Пусть существует круг, в котором выбирается хорда случайным образом, требуется найти вероятность, чтобы длина хорды была > стороны вписанного равностороннего треугольника.

З решения задачи дают разные ответы.

1 решение:

Т.к. круг симметричная фигура, следовательно, можно рассмотреть хорду перпендикулярную диаметру, каждая такая хорда определяется точкой на диаметре.

Поэтому - диаметр. Длиной 2R.

Рассмотрим точки хорд.

В этих точках длина хорды будет > стороны треугольника.

Это будет 2 радиуса вписанной окружности 2r.

R=2r

P(A)=r/R=½

2 решение:

Т.к. круг симметричная фигура следовательно можно рассмотреть такие хорды один из концов которых находится в одной точке, проведем к ней касательную. - это угол между хордой и касательной.

Нас устраивают только те хорды, которые лежат внутри

треугольника.

P(A)=60/180=1/3

3 решение:

Каждая хорда определяется координатой середины поэтому в качестве - исходный круг.

Т.е. хорды, которые лежат внутри окружности, вписанной в круг.

P(A)=1/4

Если пользоваться геометрической вероятностью, то результат может быть неверным.

  1. Аксиоматика Колмогорова.

1) Основой является вероятностное пространство. (,F,P)

 - некое множество произвольной формы, множество элементарных событий.

В качестве событий рассматривается подмножество множества :A<, но рассматриваются не все подмножества, а только какая-то совокупность их.

F– совокупность всех событий. Требуется, чтобы:

F– было бы- алгеброй т.е.

  1. Если А является событием АF, то и дополнениетоже является событием

  2. F

  3. Если есть последовательность событий. А1, А2, … АnF, то их объединение тожеF

При этих условиях на множестве всех событий задаем функцию P(A),AF, она обладает свойствами:

  1. P(A) – неотрицательной (P(A)>=0)

  2. P() =1

  3. Если есть последовательность событий, которые попарно не пересекаются.

A1,A2,…AnAj=0, то P(Ai)=P(Ai).

Тогда эта тройка называется вероятностным пространством.

Действия над событиями.

1) AВ (сумма событий)

А+В – это событие которое заключается в том, что произошло событие А или В или они произошли одновременно.

2) АВ=АВ (произведение событий)

Состоит в том, что эти события произошли одновременно.

3) Дополнение события А, состоит в том, что событие А не произошло.

4) АB(А входит в В): если произошло событие А, то произошло и В.

5) А1,…,An– набор событий,A=Ai–A произошло, если хотя бы одно изAi произошло.

Основные свойства вероятности.

  1. Пустое множество 0FиP(0)=0 т.к.F, а пустое множество можно рассматривать как дополнение.

00=0

P(0P(0)P(

  1. Если AВ, тогдаP(A)<P(B)

Доказательство:

В=(В\А)А, (В\А) и А не пересекаются, тогдаP(В)=P(В\А)+P(А)>P(A) т.к.P>0

  1. Вероятность любого события 0<P(A)<1

Ap(A) <1 т.к.p()=1, подставим во второе свойство вместоB-.

  1. Условная вероятность. Независимость событий. Примеры.

Условная вероятность:

Хотим определить А при условии, что произошло событие В.

P(B)0

Пусть есть и есть события В и А

И мы узнали, что В произошло, у нас изменилось вероятностное пространство, теперь рассмотрим В, оно играет роль . Рассмотрим не А, а пересечение А с В.

Мера вероятности A– вероятность произведенияAB, но надо нормировать поB.

Теорема умножения вероятностей:

Р(AB)=P(A/B)P(B)

Пример:Вероятность рождения девочки и вероятность рождения мальчика ½. Рассмотрим семьи с двумя детьми. Известно, что в некоторой семье один мальчик, найти вероятность того, что второй ребенок, тоже мальчик.

мммддмдд

P=¼ ¼ ¼ ¼

Нас устраивает, когда в семье есть 1 мальчик, тогда нас устраивают подчеркнутые сочетания.

Переходим в другое вероятностное пространство, у нас три события, => вероятность второго мальчика составляет 1/3

P(м м/один м)=¼/¾=1/3

Обобщим теорему вероятностей:

P(ABC)=P(A/BC)P(BC)=P(A/BC)P(B/C)P(C)

Независимость событий:

Событие Aне зависит от В, если

P(A/B)=P(A) (вероятность А не изменяется), значит

P(AB)=P(A)P(B),P(B)0

Если бы мы рассматривали независимо В от А, то мы бы получили, что P(AB)=P(A)P(B), Р(А)0, но событие вероятности 0 не зависит от другого события =>

P(AB)=P(A)P(B) – определение независимости 2-х событий.

Пример:1) Пусть существуют 36 карт. А – мы выбираем туза, В – мы выбираем красную карту.

А и В независимы.

Р(А)=4/36=1/9

P(B)=½

P(AB)=2/36=1/18– вероятность выбрать красного туза

P(AB)=P(A)P(B)

Пусть колода не полна, т.е. одну карту отбросили, то независимость нарушается.

Определение:

А1, А2, … Аnнезависимые события, если:

  1. P(AiAj)=P(Ai)P(Aj)ij

  2. P(AiAjAk)=P(Ai)P(Aj)P(Ak)ijk

Должно выполнять при всех наборах из последовательности Аi.

  1. Попарная независимость.

  2. Взаимная независимость событий.

Пример:Тетраэдр, у него одна сторона красная, другая черная, третья белая, а четвертая во все цвета.

A – красный P(A)=P(B)=P(C)=½

B– черный

С – белый P(AB)=P(AC)=P(BC)=¼

P(ABC)=¼

Взаимной независимости нет, хотя попарная есть.

  1. Формулы полной вероятности и Байеса. Интерпретация формулы Байеса.

Формула полной вероятности:

Пусть существуют события H1,H2, …Hnи событие А, которое обладает сойствами.

  1. HiHj=0, Hi – рассекает А

  2. A<iHi

Набор клеточек иллюстрирует нашу ситуацию.

Формула полной вероятности:

P(A)=ni=1P(A/Hi)P(Hi)

Если H– это квадрат, тоP(Hi) – это разбиение квадрата,Hi=- набор событий образует полную группу событий.

Доказательство:

Пример:

Пусть существует 3 завода, которые выпускают телевизоры одной марки.

Завод

1

2

3

Доля продукции

¼

¼

½

Процент брака

1

2

3

Какова вероятность бракованного телевизора?

Нi– событие, что купили телевизор наi-том заводе.

P(A/H1)=0,01

P(A/H2)=0,02

P(A/H3)=0,03

P(A)=0,01¼ +0,02¼+0,03½ =0,0225

Пример:Существует 28 костей, должны выбрать 2 кости, какова вероятность того, что их можно составить.

H1– первая кость есть дупль.

H2=H1

P(H1)=7/28

P(H2)=¾

P(A\H1)=6/27

P(A\H2)=12/27

P(A)=¼6/27+¾12/27=42/108=7/18

Формула Байеса:

Пусть существует полная группа событий с известными вероятностями: H1,H2,…Hn.

P(Hi) – априорные вероятности.

Потом происходит эксперимент и наблюдается событие А.

А P(Hi/A) – апостериорные вероятности.

Как из априорной получить апостериорную.

- формула Байеса.

Пример:

Купили телевизор и он бракованный, определить вероятность, на каком заводе произведен.

P(H2/A)=2/9

P(H3/A)=2/3

  1. Задача о рассеянной секретарше. Формула Сложения вероятностей.

Теорема сложения вероятностей.

Пусть существует 2 произвольных события А и В, то

P(AВ)=P(A)+P(B)-P(AB) (4)

Доказательство:

P(A)=P(A\B)+P(AB) (1)

P(B)=P(B\A)+P(AB) (2)

P(AВ)=P(A\B)+P(B\A)+P(AB) (3)

Т.к. все 3 множества не пересекаются, то подставим в (3) (1) и (2), и получим (4)

Следствие 1:

P(AВ)<P(A)+P(B), т.к.p>0 и в (4) мы вычитаем, по индукции оно распространяется на любое число событий.

P(Ai)<P(Ai)

Теорема может быть распространена на любое количество событий.

Следствие 2:

Пусть существует A1,A2, …An– события, тогда

P(n1Ai)=ni=1P(Ai)-nijP(AiAj)+nijkP(AiAjAk)+…+(-1)n+1P(A1A2An)

Можно доказать методом математической индукции.

Докажем для случая трех слагаемых:

P(A1A2A3)=P(A1А2)+P(A3)-P((A1А2)A3)=P(A1)+P(А2)+P(A3)-P(A1A2)-P(A1A3)-P(A2A3)+ P(A1A2A3)

Непрерывность вероятностей

Счетное объединение событий – событие и пересечение событий есть событие. Для этого покажем, что

А F=>АF– пересечение множеств изFесть множество изF

5а) Пусть существует возрастающая последовательность событий, т.е. для любого nAn<An+1

An– возрастающая последовательность.

И пусть A=An=>P(A)=limn->P(An)

5б) Пусть существует убывающая последовательность событий, т.е. для любого nBn>Bn+1

n– убывающая последовательность.

И пусть B=n=>P(B)=limn->P(Bn)

Покажем, что 5aсходиться к 5б

Пусть 5a- справедливо, тогда 1-P(A)=limn->(1-P(An)),P(A)=limn->P(An)

=An(по формуле де Моргана)

тогда P(An)=limn->P(An), т.к.An– произвольно иAnвозрастает, тоAnубывает

Вn=Anи получимP(Bn)=limn->P(Bn)

Поэтому достаточно доказать только одно 5aили 5б.

Доказательство:

Представим А как:

А=А1(А2\A1)(А3\A2)… (Аn+1\An)

Все эти слагаемые не пересекаются.

P(A)=P(A1)+P(А2\A1)+…+P(Аn+1\An)

Пусть А0– пустое множество

P(A)=

  1. Схема Бернулли, полиномиальная схема. Примеры.

Бросается монета nраз, и интересуются количеством выпадения герба -p, и выпадения решки –q.

n– независимых испытаний с двумя исходами. В любом испытании эти исходы называются успехом – У, другой неудачей – Н.

Р(У)=р

P(H)=q=1-p

Независимые испытания У1, У2, … Уn

У – 1, H– 0 => Элементарные исходы

Результат: Последовательность из 0 и 1. =(1,…,n)

P()=pmqn-m,

где m– количество 1;n-m– количество 0.

Надо, чтобы сумма таких вероятностей равнялась 1:

P()=

Pn(m)=Cnmpmqn-m– формула Бернулли (mуспехов изnиспытаний).

Смысл Cnm: сколькими способами можно разбить группу изnэлементов на 2 подгруппы изmиn-mэлементов.

В качестве примера – бросание монеты (необязательно симметричной)

Определить, в каком случае эта функция возрастает, а в каком убывает?

Для этого - возрастает

Т.е.

np-mp>mq+q

np>m(p+q)+q

np>m+q

m<np-1+p=(n+1)p-1

до тех пор пока m<(n+1)p-1 – функция возрастает, иначе убывает.

Если рисовать график этого соотношения, то

Pn(m)

1 2 3 n

Даже в точке максимума pn(m)0, т.к. график растянутый.

Пример: блуждание по прямой.

Пусть существует прямая линия, на которой целые числа. Пусть некий подвыпивший человек блуждает в округе точке 0. С вероятностью ½ - влево или вправо. Какова вероятность, что он вернется в точку 0, через nшагов.

У – шаг вправо

Н – шаг влево

Чтобы он вернулся У=Н т.е. nдолжно быть четным числом.

N=2k;p=q=½ всего испытаний 2kи былоkуспехов.

P2k(k)=C2kk/22k

Схема Бернулли ограничена:

Если мы бросаем игральную кость у нас 6 вариантов, а не 2 исхода.

Когда количество не 2, а k.

Пусть существует n– независимых испытаний сkисходами, вероятности каждого исхода:p1,p2,…,pk;ki=1pi=1.

Будем интересоваться Pn(n1,n2,…,nk), гдеn1+n2+…+nk=nвероятность того, что в результатеnиспытаний появятсяn1исходов первого типа,n2– исходов второго типа и т.д.nk

Она вычисляется:

Pn(n1,n2,…,nk)=Cnn1,n2…*p1n1*…*pknk

Сnn1…nk=n!/n1!n2!… приn=2 получается формула Бернулли

Смысл Сnn1…nk: сколькими способами множество изnэлементов можно разбить наkчастей, т.о., чтобы в первой группе былоn1элементов, во второйn2элементов, вk–nk.

Биномиальная схема – Бернулли

Полиномиальная схема – для k>2.

Пример:

Блуждание по плоскости.

Пусть имеется на плоскости целочисленные точки.

Некоторая частица путешествует по ним. Она сдвигается в различных направлениях (С,Ю,З,В) cравной вероятностьюp=¼ .Cкакой веростностью частица вернется в исходную точку.

Она должна вернуться по х и по у. Т.е. С=Ю, З=В. n– четное число=2k

= (C2kk/22k)2- можно вычислить это выражение следующим образом:

Повернем оси координат на 45ои будем рассматривать проекции координат частицы на новые оси, тут шаг будет1/2. Чтобы частица вернулась, надо чтобы она вернулась и по проекциям.

Вероятность попадания в точку Х = ¼ т.е. проекция тоже блуждает по осям. Вероятность сдвинуться вправо или вверх равна произведению вероятностей, т.е. они независимы. Тогда вероятность возвращения в начало координат.

P(A)=(C2kk/22k)2

  1. Теорема Пуассона.

Пусть мы имеем не 1 испытание Бернулли, а серию испытаний Бернулли. Первая серия состоит из 1 испытания – вероятность успеха p1, вторая серия из 2-х –p2,…

И пусть р зависит от n.

E11 p1

E12 E22 p2

E1n E2n … E2n pn

np=(либо стремится, либо равно), тогда

|Pn(m)|0 (n∞)

т.е. в качестве приближенного значения можно взять.

Серия схем Бернулли берется для того, чтобы pне было постоянным. Вероятность успеха очень мала, поэтому называют законом редких событий.

Доказательство:

Pn(m)=CnmPmqn-m=

При доказательстве будет, для простоты, считать np=,m– фиксированное.

Т.к. n=>n0, поэтому знаменатель1

- эта формула получается когдаp– мало, а количество успеховm– фиксировано.

  1. Локальная и интегральная теорема Муавра Лапласа.

  1. Локальная теорема Муавра-Лапласа

Рассматривается величина x=xm,n(зависит отmиn).

p– фиксированное число и не зависит отmиn,mиnменяются таким образом, чтобыxn,mбыла ограничена |xn,m|<C. В этом случае справедливо соотношение.

Это означает, что в качестве приближения для Pn(m) надо брать знаменатель этого выражения.

P должно быть маленьким, n – большим.

Когда практически применяется 1 и 2 теорема – это зависит от pn(m). 1 – когдаnpне превосходит 4-х чисел, а вторая когда превосходит 5.

Доказательство:

Формула Стирлинга: n! =nne-2n(1+0(1))

Если мы перенесем знаменатель в числитель, то сравним.

будем применять формулу Стирлинга кm,nиn-mнадо доказать, чтоn-m,m.

Представим m-np=xnpq

  1. m=np+xnpq, т.кp,q– фиксированы, х – ограничена,n

  2. n-m=nq-xnpq, т.кp,q– фиксированы, х – ограничена,n

Т.е. мы применяем формулу Стирлинга к mиn-m

Рассмотрим выражение:

все что касается n, перенесем в знаменатель. Разделим все наnm

учитывая (1) и (2) получим:

возьмемln:

ln()=по формуле Тейлора разложимln:

==

==

т.е. получим, что выражение ~ч.т.д.

2) Интегральная теорема Муавра-Лапласа

x=

n,p,q– фиксированные числа.

Тогда

P(<x)Ф(х) – функция Лапласа

Ф(х)= - значение функции в специальной таблице.

Интегральная теорема Муавра-Лапласа применяется тогда, когда мы можем интегрировать вероятность того, что вероятность находится в интеграле.

P(a<m<b). Поэтому мы можем легко свести ее к интегральной теореме Муавра-Лапласа.

P(a<m<b)=

Чтобы найти подобную вероятность, надо подсчитать величины.

ии по таблице определить значение вероятности.

  1. Случайные величины их распределения. Свойства функции распределения.

Вероятностное пространство: (,F,P)

Случайная величина:

X=X(),- измеримая на.X- случайная величина, она зависит от случая.

F– Сигма-алгебра событий.B– Сигма-алгебра Борелевских множеств, которая индуцирована интервалами. Рассматриваются интервалы и рассматривается сигма-алгебра в которую входят все интервалы.

Измеримость – X-1(B)F,BВ

Чтобы мы могли это вычислить P(XВ)=P(X-1(B)) т.к. вероятность задана наF.

Способы описания случайных величин.

q(B)=P(XB)=P(X-1(B)) – она задает какую-то меру на вещественной прямой.

q(B) – вероятностная мера.

Если B1B2=0, тогдаq(B1B2)=q(B1)+q(B2)

q(B1B2)=P(XB1B2)=P(X-1(B1B2))=P(X-1(B1)X-1(B2))=P(X-1(B1))+P(X-1(B2))= =P(XB1)+P(XB2)=q(B1)+q(B2)

q(B) – называется распределением случайной величины, т.е. при отображенииXв вещественную прямую получаем распределение.

Т.к. распределение достаточно сложно, то вводят другие величины.

Функция распределения случайной величины:

F(x)=P(X<x)=q((-,x)), вероятность того, что случайная величина <xили распределение от -до х.

Функция распределения однозначно определяет q, т.к.

q([a,b))=q((-,b))-q((-,a))

q((-,b))=q((-,a))+q([a,b)) – эти два множества не пересекаются.

Это означает, что если P(X[a,b))=F(b)-F(a), мы может найтиqот объединения интервалов, т.е.F(x) однозначно определяетq.

Свойства функции распределения:

  1. 0<F(x)<1

  2. F(x) – не убывает – это следует изP(X[a,b))=F(b)-F(a), т.е. еслиb>a, тоF(b)>F(a), т.к.F(b)=F(a)+P(X[a,b))>F(a),P(X[a,b))>0.

Доказательство:

Достаточно доказать, что для любой последовательностиxn

Пусть такая последовательность задана (возрастающая), введем события Аnтакие что Аn={:X(<xn}.

An– возрастает, каждое следующее событие содержит предыдущее.

Обозначим А=nAn={:}=- это есть множество всех, поэтому P(A)=1, тогдаP(An)1 приn=>F(Xn)1.

Доказательство:

Доказать, что

Точно такое же, но используется вторая формулировка непрерывности вероятности.

Пусть задана убывающая последовательность: xn-, введем события Аnтакие что Аn={:X(>xn}.An– убывает.

Обозначим А=nAn все Аn происходят одновременно, поэтому А=nAn=0 P(A)=0, тогдаP(An)0приn=>F(Xn)0.

  1. Функция распределения непрерывна слева.

F(x) – непрерывна слева, т.е.xвозрастает и сходится кx0, тогдаFбудет сходитьсяF(x0):

F(x)F(x0).

Введем те же самые Аnи предположим, чтоxnx0.A=nAn– формула непрерывности вероятности, тогдаP(An)P(A) =>F(xn)F(x)

An={x<xn},axnx0, тогдаA={:nx()<xn}={:X(x}, поэтомуP(A)=F(x).

Замечание:

  1. Эти 5 свойств – это есть полный набор свойств F(x) в том смысле, что еслифункцияF, которая удовлетворяет этим 5 свойствам, то можно найти такую случайную величину, для которой эта функция будет функцией распределения. Т.о. если нужно узнать является лиFфункцией распределения, достаточно проверить эти 5 свойств, и если хотя бы одно свойство нарушается, тоFне является функцией распределения.

  2. Принимается такое определение функции распределения: F(x)=P(X<x) – при таком определении все свойства сохраняются, кроме 5, оно заменяется на свойство о непрерывности справа.

  1. Свойства одномерных и многомерных плотностей распределения.

Одномерные плотности распределения:

1) Мы говорим, что случайная величина Xотносится к дискретному типу (или имеет дискретное распределение), если она принимает конечное или счетное число значений. Это означает, что существует такой набор цифрx1,x2, …,xn. т.ч..

В этом случае, если значение Xзанумеровать, то мы может расписать характеристикуpk=P(X=xk). Набор однозначно определяет распределение. Можно задать таблицу.

x1

x2

xn

p1

p2

pn

Эта таблица означает, что мы задаем функцию p(x), гдеxравно одному изxn.

Условно назовем p(x) – дискретной плотностью распределения.

F(x)=P(X<x)=xi<xP(x=xi)=xi<xp(xi).

С другой стороны p(xi) – это скачки функции распределения:p(x)=F(x+)-F(x) – это приращение или скачокфункции в точкеx.

2) Непрерывные случайные величины (абсолютно непрерывные).

Это означает, что X– абсолютно непрерывная или непрерывна относительно линии Лимберга, еслиP(XА)=0 для любого А:(A)=0 – множество мер.

Если мера абсолютно непрерывна относительно меры Лимберга, то существует такая функция p(x) – плотность распределения, чтоp(xA)=p(x)dx. Непрерывнойxназывается такая величина, которая имеет плотность распределения:

F(x)=P(X(-,x))=(1)

p(x) – такая функция для которой выполняется условие (1)

Если р – будет непрерывная функция, то F(x) будет дифференцируема, тогдаF`(x)=p(x)

Свойства плотностей распределения:

1. p(x)>0 – т.к. функцияF(x) не убывает, аp(x)=F`(x)

мы писали, что p(xА)=AP(x)dx, если в качествеAвзять всю вещественную прямую, тогда

Многомерные плотности распределения:

  1. Вектор дискретного типа.

Тогда p(x1,…,xn)=P(X1=x1,…,Xn=xn) – непрерывна на счетном множестве.

Свойства:

  1. p(x1,…,xn)>0

  2. p(x1,…,xn)=1 аналогичны свойствам случайного вектора.

2. Вектор непрерывного типа.

Случайный вектор имеет непрерывное распределение, если p(xА)=0, если мера Лимбела(A)=0, тогда существует такая плотность распределения , что

  1. P(xА)=…p(x1,…,xn)dx1…dxn– эта функция – есть плотность распределения случайного вектора.

Связь с F(x1,…,xn):

(2) F(x1,…,xn)=P(xА)=P(x(-,x1),…,x(-,x1))=p(t1,…,tn)dtn

Если в качестве А можно взять такое множество, то по формуле (1) получим (2).

Связь с p(x1,…,xn):

Это есть смешанная производная: p(x1,…,xn)=(n/(x1…xn))F(x1,…xn)

Свойства:

  1. p(x1,…,x2)>0 – это есть производная отF

  2. …p(x1,…,xn)dx1…dxn=1

Если все агрументы xiустремить к, то тогда пределF(x1…xn)=1

  1. Примеры известных распределений.

  1. В формуле Бернулли m– число успехов

m– это и есть случайная величина. У насэлементов вероятностного пространства={0,1…,0,1}

0 – неудача, 1- успех.

Число успехов m=m() – это и есть случайная величина. Она дискретного типа, т.к. принимает конечное число значений.

Функция распределения F(x)=P(m<x)

В точке 0 – скачок, величина равна p0=p(m=0)=qn, затем скачок в точке 1, величина равнаp1=p(m=1)=Cn1pqn-1и т.д.

Последний скачок будет равен 1 это сумма всех вероятностей.

2. Когда схема Бернулли состоит из 1-го испытания (n=1), тогда случайная величинаxлибо 0, либо 1.

P(x=1)=p

P(x=0)=1-p=q– Бернуллевская случайная величина.

3. Пуассоновская случайная величина, задается с помощью распределения.

P(x=k)=,k=0,1,2…>0 - распределение Пуассона

Вспомним теорему Пуассона.

Pn(k),=np

Биноминальное распределение в пределе становиться Пуассоновским, т.к. p(xn=k)P(У=k)P(У=k) – Пуассоновская случайная величина.

4. Геометрические вероятности.

Берем случайным образом точку х – это есть случайная величина на интервале [0,1], можно рассмотреть вероятностное поле, тогда p(xА)=(A).

P(xА)=(A[0,1])

F(x)=P(X<x)=((-,x)[0,1]), будет записываться по разному, в зависимости от того где находитсяx.

Эта величина имеет плотность распределения P(x)=

Такая случайная величина – равномерная случайная величина, а распределение - стандартное равномерное.

Если точка находится на произвольном интервале [a,b], в этом случаеP(xА)=(A[a,b])/([a,b]),

тогда F(x)=,

тогда

,

P(x)=- Это общее равномерное распределение.

Случайные величины могут задаваться плотностью распределения.

5. Нормальная случайная величина с параметрами a,2:N(a,2) имеет плотность распределения:

p(x)=

Если а=0, 2=1, тоp(x)=

Случайная величина с такой р(х) называется стандартной нормальной случайной величиной.

Вспомним интегральную теорему Муавра-Лапласа:

Мы доказали, что P(<x)Ф(х)=- функция распределения стандартной нормальной случайной величины. Т.е. если мы возьмемxn=, тогдаP(Xn<x)P(Y<x)

Распределение величины Yимеет стандартное нормальное распределение.

6. Пусть существует x1,…,xn– независимые случайные величины.

p(x1)…p(xn) – их плотности, тогдаp(x1,…,xn)=П1npi(xi)

Если представить, что случайные величины имеют равномерное распределение

xi,i<nна [0,1] и независимы, т.е.P(x)={1,x[0,1]; 0,x[0,1]}, тогда случайный вектор будет иметь равномерное распределение вn-мерном кубе.

P(x1,…xn)={1, если всеxi[0,1]; 0, если хотя бы 1xi[0,1]}

  1. Случайные векторы, их распределения. Независимые случайные величины.

Случайные векторы:

X:R1

Случайный вектор X=(x1,x2, …,xn) – векторы из случайных величин, он отображаетRn

Случайный вектор – это есть измеримое отображение Rn

В Rn–другой набор барелевских множествBn, т.е. надо взятьBn, тоX-1(B)F

В R2–B– это прямоугольники, ВR3–B– это параллелепипеды

Распределение в Rn:

Если Bn, тоq()=P(XB)

q(A)=P(XA),AВn– распределение. Посмотрим, что в случае случайных величин, распределение характеризуется функцией распределения:

F(x)=P(X<x) – и для векторов.

Если X=(x1,x2, …,xn), то функция распределения будет функциейnаргументов:

F(x1, x2, … ,xn)=P(X1<x1, …, Xn<xn).

Барелевские множества рассчитываются прямоугольником.

Вероятность попадания случайнойdвеличины в этот прямоугольник.

Функция распределения, тогда для n=2,c(двумерное множество).

ab

Функция распределения - это полубесконечный заштрихованный прямоугольник

P(XS)=F(b,d)-F(b,c)-F(a,d)+F(a,c), по аддитивности вероятности можно сложить также формулы и получитьp.

Само вероятностное пространство не важно для единичной случайной величины.

Для вектора важно распределение этого вектора и не важно вероятностное пространство.

Свойства функции распределения случайного вектора:

  1. F(x1,…,xn)[0,1]

  2. F(x1,…,xn) не убывает по каждому из аргументов. Доказательство такое же как и для случайной величины.

  3. F(x1,…,xn) непрерывно слева по каждому аргументу.

  4. Limxi-F(x1,…,xn)=0 доказательство такое же.

  5. LimxiF(x1,…,xn)=Fx1,…,xi-1,xi+1,…,xn(x1,x2,…xi-1,xi+1,…,xn)

Пусть F(x1,…,xn)=P(X1<x1, …,Xn<xn) еслиxiэто условиеXi<xiисчезнет, по условию непрерывности, тоxi– конечная величина, поэтому эта величина приxi=

P(X1<x1,…,X i-1<xi-1,X i+1<xi+1,Xn<xn) – это есть функция распределения=Fx1,…,xi-1,xi+1,…,xn(x1,x2,…xi-1,xi+1,…,xn).

Последовательно переходя к пределу, если все аргументы стремятся к , то

limF(x1,…,xn)=1

Независимые случайные величины:

Определение:независимость случайных величин.

Две случайные величины xиyназываются независимыми, если событие {xА} и {yB} независимы при любыхAиB:A,BВ

Это означает что вероятность того, что P(xА,yB)=P(xА)P(yB) – произведение вероятностей.

Пусть есть случайные величины x1,x2,…,xn– они называются независимыми если события {x1А1}…{xnАn} независимы в совокупности дляA1…AnB

Вероятность того, что P(x1А1,… ,xnАn)=P(x1А1)…P(xnАn)

Как характеризовать независимость случайных величин. Пусть есть случайный вектор, компоненты которого независимы, тогда

F(x1,…,xn)=P(X1<x1, …,Xn<xn), т.к. они независимы между собой =P(X1<x1)…P(Xn<xn)=F(x1)…F(xn) (3)

Fi(xi) – функция распределенияxi

Таким образом, если случайные величины не зависимы, то совместная функция распределения = произведению функций распределения компонент.

Обратно верно: если совместная функция распределения распадается в произведение функций распределения компонент, то эти величины независимы.

Независимость в терминах плотностей:

Если мы возьмем смешанные производные от произведения, то

p(x1,…xn)=p1(x1)…pn(xn) (4)

Верно и обратное, если выполнено (4), то выполняется и (3).

Действительно, если верно:

F(x1,…,xn)=p(t1,…,tn)dtn==F1(x1)….Fn(xn)

Независимость означает, что совместная плотность распределения есть произведение плотностей.

  1. Теорема о плотности распределения преобразованного случайного вектора. Примеры применения.

1. Преобразование случайных величин.

Пусть существует X– случайная величина с плотностью распределенияp(x).

Пусть y=(x) – некая функция от случайной величины с плотностью распределенияq(x).

Как можно q(x) выразить черезp(x)?

Пусть (x) – дифференцируема и монотонна, т.е. междуyиxсуществует взаимно однозначное соответствиеyx

Пусть (x) – монотонно возрастающая, тогда

P(Y<x)=P((x)<x)=P(X<-1(x))=F(-1(x))

q(x)=(F(-1(x))`=p(-1(x)(-1(x))`=P(-1(x))/`(-1(x)), т.к.- монотонная,` будет > 0.

Если (x) убывает, то аналогично мы получим:

q(x)= -P(-1(x))/`(-1(x))

Общая функция: q(x)=P(-1(x))/|`(-1(x))|

-1(x) – обратная функция.

Примеры:

  1. Пусть (x)=aX+b

-1(y)=y-b/a

(-1(y))`=1/a

q(y)=1/|a|p(y-b/a)

  1. P(x)=

y=e-x

(x)=y=e-x

(y)=-ln y

(-1(y))`=-1/y

q(y)=1/yP(-lny)=1/ye-ln y=1, если 0<y<1; 0 в противном случае.

2. Случай случайного вектора.

Пусть :RnRn– отображение.

Пусть - отображение взаимно однозначно, дифференцируема и выполняется условие теоремы о замене переменных в интеграле.

Пусть X– вектор с плотностью распределенияp(x).

Пусть Y=(x) случайный вектор с плотностью распределенияq(x).

q(y)=P(-1(y)|J-1(y)|=P(-1(y))/|J(-1(y))|

|Y-1(y)|=определитель матрицы состоящий из частных производных (якобиан преобразования).

Доказательство:

По теореме о замене переменных.

P(yА)=Aq(y)dy=P((x)А)=P(x-1(A))=(A)p(x)dx= по теореме о замене переменных =Ap(-1(y))|J-1(y)|dy

-1(A) – это множество тех точек, которые с помощью преобразованияпереходят в множество А (прообразы), т.е. все это верно для любого множества А, тогда

q(y)=p(-1(y))|J-1(y)| ч.т.д.

Частный пример:

Линейное преобразование.

Y=AX+b,A– матрица,b– вектор, тогда

x)=AX+b

-1(y)=A-1(Y-b)

J-1(y)=1/det|A|

q(y)=1/|detA|p(A-1(Y-b))

Пример:Стандартный нормальный вектор

p(x)=

Y=Ax+b– невырожденный нормальный вектор, который получается с помощью такого преобразования, и |A|0.

q(y)==

пусть R=ATA, R-1=(A-1)TA-1

detR=(detA)2

=

  1. Нормальные случайные величины и векторы.

Нормальная случайная величина:

Нормальная случайная величина с параметрами a,2:N(a,2) имеет плотность распределения:

p(x)=

Если а=0, 2=1, тоp(x)=

Случайная величина с такой р(х) называется стандартной нормальной случайной величиной.

Вспомним интегральную теорему Муавра-Лапласа:

Мы доказали, что P(<x)Ф(х)=- функция распределения стандартной нормальной случайной величины. Т.е. если мы возьмемxn=, тогдаP(Xn<x)P(Y<x)

Распределение величины Yимеет стандартное нормальное распределение.

График cтандартного нормального распределения имеет вид:

Чем меньше тем более острый пик.

2<<1

Локальная теорема Муавра-Лапласа – может довести до сходимости плоскости стандартного распределения.

Пусть компоненты вектора pi(xi)=- имеет нормальное распределение, тогдаP(x1,…xn)=(), если аргумент записать какX=(x1,…,xn), тогдаp(X)=- такой вектор называется стандартным случайным нормальным вектором.

Пример:Стандартный нормальный вектор

p(x)=

Y=Ax+b– невырожденный нормальный вектор, который получается с помощью такого преобразования, и |A|0.

q(y)==

пусть R=ATA, R-1=(A-1)TA-1

detR=(detA)2

=

  1. Мат. ожидание и его свойства.

Дискретная случайная величина:

Существует прямая, значения возможных случайных величин и вероятности, с которыми они принимаются. Пусть случайная величина – это физическое тело.

x1x2x3xn



p1p2p3pn

Сумма всех pi=1

Материальное тело заменяется на точечное.

i=1xipi– математическое ожидание – в теории вероятности некая характерная точка для всей случайной величины, вокруг которой сосредоточены все остальные (центр масс, центр тяжести).

Непрерывная случайная величина

Вещественная прямая – некая материальная линия и p(x) – плотность распределения массы

этой линии Центр массы- мат. ожидание для непрерывной величины.

В физике рассматривают моменты ,i=1xikpi–k-ый момент случайной величины.

Аналогично, если ставить |xik|p(x)dx–k-ый абсолютный момент.

Определение математического ожидания:

Пусть существует Х – случайная величина – это функция от :X().

Мат. ожидание случайной величины X:EX=x()dPабстрактный интеграл Лимбела.

Отсюда вытекают свойства мат.ожидания, которые являются войствами интеграла.

Свойства математического ожидания:

1)Аддитивность:

E(X+Y)=EX+EY

2) E(X)=EX- вещественное или комплексное число

3) EX>0, еслиx>0

4) Если х>0 иEX=0, то х=0cвероятностью 1

1, 2, 3 свойства интеграла.

5) Пусть x,y- случайные величины, независимы и у них существует Е, тогдаEXY=EXEY

Доказательство:(только для непрерывных).

Т.к. x,y– независимы и непрерывны, тоp(x,y)=p1(x)p2(y), тогдаxy=(x,y)

EXY===можно разбить на произведение интегралов ==EXEY

6) Eконстанты равно самой константе:Ec=c.

Как выглядит Eдля непрерывных и дискретных величин:

Пусть х – дискретная величина x1x2xn

p1p2 pn

EX=x()dP(1)

Разобьем на множества:=n{:X()=xn)=nAn– множества Аnне пересекаются и дает в сумме, поэтомуEможно разбить на сумму интегралов.

EX=x()dP=nnx()dP=*

на каждом Аn:X()=xn

*=nn xn dP=nxn n dP=nxnpn.

- когдаX– случайная дискретная величина.

Если xнепрерывная случайная величина, которая имеет плоскость распределенияp(x), то сделаем в интеграле (1) замену переменных: воспользуемся отображением Х:R1, тогда интеграл перейдет в интеграл по вещественной прямой.

EX=x()dP=R1xdq(x)=R1xp(x)dx,q– это распределение:dq(x)=p(x)dx.

Поэтому в непрерывном случае:

- когда х – непрерывная случайная величина.

  1. Мат. ожидание функции от случайной величины.

Лемма:Пусть есть х – случайная величина и непрерывная функциянадо найтиEx).

  1. E(x) можно вычислять по формуле:E(x)=i=1(xi)pi– для дискретных случайных величин.

E((x))=- для непрерывной случайной величины.

  1. Пусть существуют x,y– 2 случайные величины, существует(x,y), тогда

E(x,y)=i,j(xi,yj)pij, гдеpij=p(x=xi,y=yj) для дискретных случайных величин.

E(x,y)=илиE(x,y)=для непрерывной случайной величины.

Доказательство:(только для двух случайных величин)

  1. Для дискретного случая

E(x,y)==*

Aij={:x=xi,y=yj};P(Aij)=pij, по аддитивности *=i,j(xi,yi)pij

  1. В случае непрерывных случайных величин:

E(x,y)=(x,y)dP=R2(x,y)dq(x,y)=

dq(x,y)=p(x,y)dxdy

  1. Примеры вычисления мат.ожиданий для известных распределений.

  1. Пусть х имеет распределение Бернулли, т.е.

EX=1p+0q=p

  1. Пусть х имеет биноминальное распределение, т.е. k– число успехов в серии изnнезависимых испытаний, где вероятность успеха при одном испытании =p.

x– случайная величина с вероятностьюpk=Cnkpkqn-k.

EX=nk=0xkCnkpkqn-k.

Введем последовательность случайных величин.

тогдаx=nk=0xk, в силу (1) свойстваE

EX=nk=0 Exk=np, т.к. каждаяxk– есть случайная величина Бернулли, вероятность которой=p

  1. Пусть x– имеет распределение Пуассона, т.е.

P(x=k)=,>0,k=0,1,2…

EX===e-e=, т.к.=e

  1. Пусть x– имеет равномерное распределение на интервале [a,b] т.е.

EX= - центр масс стержня.

  1. Нормальное распределение.

P(x)==сделаем заменуx-a=y

+

т.к. под интег- т.к. это есть

ралом нечет- интеграл от

ная функция плотности

нормального

закона =1

Значит в нормальном распределении EX=a

  1. Дисперсия, ее свойства.

По определению DX=E(X-EX)2– мат.ожидание от квадрата отклонения мат.ожиданияx. Это второй центральный момент относительно мат. ожидания.

Смысл: если Е – центр, вокруг которого распределены случайные величины, то D– указывает на степень концентрации величин вокругx– степень рассеивания х.

Свойства дисперсии:

  1. DX>0 т.к. y=(x-EX)2>0 => Ey>0 => DX>0

  2. DX=0 тогда и только тогда, когдаX=EXcвероятностью 1, это свойство Е т.кy=X-EX=0

  3. DC=0 т.к. EC=C => C-EC=0

  4. D(CX)=C2DX, т.к. D(CX)=E(CX-E(CX))2=E(C(X-EX))2=C2E(X-EX)=C2DX

  5. Если x,y– независимы случайные величины, тоD(x+y)=Dx+Dy– это распространяется на любое число независимых случайных величин.

а) Будем предполагать, когда EX=EY=0

D(X+Y)=E(X+Y)2=EX2+EY2+2EXY=EX2+EY2, т.к. независимы, то 2EXY=EXEY=0

б) EY0, тогда введем вспомогательную величину:

x`=X-EX,y`=Y-EY, уx` иy`EX`=0 иEY`=0, поэтомуD(X`+Y`)=DX`+DY`.

Т.к. D(X+Y)=D(X`+Y`) =>DX=DX` иDY=DY`.

6) D(X+C)=DX, C=const

E(X+C)=EX+C

D(X+C)=E(X+C-EX-C)2=E(X-EX)2=DX

7) D(X+Y)<2(DX+DY), для зависимых величин.

Надо доказать, что: E(X+Y)2<2(EX2+EY2), верно что (X+Y)2<2(X2+Y2), откуда получаемE(X+Y)2<2(EX2+EY2).

Если раскрыть скобки, то получим, что (X-Y)2>0

8) Для вычисления дисперсии используют формулу:

DX=EX2-(EX)2

DX=E(X-EX)2=E(X2-2XEX+(EX)2)=EX2-2EXEX+(EX)2=EX2-(EX)2

  1. Примеры вычисления дисперсии.

  1. Пусть х имеет распределение Бернулли, т.е.

EX2=EX=p, поэтому DX=p-p2=p(1-p)=pq

  1. Пусть х имеет биноминальное распределение, т.е. k– число успехов в серии изnнезависимых испытаний, где вероятность успеха при одном испытании =p.

x=nk=1xk, т.к. испытания независимы, то дисперсия суммы равна сумме дисперсий.

D(Xk)=pq=>DX=npq

  1. Пусть x– имеет распределение Пуассона, т.е.

P(x=k)=>0,k=0,1,2…

EX2=====e-(e+e)=+, т.к.=e

DX=EX2-(EX)2=2+-2=

При распределении Пуассона и мат.ожидание, и дисперсия равны .

  1. Пусть x– имеет равномерное распределение на интервале [a,b] т.е.

EX2=

DX=EX2-(EX)2=1/3(b2+ab+a2)-¼ (b2+2ab+a2)=1/12(b-a)2

  1. Нормальное распределение.

p(x)=

DX==E(X-EX)2=E(X-a)2=, сделаем замену (x-a)/=y=>

===2

интегрируем по частям, а потом интеграл от плотности.

  1. Коэффициент корреляции, его свойства.

Третьей характеристикой является совместная характеристика поведения двух случайных величин – корреляция:

cov(x,y)=E((X-EX)(Y-EY))

Коэффициент корреляции (1)

Если они независимы, то (x,y)=0, иногда(x,y)=0 и для зависимых величин.

Свойства ковариации и коэффициента корреляции:

1. cov(x,y) и(x,y) не зависят от сдвига случайных величинxиy. Это означает, что если мы рассмотримx`=x+cиy`=y+c, тоcovибудут у этих двух величин одинаковые.

cov(x`,y`)=cov(x,y), (x`,y`)=(x,y)

Доказательство:из определения;

Если xприбавить с, то и к Е прибавиться с, поэтомуx`-E`=x-Exи аналогично дляy.

Дисперсии не зависят от сдвига.

2. (x,y) не зависит от масштаба.

Доказательство:

Пусть х`=xиy`=y, где>0, тогдаcov(x`,y`)=cov(x,y)

Dx`=2Dx,Dy`=Dy, подставляя в формулу (1) получаем, что(x`,y`)=(x,y)

Замечание:Еслиxумножить на положительное число, аyна отрицательное, то модульне измениться, а знак станет противоположным.

3. Если x,y– независимы, тоcov(x,y) и(x,y) = 0

Достаточно доказать, что cov(x,y)=0

Доказательство:

Пусть EX=EY=0, т.к.covине зависят от сдвига.

Если x`=x-EXиy`=y-Ey, то ковариация останется прежней, в этом случаеcov(x,y)=EXY=EXEY=0

Обратное не верно.

Пример:Пустьxслучайная величина с нормальным распределением:

P(x)=, аy=x2

Тогда cov(x,y)=E(X(Y-EY)=EXY-EXEY=EX3-EXEX2, у такого распределенияEX3=0 иEX2=0, поэтомуcov(x,y)=0

4. cov(x,y)=EXY-EXEY

5. –1<(x,y)<1

Если ||=1, тоx,y– линейно зависимы, т.е.x=ay+b, гдеa,b–const, причем если:

=1, то a>0

то a<0

Это свойство позволяет сказать, что - это мера зависимости линейной случайной величины.

Доказательство:

Отсюда во всех случаях 1+(x,y)>0, отсюда –1<(x,y)<1

Это выражение равно 0, когда 0, поэтому имеется линейная зависимостьXиY.

Если =1, то знак, -a<0

Если =-1, то знак, +a>0 ч.т.д.

Пример:

  1. Пусть u1,u2,…,un– независимые случайные величины, одинаково распределены.

Мат. ожидание всех величин = 0.

2– дисперсия (одинаковая).

Пусть x=u1+u2+…+umn>m

y=u1+u2+…+un

Чему равняется covи

cov(x,y)=E(u1+u2+…+um)(u1+u2+…+un)=E(u1+u2+…+um)2+E(u1+u2+…+um)(um+1+um+2+…+un)=

E(u1+u2+…+um)2– дисперсия

E(u1+u2+…+um)(um+1+um+2+…+un) – это независимые величины, поэтому = 0

m+E(u1+u2+…+um)E(um+1+um+2+…+un)=m

т.е. DX=m,DY=2n

(x,y)=

  1. Кубик бросается до первого появления четного числа.

x=n– число бросаний

y– значение при последнем броске.

Найти cov(x,y)

Оказывается cov(x,y)=0, т.к.x,y– независимы.

P(y=2i)=1/3, i=1,2,3 – y – четное

P(x=n)=1/2n-1½ =1/2n

P(x=n,y=2i)= 1/2n-11/6 =1/2n1/3

  1. Многомерное нормальное распределение.

X=(x1,x2,…,xn) – независимые компоненты и имеют нормальное распределение.

pi(x)=

Совместная плотность распределения

p(x)==

Y=Ax+bбудем предполагать, чтоAне вырожденная.

R=AAT

q(x)=

EY=AEX+b

EX=0, поэтому EY=b, EYi=bi

Yi=nk=1aikXk+bi

Пусть bi=0.

cov(yi,yj)=E((nk=1aikXk)(nm=1ajmXm))=nk=1nm=1aikajmEXkXm= если km =0, т.к. независимы

Т.к. bi=0, следовательноEXk=0

Остается k=m

nm=1aimajm=Dxнормального вектора=1 поэтомуEXk2=1.

С другой стороны эта сумма = (AAT)ij=Rij

Матрица Rсостоит из ковариаций.

Ковариационная матрица нормального вектора.

  1. Неравенство Чебышева и закон больших чисел.

Пусть существует y– случайная величина>0, у которойEy<- конечна,

Тогда P(y>)<Ey/- одно из неравенств Чебышева.

Док-во:Найдем вспомогательную случайную величину:y1=y||y>

||y>- индикатор

тогда можем написать неравенство: y1<y, т.е. еслиy>- то отсюдаP(y>)<Ey1<Ey, но с другой стороныy1>, поэтомуP(y>)<Ey1

т.к. y10, можно заменить это множество на

y2={,y>; 0y<)

y2<y1, аy2– дискретная случайная величина, поэтомуEy2<Ey1

Ey2=P(y>)

Замечание:Пусть мат. ожиданиеEey<- конечно, тогдаp(y>)=P(ey>e)<Eey/e- это неравенства Чебышевского типа.

Одно из неравенств носит название Чебышева:

Пусть DX<, тогдаP(|X-EX|>)<DX/2 (*)

Доказательство:Возьмем в качествеy=(X-EX)2, в качестве=2, тогдаP((X-EX)2>2)<E(X-EX)2/=DX/2

P((X-EX)2>2)=P(|X-EX|>), из этого следует неравенство Чебышева (*), ч.т.д.

Определение:

1) Говорим, что последовательность случайных величин Xnсходится кXпо вероятности Р:

XnpX, если для любого>0:P(|Xn-X|>)0 приn.

Это означает, что сходимости может не быть, вероятность больших отклонений очень маленькая.

2) Мы говорим, что Xnсходится к Х среднеквадратично еслиE(Xn-X)20 приn.

Среднеквадратичная сходимость принята в физике: смысл (энергетический, мощностной)

Свойство:

Из сходимости в среднеквадратичности следует сходимость по вероятности.

Доказательство:

Это следует из неравенства Чебышева.

P(|Xn-X-E(Xn-X)|>)<D(Xn-X)/2

Пусть E(Xn-X)=0, тогда из неравенства ЧебышеваD(Xn-X)/20, тогдаP(|Xn-X|>)0.

Если E(Xn-X)0, то можно показать, чтоE|Xn-X|<, т.е.E(Xn-X)0.

Определение:

Еще один тип сходимости – слабая сходимость – это сходимость распределения.

Мы говорим, что Xnслабо сходится кX, еслиFn(x)F(x) в каждой точке непрерывности функцииF(x), гдеFn(x) иF(x) функции распределенияXnиX.

Свойство:

Если есть сходимость по вероятности, то есть и слабая сходимость.