Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Задания / 1 семестр / Математика / Учебное пособие. Математика. 140700, 151000, 220700 2 курс.doc
Скачиваний:
70
Добавлен:
20.04.2015
Размер:
2.45 Mб
Скачать

Очевидно, что сумма всех вероятностей

так как это есть сумма вероятностей полной группы несовместных событий. Обозначение (i,j) означает суммирование по всем возможным парам индексов. Фактически это двойная сумма (или двойной числовой ряд в случае счетных множеств возможных значений).

ПРИМЕР Урна содержит 4 шара: 2 черных, 1 белый и 1 синий. Из урны достается 2 шара. При этом Х - число белых, а Y - число черных шаров в выборке. Составим для двумерной величины -{Х, Y} двумерный ряд распределения.

В нашем примере Х может принимать значения из множества {0,1}, а Y - множества {0, 1, 2}. Соответствующие вероятности вычисляем, пользуясь классической формулой для схемы случаев:

Поэтому получаем следующий двумерный ряд распределения

 Х

У

2/6 

1/6 

1/6 

2/6 

Определим теперь функцию совместного распределения двумерной случайной величины {X,y} формулой

F(x,y)=P(X<x;Y<y).

Геометрически это означает вероятность попадания двумерной случайной величины (случайной точки) в заштрихованную на рис. 18 область плоскости.

Перечислим без доказательства некоторые свойства функции распределения:

1.      0≤F(x,y)≤1.

2.      F(х,у) - является неубывающей функцией по каждому из своих аргументов (при фиксированном другом).

3.      Р(х1 ≤ Х ≤ х2; у1 ≤ Y < y2) = F(х2;у2) - F(х1;у2) - F(х2; у1) + F(х1;у1).

4.      F(х,у) непрерывна слева по каждому из своих аргументов

5.     

Если функция распределения F(х,у) непрерывна, то соответствующая двумерная случайная величина называется непрерывной. Для таких величин, как правило, можно ввести плотность совместного распределения двумерной случайной величины по формуле

Плотность F(х,у) обладает следующими основными свойствами:

  1. 1.      F(х.у)≥0.

  2. 2.      , где G – некоторая область.

  3. 3.      (условие нормировки).

ПРИМЕР. Пусть область возможных значений случайной ве­личины - треугольник с границами х=0, у=0, х+у=1. Плотность распределения f(х,у)=А(х+у2). Найти значение нормировочной постоянной А и Р((Х,У)G1), где G1 - треугольник с границами х=0, у=1/2, х+у=1. Для пояснения условий задачи область возможных значений G и интересующая нас область G1 изображены на рис. 19.

Для нахождения нормировочного множителя А воспользуемся свойством нормировки 3

Отсюда получаем А=4.

Вычислим теперь вероятность попадания нашей двумерной величины в область G1 воспользовавшись свойством 2;

Если задан двумерный ряд распределения двумерной дискретной случайной величины или плотность совместного распределения не­прерывной случайной величины, то из теоремы сложения вероятностей нетрудно восстановить одномерный закон распределения каж­дой из компонент Х и Y. Для дискретных величин

Нетрудно проверить, что функции неотрицательны и выполняются условия нормировки. Решить обратную задачу не всегда возможно, а именно, зная законы распределения по отдельности случайных величин Х и Y, не всегда можно найти закон их совместного распределения. Другими словами, если мы «все» знаем по отдельности о случайных величинах Х и Y, то это не означает, что мы знаем «все» о двумерной случайной величине {Х,У}. Восстановить закон распределения двумерной случайной величины по одномерным принципиально возможно только в одном случае - если Х и Y независимы.

Свойства двумерных случайных величин определяются не только индивидуальными свойствами каждой из компонент Х и Y, но и существующей между ними не совсем случайной (стохастической) зависимостью.

ПРИМЕР Пусть Х -вес, а Y - рост наудачу выбранного взрослого человека. Тогда Х(кг)≈Y(см)-100, то есть компоненты довольно сильно связаны (коррелируют) между собой.

ПРИМЕР. Пусть Х - рост взрослого человека, а Y - его возраст. Тогда эти величины практически независимы.

Случайные величины Х и Y называются независимыми, если любое событие, связанное со случайной величиной X, независимо от любого события, связанного с Y.

Из теоремы умножения вероятностей независимых событий получаем, что для независимых случайных величин выполняются следующие свойства для функции и плотности совместного распре­деления вероятности:

1.      F(x,y)=Р( Х< х; Y < y) = P(X<x) . P(Y<у) = F1(х) . F2(у).

2.      ,

то есть соответствующие функции распадаются на произведение одномерных функций. Это и доказывает утверждение о возможности восстановления двумерного распределения по одномерным для независимых случайных величин: нужно просто перемножить их функции или плотности распределения.

ПРИМЕР. Если независимые случайные величины распределены по нормальному закону (каждая со своими значениями параметров), то есть плотности имеют вид

;

то плотность их совместного распределения будет

Числовые характеристики системы двух случайных величин. Корреляционный момент, коэффициент корреляции, уравнение линейной регрессии.

Центральный момент порядка двумерной случайной величины называется ковариационным моментом и обозначается

M[X . Y]=M[X] .M[Y]+cov(X,Y)

ТЕОРЕМА 1. Если случайные величины независимы, то их ковариация равна нулю.

Из теоремы и приведенных выше формул следует, что для независимых случайных величин Х иY

М[Х . У]=М[Х] . М[Y];

D[X±Y]=D[X]+D[Y],

Коэффициентом корреляции случайных величин Х и Y называется число

Поясним теперь смысл коэффициента корреляции. Если ρ >0, то величины Х и Y называются коррелированными. В этом случае при случайном возрастании величины Х случайная величина Y имеет тенденцию также к возрастанию и наоборот. Чем ближе ρ к единице, тем четче выражена эта закономерность. При ρ = +1 тенденция становится строгой (законом).

При ρ <0 величины Х и Y называются антикоррелированными. При .возрастании одной из них другая имеет тенденцию к убыванию (и наоборот), которая становится законом при ρ = -1.

При ρ = 0 величины Х и Y называются некоррелированными. При этом не наблюдается закономерности между их изменениями.

Из теоремы 1 следует, что независимые случайные величины некоррелированны. Обратное утверждение в общем случае неверно, то есть некоррелированные случайные величины вполне могут быть зависимыми.

По определению плотность нормально распределенной случайной величины равна

Возможные значения такой величины Х могут принимать любые действительные значения -∞<Х<, а распределение зависит от двух параметров . -∞<m<∞ и -∞<σ<∞.

числим математическое ожидание случайной величины

т.к. второй интеграл равен нулю как интеграл от нечетной функции в симметричных пределах.

Закон больших чисел и центральная предельная теорема.

Предметом теории вероятностей, как уже отмечалось во введении, являются закономерности, свойственные массовым случайным событиям. Пусть, например, проводится большая серия однотипных опытов. Результат каждого опыта в отдельности случаен и непредсказуем, Так средний результат подчиняется закономерностям и предсказуем. Так, относительная частота появления события в большом числе однотипных опытов является устойчивой величиной и приближается с ростом числа опытов к вероятности данного события. Этот факт лежит в основе всех приложений теории вероятностей к практике. Строгое обоснование приближения средних характеристик большого числа опытов к некоторым постоянным дается утверждениями, которые носят название закона больших чисел.

ЛЕММА. Пусть Х - случайная величина, которая может принимать только неотрицательные значения, т.е. Р(Х<0)=0 и М[Х]=m, тогда P(Х≥1)≤m.

НЕРАВЕНСТВО ЧЕБЫШЕВА. Пусть Х - случайная величина с математическим ожиданием М[Х] = m и дисперсией D[Х] = σ2. Тогда для любого ε > 0, имеет место неравенство

СЛЕДСТВИЕ 1. Используя понятие противоположного события можно переписать неравенство Чебышева в другой форме

СЛЕДСТВИЕ 2. Правило «трех сигм» для произвольного распределения. Положим ε=3σ, тогда получим

т.е. в интервал ]m-3σ,m+3σ[ для любого распределения попадают не менее 89% всех возможных значений (и наблюдений).

Рассмотрим теперь две теоремы, представляющие собой различные формы закона больших чисел.

ТЕОРЕМА ЧЕБЫШЕВА. Пусть Х1, Х2,...,Хn,... бесконечная после­довательность независимых случайных величин, таких, что их мате­матические ожидания равны

М[Х1]=М[Х2]=...=М[Хn]...=m,

а дисперсии ограничены одним и тем же числом с, т.е.

D[Х1]≤с,D[Х2] ≤с,...,D[Xn] ≤с,...

Тогда, каково бы ни было положительное число ε, вероятность случайного события

стремится к единице при n→∞.

ЗАМЕЧАНИЕ 1. Мы использовали здесь известную теорему о том, что если для двух последовательностей {аn}и{bn} выполняете аn < bn и их пределы существуют, то

ЗАМЕЧАНИЕ 2. В более конструктивной форме теорему Чебышева можно оставить в виде доказанного неравенства

ЗАМЕЧАНИЕ 3. Если дисперсии всех случайных величин равны σ2, то получим

Вероятностный смысл доказанной теоремы заключается в том, что при большом числе n случайных величин их среднее арифметическое практически достоверно» попадает в любую малую ε-окрестность математического ожидания (заштрихованная часть на рисунке).

В указанном смысле среднее арифметическое стремится к математическому ожиданию. Это называется пределом по вероятности и обозначается

ТЕОРЕМА БЕРНУЛЛИ. Пусть Х - число "успехов" в схеме Бернулли с испытаниями, р - вероятность “успеха” в одном испытании. Тогда каково бы ни было положительное число ε, вероятность события стремится к единице при n→∞.

ЗАМЕЧАНИЕ 1. Учитывая замечания 2 и 3 к теореме Чебышева, мы можем теорему Бернулли более конструктивно записать в виде неравенства

ЗАМЕЧАНИЕ 2 Величина pq=p(1-q) достигает максимума 0.25 при р=q =0.5, поэтому для любой схемы Бернулли

Вероятностный смысл доказанной теоремы заключается в том, что предел по вероятности относительной частоты Х/n в схеме Бернулли стремится к теоретической вероятности «успеха» р в одном опыте. Это подводит строгую теоретическую базу для использования статистического подхода при исчислении вероятностей. Он используется в тех случаях, когда неприменима схема случаев, т.е. нам неизвестна симметрия задачи.

ПРИМЕР 1. Гнутая монета подбрасывается 100 раз. Герб выпал 70 раз. Оценим вероятность выпадения герба для этой монеты. Возьмем ε= 0.1. Тогда получим

т.е. с вероятностью 0.75 оцениваемое значение р принадлежит интервалу |0.7-p|<0.1 0.6<p<0.8.

Аналогично для ε= 0.2 мы получаем, что 0.5 < р<0.9 с вероятностью не менее 0.9375.

В качестве оценки р берем относительную частоту 70/100=0.7.

При увеличении числа испытаний n мы будем получать с вероятностью, близкой к единице, все более маленькие интервалы для оценки теоретической вероятности р.