Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Downloads / переделанные шпоры 2003.doc
Скачиваний:
47
Добавлен:
27.05.2015
Размер:
3.11 Mб
Скачать

2. Закон больших чисел. Теорема Бернулли

Р/м СВ , имеющую конечную дисперсию 2 и среднее, равное . Для любого числа

Поскольку вне интервала

величина заведомо больше, получим:

Положив a = , получим

неравенство Чебышева.

(1.13)

Р/м теперь СВ N, которая является средним арифметическим набора из N попарно независимых случайных величин I

дисперсии этих величин конечны D()  C. Очевидно, дисперсия величины N также будет ограничена:

Используя неравенство Чебышева, мы можем записать

Тогда

Таким образом, для всякого  > 0 выполняется равенство

(1.14)

закон больших чисел или теоремой Чебышева, для всякого  > 0

то последовательность N сходится к числу a по вероятности. Сходимость по вероятности обозначается следующим образом:

Рассматривая серию из N испытаний, появлению некоторого события A в испытании с номером i поставим в соответствие i = 1, в противном случае будем считать i = 0. Тогда

частота появления события A. получим

Согласно теореме Чебышева (1.14), можно записать

или

(1.15)

Таким образом, частота появления события A сходится по вероятности к величине p –вероятности события A в математическом смысле. Доказанное утверждение носит название теоремы Бернулли Другими словами, частотное определение вероятности является вполне корректным способом установления соответствия между чисто математическим понятием (вероятностью p), для которого вводятся утверждения и доказываются теоремы, и экспериментально наблюдаемой частотой появления событий.

Другая запись теоремы Бернулли:

то есть среднее арифметическое сходится по вероятности к математическому ожиданию. Более сильным утверждением является теорема Бореля,

(1.16)

Помимо определенной выше сходимости по вероятности существует еще ряд определений сходимости. Если для последовательности случайных величин i выполняется равенство

говорят, что последовательность сходится к числу a почти наверняка. Если же

говорят, что последовательность i сходится к числу a в среднеквадратичном смысле и обозначают такой предел следующим образом:

3. Совместные и условные распределения.Р/м две зависимые СВ–  и . Пусть событие A заключается в том, что   x, а событие B – в том, что   y. Тогда можно рассмотреть вероятность события AB: P{AB}=P{  x,   y} = F2(x, y). Введенная здесь функция F2(x, y) называется двумерной интегральной функцией распределения вероятностей и обладает очевидными свойствами:F2(x, ) = F1(x), F2(, y) = F1(y), F2(– , y) = F2(x, – ) = 0. Если F2(x, y) – дважды дифференцируема, можно ввести двумерную функцию плотности вероятности:

Выражения для двумерной ф-ии плотности вер-сти

где

где

(1.17)

Если СВ  и  независимы, то F2(x, y) = F1(x)F1(y) и 2(x, y) = 1(x)1(y). Для зависимых величин  и  можно записать условную вероятность того, что одна из них находится ниже уровня y, если другая заключена в интервал Опираясь на соотношения (1.2) и (1.17), получим:

В пределе при получим

Полученная функция F2(y| x) называется условной интегральной вероятностью распределения величины  при условии  = x. Введем также двумерную условную функцию плотности вероятности:

(1.18)

формула полной вероятности:

или

(1.19)

То. можно записать:

(1.20)

аналог формулы Байеса для двумерной условной функции плотности вероятности.

Р/м общий случай. Для совокупности из n СВ 1,…, n введем n-мерную интегральную вероятность

и n-мерную функцию плотности вероятности

Очевидно, для n независимых случайных величин выполняется соотношение

Если трактовать совокупность случайных величин 1,…, n как компоненты случайного вектора в некоторомn-мерном пространстве, можно рассмотреть событие A, заключающееся в том, что конец вектора попал в некоторую областьG этого пространства. Тогда

Для совокупности СВ опеделены моменты:

центральныемоменты

и смешанные моменты

Смешанный центральный момент второго порядка называется ковариацией:

Если 1 и 2 независимы, то cov(1,2) = 0. Коэффициентом корреляции R(1, 2) называется ковариация, нормированная следующим образом:

Ясно, что коэффициент корреляции безразмерен и |R(1, 2)| < 1. Если R(1, 2) = 0, то говорят, что случайные величины 1 и 2 некоррелированы. Заметим, что независимые случайные величины всегда некоррелированы, а вот обратное утверждение неверно. Случайные величины 1 и 2 называются ортогональными, если m2(1, 2) = 0.

Вводятся условные моменты

Р/м классический пример – многомерное нормальное распределение

Здесь D – главный определитель корреляционной матрицы с элементами dij = R(i, j) = dji (ij), dii = 1, |dij|  1, а Dij – алгебраическое дополнение элемента dij. Можно показать, что и

Рассмотрим более подробно двумерное нормальное распределение:

(1.21)

где R = R(i, j). Вторые центральные моменты

Рассмотрим случайную точку на плоскости (x1, x2), координаты которой 1 и 2 – независимые случайные величины, распределенные в соответствии с функцией плотности вероятности (1.21) с нулевыми средними и одинаковыми дисперсиями . Найдем вероятность попадания

точки в круг радиуса  с центром в начале координат (рис. 1.5):

Соответствующая этой интегральной вероятности функция плотности имеет вид

(1.22)

и называется распределением Рэлея (рис. 1.6)

Рис. 1.6. Распределение Рэлея

Рис. 1.5. Случайная точка на плоскости

4. Характеристические функции По определению характеристической функцией называется среднее от комплексной экспоненты <exp(ju)>:

Характеристическая функция является Фурье-образом функции плотности вероятности 1(x).обратное ПФ

(1.24)

Характеристическая функция ограничена по модулю:

Р/м среднее произвольной функции СВ f():

Где

–Фурье-образ исходной функции f().

Поскольку характеристическая функция, так же, как и функция плотности вероятности, однозначно описывает распределение вероятностей, с ее помощью можно найти моменты случайной величины. Р/м n-производную характеристической функции

Отсюда

Разлагая в определении характеристической функции (1.23) экспоненту в ряд по степеням x, получим:

(1.25)

Часто в ряд разлагают не саму характеристическую функцию, а ее логарифм

(*)

(1.26)

Коэффициенты ряда (*) n() называются семиинвариантами и являются рациональными функциями моментов случайной величины . Так, например 0() = 0, 1() = m1, 2() = M2 = 2, 3() = M3, 4() = M4 – 3M22 и т. д.

Характеристическая функция одномерного нормального распределения (1.12) равна

а все семиинварианты, начиная с номера n = 3, равны нулю. Характеристическая функция суммы независимых случайных величин  =  +  равна произведению характеристических функций (u) = (u)(u), а семиинварианты равны сумме соответствующих семиинвариантов m() = m() + m(). Эти соотношения позволяют записать выражения для функции плотности вероятности суммы независимых случайных величин. Поскольку Фурье-образ произведения равен свертке Фурье-образов, получаем

(1.27)

Это выражение называется формулой композиции.

Для n-мерной случайной величины можно ввестиn-мерную характеристическую функцию:

5. Центральная предельная теорема ЦПТ была доказана Ляпуновым и формулируется следующим образом: Пусть 1,…, N – независимые СВ, средние значения которых равны соответственно <i> = ai, дисперсии ограничены и равны M2(i) = i2 < C < . Если для любого  > 0 выполняется равенство

то случайная величина

имеет распределение, равномерно сходящееся к нормальному при N   независимо от распределения слагаемых.

Приведем доказательство ЦПТ для случая, когда все случайные величины 1,…, n распределены одинаково с равными средними <i> = a и дисперсиями M2(i) = 2. Примером такого случая может служит выборка одной случайной переменной (t). Введем новые величины i = ia, для которых <i> = 0, D(i) = 2, D(i/N) = 2/N2 = N2/N. Теперь построим случайную величину

и запишем выражение для ее характеристической функции с учетом формулы (1.25):

При N   это выражение эквивалентно следующему:

что при N   эквивалентно выражению

Для СВ с ненулевым средним

N = N + a при этом имеем

Таким образом, распределение выборочного среднего случайной величины равномерно сходится к нормальному с тем же средним и дисперсией, в N раз меньшей.

Необходимым условием ЦПТ является ограниченность дисперсий исходных процессов 1,…, n. пример-распределение Коши

у которого не существует моментов всех четных порядков (в том числе – второго). Соответствующая этому распределению характеристическая функция равна

что для суммы N случайных величин дает

Таким образом, функция плотности вероятности суммы равна

то есть опять получается распределение Коши. Для выполнения ЦПТ часто достаточно не независимости случайных величин, а их некоррелированности или даже убывания коэффициента корреляции с достаточно высокой скоростью, то есть

6. Функция случайной величины Под функцией случайной величины (ФСВ) мы будем понимать детерминированную функцию, зависящую от какого-либо параметра (от времени, координаты и т. д.) и конечного числа случайных величин. Например

функция случайной величины, зависящая от времени.

Рис. 2.1. Случайная импульсная последовательность

Классическим примером ФСВ является последовательность возникающих в случайные моменты времени импульсов одинаковой формы со случайной высотой (рис. 2.1), которая может быть описана в виде

Пусть задано совместное распределение вероятностей N(x1,…,xN) совокупности случайных величин 1,…, N и задана совокупность M однозначных непрерывных функций N переменных вида

Необходимо найти совместное распределение вероятностей WN(y1,…,yN) случайных величин 1,…, M. В одномерном случае задача сводится к нахождению распределения W1(y) случайной величины  = f(), если известно распределение 1(x).Рассмотрим одномерную задачу и предположим, что функция f(x) дифференцируема и существует обратная функция x = g(y), то есть связь величин  и  взаимно однозначна. Тогда, очевидно, при df/dx > 0 вероятность P{  y} = P{  x = g(y)}, а при df/dx < 0 вероятность P{  y} = P{  x = g(y)}. Используя определение функции плотности вероятности (1.6), получим:

Объединяя эти равенства, получим

В качестве примера рассмотрим линейную зависимость  = f() = a + b, где в качестве случайного выступает гауссов процесс с нулевым средним и дисперсией 2 получим:

Р/м случай, когда функция y = f(x) такова, что обратная ей функция x = g(y) неоднозначна, то есть одному значению y соответствует несколько значений g(y) – x1, x2 и т. д.. В этом случае событию y    y + dy соответствует одно из взаимоисключающих событий: x1    x1 + dx1, x2    x2 + dx2 и т. д., запишем

Примером такого случая может служить квадратичное преобразование  = 2, того же гауссова процесса с нулевым средним. Функция плотности вероятности процесса будет иметь вид:

Еще один вариант реализуется, когда из одной случайной величины получаются две – 1 = f1() и

2 = f2(), причем существует обратная функция  = g1(1). Тогда 2 = f2(g1(1)) = F(1), а условное распределение имеет вид

что с учетом (1.20) дает возможность записать

Аналогично, если известна двумерная функция плотности вероятности (x1, x2) и зависимости

1 = f1(1, 2) и 2 = f2(1, 2) при наличии обратных функций (не обязательно однозначных) 1 = g1(1, 2) и 2 = g2(1, 2), двумерная функция W2(y1, y2) может быть записана в виде

Здесь индекс k определяет номер неоднозначности обратных функций, а величина

-якобиан преобразования. При однозначных преобразованиях в этом выражении будет только один член.

Распределение одной СВ, являющейся функцией двух других, то есть  = 2 = f2(1, 2), положив 1 = 1. Тогда

Соседние файлы в папке Downloads