Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Posit1nov (1)

.pdf
Скачиваний:
17
Добавлен:
21.03.2016
Размер:
872.56 Кб
Скачать

5. Вероятность того, что число успехов заключено в пределах от m1 до m2 равна:

 

m2

 

Pn(m1 ≤ m ≤ m2) =

X1

 

Cnmpmqn−m.

(3.3)

m=m

Определение 3.11 Число m0 наступлений события A называется наивероят-

нейшим, если оно имеет наибольшую вероятность по сравнению с вероятностями наступлений A любое другое количество раз: Pn(m0) ≥ Pn(m), m = 0, 1, . . . , n.

Теорема 3.4 (без доказательства). Наивероятнейшее число наступлений события A в n испытаниях заключено между числами (np − q) и (np + p), то есть np − q ≤ m0 ≤ np + p. При этом, если число (np + p) является натуральным числом, то существуют два наивероятнейших числа наступлений события A:

m01 = np − q и m02 = np + p. Если же (np + p) не является натуральным числом, то m0 - наивероятнейшее число наступлений события A единственно.

Также на практике часто решается следующая задача. Пусть вероятность события A равна p. Найти количество опытов, которые необходимы произвести, чтобы с вероятностью P можно было утверждать, что событие A произошло хотя бы один раз. Можно показать, что n ≥ ln(1 − P )/ln(1 − p).

Пример 3.8 Прибор состоит из 8 однородных элементов, но может работать при наличии в исправном состоянии не менее 6 из них. Каждый из элементов за время работы прибора t выходит из строя независимо от других с вероятностью 0,2. Найти вероятность того, что прибор откажет за время t.

Решение. Для отказа прибора требуется выход из строя не менее 2-х из 8 элементов. Используя формулу (3.3) получим

P8(2 ≤ m ≤ 8) = 1 − (P8(0) + P8(1)) =

= 1 − (0, 88 + C81 · 0, 2 · 0, 87) = 1 − 0, 87(0, 8 + 8 · 0, 2) ≈ 0, 497

Пример 3.9 При установившемся технологическом процессе 80% всей произве-

денной продукции оказывается продукцией высшего сорта. Найти наивероятнейшее число изделий высшего сорта в партии из 250 изделий.

Решение. Используя теорему 3.4 имеем np −q ≤ m0 ≤ np + p, где n = 250, p = 0,8, q = 0,2. Отсюда 199, 8 ≤ m0 ≤ 200, 8. Следовательно, m0 = 200.

3.5Предельные теоремы для схемы Бернулли.

Вслучае, когда число испытаний велико, формулу Бернулли применять не удоб-

но. Рассмотрим несколько приближенных формул для вероятности Pn(m), используемых при условии, что n велико (без доказательства).

Теорема 3.5 (Пуассона) Предположим, что для последовательности схем Бер-

нулли n

→ ∞

, p

=

p n

) → 0

так, что существует

lim np = λ. Тогда для любого

 

 

(

 

 

 

n→∞

фиксированного m

 

 

 

 

 

 

 

 

 

 

 

 

 

λm

 

 

 

 

 

 

 

lim Pn(m) =

 

eλ

(3.4)

 

 

 

 

 

 

 

 

 

 

 

 

 

n→∞

m!

 

23

Замечание 3.7 Возникающее в теореме Пуассона предельное распределение на пространстве элементарных исходов: Ω = 0, 1, 2 . . .

P (ωm = m) = λm eλ, λ > 0, m = 0, 1, 2 . . .

m!

называется распределением Пуассона.

Замечание 3.8 Применение теоремы Пуассона для приближенных вычислений дает хорошие результаты при больших n, малых p, таких что np < a, a ≈ 9; 10 и сравнительно с n небольших m.

Пример 3.10 Радиоаппаратура состоит из 2000 элементов. Вероятность отказа одного элемента в течении года равна 0,001. Какова вероятность отказа двух элементов за год?

Решение. Используя формулу (3.4) для приближенного вычисления этой вероятности будем иметь p = P (A) = 0, 001, n = 2000. Следовательно, λ = np = 2000 · 0, 001 = 2 и P2000(2) ≈ (22/2!) · e−2 = 2/e2 ≈ 0, 2707.

Непосредственное вычисление по формуле Бернулли дает в этом случае

P2000(2) 0, 2708.

Теорема 3.6 (локальная теорема Муавра - Лапласа) Рассмотрим последовательность схем Бернулли при n → ∞, p(n) = p = const (0, 1). Положим

xn = (m

np)/

 

 

Пусть при

n

→ ∞

величина m = m(n) изменяется так,

 

npq.

 

 

 

что величины xn

, где = [a, b] - произвольный конечный интервал. Тогда

 

 

 

 

 

 

 

(m) =

e−xn2 /2

(1 + α ),

 

 

 

 

 

 

 

 

 

npqP

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

n

 

 

 

 

где αn → 0 при n → ∞ равномерно по всем m таким, что xn x2

/.2

В частности, если xn → x при x → ∞, то

 

Pn(m) → e

 

 

 

 

npq

 

/ 2π.

Замечание 3.9 Функция ϕ(x) = e−x2/2/называется функцией Гаусса или

плотностью распределения стандартного нормального закона.

Теорема 3.7 (интегральная теорема Муавра-Лапласа) Пусть m = m(n) - число успехов в последовательности схем Бернулли с числом испытаний n → ∞ и вероятностью успеха в каждом испытании p(n) = p (0, 1), тогда для любых вещественных чисел x1 < x2

 

 

P x1

<

 

 

np(1p) < x2!

n→∞ Φ(x2) − Φ(x1),

 

 

 

 

m(n) np

 

 

x

 

 

p

 

 

 

где Φ(x) =

 

e−t2/2dt /

 

- функция распределения стандартного нормального

−∞

закона.

 

 

 

 

 

 

 

 

R

 

 

 

 

 

 

 

24

Значения функций ϕ(x) и Φ(x) для x ≥ 0 приведены в таблицах, имеющихся, например в [2, 3]. Отметим, что справедливы соотношения ϕ(−x) = ϕ(x), Φ(−x) = 1 − Φ(x). Используя функции ϕ(x) и Φ(x), сформулированные выше результаты

можно преобразвоать к виду:

Теорема 3.8 (локальная теорема Муавра - Лапласа)

P

(m)

1

ϕ(x ), n

 

, где x

=

m − np

 

→ ∞

 

 

 

n

 

npq

n

n

 

npq

 

Теорема 3.9 (интегральная теорема Муавра - Лапласа)

 

 

 

Pn(m1 ≤ m ≤ m2) ≈ Φ(bn) − Φ(an),

(3.5)

 

 

 

 

 

 

 

 

где an = (m1

np)/npq, bn = (m2

np)/npq.

 

 

 

 

Пример 3.11 В партии из 768 арбузов каждый арбуз оказывается неспелым с вероятностью 1/4. Найти вероятность того, что количество спелых арбузов

будет в пределах от 564 до 600.

Решение.

Используя формулу (3.5), имеем p

=

3/4,

q = 1/4,

 

=

npq

p

 

 

 

 

· 3/4 = 576,

 

 

(564 − 576)/12

= −1,

 

 

 

 

 

 

768 · 3/4 · 1/4 = 12, np = 768

an

=

bn = (600

 

576)/12 = 2.

 

 

 

 

 

 

 

 

Отсюда искомая вероятность

 

 

 

 

 

 

 

P (564 ≤ m ≤ 600) ≈ (Φ(2) − Φ(−1)) ≈ (0, 97725 − (1 − 0, 84135)) = 0, 8186.

4 Случайные величины и их законы распределения.

4.1Понятие случайной величины.

Вместе с понятием события и его вероятности третьим основным понятием теории вероятностей является понятие случайной величины.

Определение 4.1 Случайной величиной называется вещественная функция X = X(ω), заданная на вероятностном проcтранстве (Ω, A, P ) и обладающая свойством измеримости: прообраз любого интервала измерим. То есть X−1(B) A, где B R1 - любой (конечный или бесконечный) интервал. Такая функция называется измеримой относительно σ-алгебры A.

Замечание 4.1 Если Ω - пространство элементарных исходов дискретно, то всякая вещественная функция, заданная на Ω измерима. Пусть (Ω, A) = (R1, B),

тогда все непрерывные вещественные функции вещественного аргумента (и многие другие) являются измеримыми относительно борелевской σ-алгебры B.

25

Пример 4.1 Обозначим через X - число очков, выпадающее на игральной кости. Здесь Ω является дискретным и, следовательно, X = X(ω) - случайная величина,

возможные значения которой 1, 2, 3, 4, 5, 6 принимаются ею в зависимости от результата испытания - бросания игральной кости.

Пример 4.2 Пусть ω - обозначает наименьший угол между большой стрелкой

случайно остановившихся часов и горизонтальным направлением. Тогда рассмотрим в качестве Ω = [0, π/2] c борелевской σ-алгерой. Функция X = tg(ω) будет случайной величиной, которая принимает все значения от 0 до +∞. В этом случае X - непрерывная вещественная функция вещественного аргумента и потому

измерима.

Случайные величины обозначаются заглавными буквами X, Y, Z, ..., а конкретные их значения соответственно малыми буквами x, y, z, ... Наиболее полной вероят-

ностной характеристикой случайной величины служит закон распределения этой величины.

Определение 4.2 Пусть (Ω, A, P ) - вероятностное пространство и X = X(ω) заданная на нем случайная величина. Распределением случайной величины X называется функция множеств PX (B) = = P (X−1(B)) = P (ω Ω : X(ω) B), где B B - борелевской σ - алгебре на прямой, то есть PX (B) - вероятностная мера

(аналог длины), заданная на прямой.

Замечание 4.2 Достаточно функцию PX (B) определить для произвольных интервалов B. Нужно найти прообраз интервала B - то есть все исходы из Ω, для которых значения случайной величины X = X(ω) принадлежат интервалу B. Тогда PX (B) - есть вероятность прообраза B. Иначе, PX (B) есть вероятность того, что случайная величина X приняла значение из интервала B.

Пример 4.3 Пусть опыт заключается в двукратном подбрасывании правильной монеты. Исходы данного эксперимента можно записать в виде {ГГ, РГ, ГР, РР},

где Г - появление герба, а Р - появление обратной стороны (решки). Слова "правильная монета"указывают на то, что мы имеем классическую схему, то есть все исходы равновозможны и имеют вероятность 1/4. Рассмотрим случайную величину X - число появившихся гербов. X принимает 3 значения: X(ГГ) = 2, X(РГ) = X(ГР) = 1, X(РР) = 0. В данном случае можно говорить о вероятностях самих этих значений: PX (2) = P (X−1(2)) = P (ГГ) = 1/4, PX (1) =

P (X−1(1)) = P (ГР+РГ) = 1/2, PX (0) = P (X−1(0)) = P (РР) = 1/4. Кроме то-

го, определена вероятностная мера на всей прямой. Для определения новой "длины"всякого интервала достаточно найти значения X, лежащие на этом интервале и сложить их вероятности. Так, например, PX (0, 2) = PX (1) = 1/2, так как на открытом интервале (0, 2) из значений случайной величины X лежит только 1; PX [0, 2] = PX (0) + PX (1) + PX (2) = 1, PX (−0, 5, 0, 3] = PX (0) = 1/4, PX [4, 6) = PX ( ) = 0.

Случайные величины могут иметь дискретное, абсолютно непрерывное, сингулярное или смешанное распределение. Мы остановимся на случайных величинах с

26

дискретным распределением, будем называть их дискретными случайными величинами и на случайных величинах с абсолютно непрерывным распределением, они называются обычно непрерывными случайными величинами.

Определение 4.3 Случайная величина X называется дискретной случайной ве-

личиной, если множество всех ее значений можно перенумеровать, то есть величина X принимает не более чем счетное число значений x1, x2, ..., xn, ....

Распределение (или закон распределения) дискретной случайной величины X удобно задавать в виде таблицы. Пусть PX (xi) = pi - вероятность принять значение xi, тогда следующая таблица называется рядом распределения дискретной

случайной величины

 

xi

x1

x2

. . .

xn

. . .

 

 

 

pi

p1

p2

. . .

 

pn

. . .

 

 

 

События (X = x1),

(X = x2), ... являются несовместными и образуют полную

группу событий, следовательно,

i pi = 1. То есть сумма вероятностей всех возмож-

ных значений дискретной

случайной величины равна единице (закон нормировки).

 

 

P

Пример 4.4 Пусть X - число гербов минус число решек выпавших при двух бросаниях правильной монеты. Величина X может принимать значения {−2, 0, 2}.

Приведем ее ряд распределения (см. пример 4.3).

xi

−2

0

2

pi

1/4

2/4

1/4

Чтобы придать ряду распределения более наглядный вид, часто прибегают к его графическому изображению: по оси абцисс откладывают возможные значения случайной величины, а по оси ординат - вероятности этих значений. Для наглядности полученные точки соединяют отрезками прямых. Такая фигура называется многоугольником распределения:

Определение 4.4 Функция FX (x) = P (X < x) = PX (−∞, x), определенная для любого вещественного x и равная вероятности попадания случайной величины X на промежуток (−∞, x), называется функцией распределения случайной величины

X.

27

Замечание 4.3 Для дискретной случайной величины

FX (x) = P (X < x) = P

xi<x(X = xi)

= xi<x P (X = xi) = xi<x pi.

 

X

X

X

Пример 4.5 Найти функцию распределения случайной величины X, равной числу

гербов при двух бросаниях правильной монеты.

1/4,

0 < x

 

1,

 

 

 

 

 

 

 

0,

x ≤

0,

2,

 

 

 

 

 

 

 

3/4,

1 < x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

FX (x) =

 

 

 

 

 

 

 

График этой функции имеет вид

1,

x > 2.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6F (x)

 

 

 

 

 

 

 

 

 

 

 

 

 

p1 + p2 + p3

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p

+ p

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

p1

 

 

 

 

 

 

-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

1

 

2

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

При помощи функции распределения FX (x) находится вероятность того, что значения случайной величины X попадают на любой промежуток [x1, x2) числовой

оси.

Утверждение 4.1 Вероятность попадания случайной величины на полуоткрытый промежуток [x1, x2) определяется по формуле

P (x1 ≤ X < x2) = FX (x2) − FX (x1).

Доказательство. Событие {X < x2} представляет собой объединение двух несовместных событий {X < x1} и {x1 ≤ X < x2}. Следовательно, в силу аддитивности P имеем

P (X < x2) = P (X < x1) + P (x1 ≤ X < x2),

откуда получаем

P (x1 ≤ X < x2) = PX (X < x2) − P (X < x1) = FX (x2) − FX (x1).

(4.1)

В дальнейшем мы будем опускать индекс X в обозначении функций распреде-

ления и других характеристик случайной величины, если из контекста ясно о какой случайной величине идет речь.

Свойства функции распределения.

F1. Функция F (x) является неубывающей функцией. То есть если x1 < x2, то

F (x1) ≤ F (x2).

28

Доказательство. Пусть A = {X < x1}, B = {X < x2}. При x1 < x2 выполняется включение A B, так как если X(ω) < x1, то X(ω) < x2. По п. 3, утв. 2.1 P (A) ≤ P (B), а это по определению функции распределения и означает, что F (x1) ≤ F (x2).

F2. 0 ≤ F (x) ≤ 1, F (−∞) = 0, F (+∞) = 1.

Доказательство. Функция F (x) при любом x является вероятностью некоторо-

го события и по п. 4, утв. 2.1 принимает значения от 0 до 1. Далее, поскольку {X < −∞} = , а {X < +∞} = Ω, то есть эти события являются соотвественно невозможным и достоверным, по п.п. 1, 2 утв. 2.1 имеем F (−∞) = P (X < −∞) = 0, а F (∞) = P (X < +∞) = 1.

Более того из свойства непрерывности вероятностной меры (см. замечание 3.4) и монотонности функции распределения следует, что

lim F (x) = 0,

lim

F (x) = 1.

x→−∞

x→+∞

F3. Функция F (x) непрерывна слева, то есть

lim F (x) = F (x0).

 

x→x0, x≤x0

Доказательство этого факта, аналогично следует из свойства непрерывности вероятностной меры (из второй аксиомы непрерывности) и монотонности функции распределения.

Теорема 4.1 Всякая вещественная функция F (x) вещественного аргумента, об-

ладающая свойствами F1, F2, F3 является функцией распределения случайной величины X(ω) = ω, заданной на пространстве {Ω = R1, B, P : P ([a, b)) =

F (b) − F (a)}.

Схема доказательства. Доказательство заключается в проверке выполнения аксиом теории вероятностей о вероятностной мере P = P (B), для B B - σ-агебре

Бореля. Как уже отмечалось достаточно эти аксиомы проверить для интервалов [a, b). Ясно, P (Ω) = F (+∞)−F (−∞) = 1 - условие нормировки выполнено. Условие P (B) ≥ 0, B = [a, b) следует из монотоннсти F (x) : F (b) ≥ F (a) при b > a. Cчет-

ная аддитивность следует из непрерывности слева, но это доказывается достаточно сложно. Функция X(ω) = ω непрерывна и потому является случайной величиной с функцией распределения равной F (x).

Из теоремы следует, что достаточно проверить условия F1, F2, F3, чтобы убедиться в корректности вероятностной постановки задачи.

Определение 4.5 Если

функция распределения

F (x)

для любого x (−∞, ∞)

 

x

 

представима в виде F (x) =

R

f (y)dy, где f (y) ≥ 0, то функция f (y) называет-

−∞

ся плотностью распределения случайной величины X. В этом случае случайная величина X называется непрерывной случайной величиной .

Замечание 4.4 Функция распределения непрерывной случайной величины, являясь интегралом с переменным верхним пределом, непрерывна.

29

Свойства плотности распределения.

R

f1. f (x)dx = 1 - свойство нормировки. Это свойство следует из определения

−∞

плотности и свойства функции распределения F (+∞) = 1.

f2. Обычно полагают f (x) = F (x), в тех точках x, в которых существует производ-

ная.

f3. P (a ≤ x ≤ b) = Rab f (x)dx. Это свойство следует из (4.1), аддитивности интеграла

относительно промежутка интегрирования и того, что для непрерывной случайной величины P (X = x) = 0 для любого вещественного x.

Наглядно геометрический смысл функций F (x) и f (x) можно показать на сле-

дующих рисунках.

F(x)

1 6

Bs

0

s

 

 

x

 

 

F (x) = P (X < x)

 

 

 

-

 

 

x

 

 

 

 

 

 

 

f (x)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

S

 

 

-

 

 

 

 

 

 

 

 

 

 

Rx1

 

x1

 

 

 

 

x2

x

S =

f (x)dx = P (x1 ≤ X ≤ x2)

 

 

x2

 

 

 

 

Впервом случае величина ординаты точки B для данной абсциссы x равна F (x)

-вероятности того, что X < x. Во втором случае, S - площадь заштрихованной фигуры равна вероятности того, что x1 ≤ X ≤ x2

Пример 4.6 Функция распределения непрерывной случайной величины X имеет

вид

 

 

x ≤ 0,

 

F (x) =

 

0,

1,

ax2

, 0 < x

 

 

 

x > 1.

 

 

1,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Найти коэффициент a, функцию f (x) - плотность распределения случайной величины X и P (1/4 ≤ X < 1/2) - вероятность попадания случайной величины X на интервал [1/4, 1/2).

Решение. В силу непрерывности функции распределения имеем: F (1) = ax2|x=1 = 1, следовательно, a = 1.

f (x) = F (x) =

 

0,

x < 0,

2x,

0 < x < 1,

 

 

 

 

 

0,

x > 1.

 

 

 

 

 

 

 

 

В точках x = 0, x = 1 можно положить, например, f (0) = f (1) = 0.

P (1/4 ≤ x < 1/2) = F (1/2) − F (1/4) = (0, 5)2 − (0, 25)2 = 0, 1875.

Заметим, что в этом случае P (1/4 ≤ x < 1/2) = P (1/4 ≤ x ≤ 1/2) = P (1/4 < x < 1/2).

Приведем графики функции распределения и плотности для этого примера.

30

 

 

F (x)

 

 

 

 

 

 

 

f (x)

 

 

 

 

 

 

 

 

 

 

1

 

6

 

 

 

 

 

 

6

 

b

 

 

 

 

 

-

x

2

 

 

 

 

 

-

 

 

 

 

 

 

 

0

 

 

1

 

0

 

 

1

x

 

 

 

 

4.2Числовые характеристики случайной величины.

Важнейшими числовыми характеристиками случайных величин являются моменты различных порядков, к числу которых, в частности, принадлежат математическое ожидание и дисперсия случайной величины.

Определение 4.6 Математическим ожиданием случайной величины X называется число mx, которое определяется соотношениями

1) для дискретной случайной величины:

mx = E(X) = P xipi, где xi - все возможные значения случайной величины X, а

i

pi - вероятности с которыми эти значения принимаются: pi = P (X = xi);

2) для непрерывной случайной величины:

R

mx = E(X) = xf (x)dx, где f (x)- плотность распределения случайной величины

−∞

X.

При этом, если дискретная величина X имеет счетное число значений, то

говорят, что математическое ожидание существует, если ряд P |xi|pi сходит-

i=1

ся, в противном случае говорят, что математического ожидания не существует. Аналогично, для непрерывной случайной величины X, существование ма-

тематического ожидания эквивалентно сходимости несобственного интеграла

R

|x|f (x)dx.

−∞

В дальнейшем, говоря о свойствах и связях моментов, будем предполагать, что все соответствующие моменты существуют.

Укажем на механическую аналогию математического ожидания. Пусть в точ-

n

ках xi на числовой оси сосредоточены массы mi, тогда сумма P mixi представляет

i=1

собой статический момент рассматриваемой системы материальных точек, а сум-

n

P

ма xi(mi/m) будет равна координате центра тяжести распределения масс этой

i=1

n

 

 

n

n

n

 

iP

 

P

системы, если m =

 

mi - масса всей системы. Но

xipi будет аналогична сумме

iP

=1

P

 

i=1

 

 

 

=1 xi(mi/m), так как mi/m 0, i=1 mi/m = 1

(то есть можно положить pi = mi/m).

Следовательно, E(X) можно рассматривать, как координату центра тяжести распределения масс системы материальных точек с абсциссой xi и массой mi.

Математическое ожидание называется начальным моментом первого порядка или средним значением случайной величины X.

31

Свойства математического ожидания:

Все свойства математического ожидания являются следствием свойств сумм, рядов или интегралов и справедливы в предположении, что соответствующие математические ожидания существуют. Говоря о суммах или произведениях случайных величин мы будем предполагать, что они заданы на одном и том же вероятностном пространстве.

E1.

Если C- постоянная величина, то E(C) = C.

E2. Постоянный множитель можно выносить за знак математического ожидания:

E(CX) = CE(X).

P

 

P

E3.

n

n

E(X + Y ) = E(X) + E(Y ), E( i=1 Xi) =

i=1 E(Xi).

E4.

Если случайная величина X ≥ 0, то E(X) ≥ 0.

Математическое ожидание обладает еще одним свойством, которое будет сформулировано и доказано в подразд. 5.2 ( свойство E5 математического ожидания ).

Свойство E3 будет доказано в подразд. 5.1 (см. соотношение (5.2)).

Определение 4.7

˚

Случайная величина X = X − E(X) называется центрирован-

ной.

 

Определение 4.8

Начальным моментом порядка k случайной величины X на-

зывается число E(X)k . Центральным моментом порядка X называется число

˚ k

E(X) .

Упражнение 4.1 Доказать, что

˚

1) E(X) = 0,

˚˚

2)если E(XY ) = E(X)E(Y ) , то E(X Y) = 0 (это свойство эквивалентно свойству некоррелированности случайных величин X и Y , которое будет введено в

подразделе ??).

Указание. Перемножить (X −E(X))(Y −E(Y )) и воспользоваться cвойством E3

математического ожидания.

Определение 4.9 Дисперсией случайной величины X называется математиче-

 

˚

2

:

 

ское ожидание случайной величины (X)

 

 

˚ 2

 

 

2

).

D(X) = E(X)

= E((X − E(X))

В частности, если X - дискретная случайная величина, то

n

X

D(X) = (xi − E(X))2pi,

i=1

если X - непрерывная случайная величина, то

Z

D(X) = (x − E(X))2f (x)dx.

−∞

Квадратный корень из дисперсии называется среднеквадратичным отклонением p

D(X) = σ(X) ≥ 0.

32

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]