
Posit1nov (1)
.pdf5. Вероятность того, что число успехов заключено в пределах от m1 до m2 равна:
|
m2 |
|
Pn(m1 ≤ m ≤ m2) = |
X1 |
|
Cnmpmqn−m. |
(3.3) |
m=m
Определение 3.11 Число m0 наступлений события A называется наивероят-
нейшим, если оно имеет наибольшую вероятность по сравнению с вероятностями наступлений A любое другое количество раз: Pn(m0) ≥ Pn(m), m = 0, 1, . . . , n.
Теорема 3.4 (без доказательства). Наивероятнейшее число наступлений события A в n испытаниях заключено между числами (np − q) и (np + p), то есть np − q ≤ m0 ≤ np + p. При этом, если число (np + p) является натуральным числом, то существуют два наивероятнейших числа наступлений события A:
m01 = np − q и m02 = np + p. Если же (np + p) не является натуральным числом, то m0 - наивероятнейшее число наступлений события A единственно.
Также на практике часто решается следующая задача. Пусть вероятность события A равна p. Найти количество опытов, которые необходимы произвести, чтобы с вероятностью P можно было утверждать, что событие A произошло хотя бы один раз. Можно показать, что n ≥ ln(1 − P )/ln(1 − p).
Пример 3.8 Прибор состоит из 8 однородных элементов, но может работать при наличии в исправном состоянии не менее 6 из них. Каждый из элементов за время работы прибора t выходит из строя независимо от других с вероятностью 0,2. Найти вероятность того, что прибор откажет за время t.
Решение. Для отказа прибора требуется выход из строя не менее 2-х из 8 элементов. Используя формулу (3.3) получим
P8(2 ≤ m ≤ 8) = 1 − (P8(0) + P8(1)) =
= 1 − (0, 88 + C81 · 0, 2 · 0, 87) = 1 − 0, 87(0, 8 + 8 · 0, 2) ≈ 0, 497
Пример 3.9 При установившемся технологическом процессе 80% всей произве-
денной продукции оказывается продукцией высшего сорта. Найти наивероятнейшее число изделий высшего сорта в партии из 250 изделий.
Решение. Используя теорему 3.4 имеем np −q ≤ m0 ≤ np + p, где n = 250, p = 0,8, q = 0,2. Отсюда 199, 8 ≤ m0 ≤ 200, 8. Следовательно, m0 = 200.
3.5Предельные теоремы для схемы Бернулли.
Вслучае, когда число испытаний велико, формулу Бернулли применять не удоб-
но. Рассмотрим несколько приближенных формул для вероятности Pn(m), используемых при условии, что n велико (без доказательства).
Теорема 3.5 (Пуассона) Предположим, что для последовательности схем Бер-
нулли n |
→ ∞ |
, p |
= |
p n |
) → 0 |
так, что существует |
lim np = λ. Тогда для любого |
||
|
|
( |
|
|
|
n→∞ |
|||
фиксированного m |
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
λm |
|
|
|
|
|
|
|
|
lim Pn(m) = |
|
eλ |
(3.4) |
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
n→∞ |
m! |
|
23

Замечание 3.7 Возникающее в теореме Пуассона предельное распределение на пространстве элементарных исходов: Ω = 0, 1, 2 . . .
P (ωm = m) = λm eλ, λ > 0, m = 0, 1, 2 . . .
m!
называется распределением Пуассона.
Замечание 3.8 Применение теоремы Пуассона для приближенных вычислений дает хорошие результаты при больших n, малых p, таких что np < a, a ≈ 9; 10 и сравнительно с n небольших m.
Пример 3.10 Радиоаппаратура состоит из 2000 элементов. Вероятность отказа одного элемента в течении года равна 0,001. Какова вероятность отказа двух элементов за год?
Решение. Используя формулу (3.4) для приближенного вычисления этой вероятности будем иметь p = P (A) = 0, 001, n = 2000. Следовательно, λ = np = 2000 · 0, 001 = 2 и P2000(2) ≈ (22/2!) · e−2 = 2/e2 ≈ 0, 2707.
Непосредственное вычисление по формуле Бернулли дает в этом случае
P2000(2) 0, 2708.
Теорема 3.6 (локальная теорема Муавра - Лапласа) Рассмотрим последовательность схем Бернулли при n → ∞, p(n) = p = const (0, 1). Положим
xn = (m |
− |
np)/√ |
|
|
Пусть при |
n |
→ ∞ |
величина m = m(n) изменяется так, |
|||||||||||
|
npq. |
|
|
|
|||||||||||||||
что величины xn |
, где = [a, b] - произвольный конечный интервал. Тогда |
||||||||||||||||||
|
|
|
|
|
√ |
|
|
(m) = |
e−xn2 /2 |
(1 + α ), |
|
|
|
|
|||||
|
|
|
|
|
npqP |
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
n |
|
|
√2π |
|
|
n |
|
|
|
|
||
где αn → 0 при n → ∞ равномерно по всем m таким, что xn x2 |
/.2 |
√ |
|||||||||||||||||
В частности, если xn → x при x → ∞, то |
√ |
|
Pn(m) → e− |
|
|
|
|
||||||||||||
npq |
|
/ 2π. |
Замечание 3.9 Функция ϕ(x) = e−x2/2/√2π называется функцией Гаусса или
плотностью распределения стандартного нормального закона.
Теорема 3.7 (интегральная теорема Муавра-Лапласа) Пусть m = m(n) - число успехов в последовательности схем Бернулли с числом испытаний n → ∞ и вероятностью успеха в каждом испытании p(n) = p (0, 1), тогда для любых вещественных чисел x1 < x2
|
|
P x1 |
< |
|
|
np(1− p) < x2! |
→n→∞ Φ(x2) − Φ(x1), |
||
|
|
|
|
m(n) np |
|
||||
|
x |
|
|
p |
|
− |
|
|
|
где Φ(x) = |
|
e−t2/2dt /√ |
|
- функция распределения стандартного нормального |
|||||
−∞ |
2π |
||||||||
закона. |
|
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
24

Значения функций ϕ(x) и Φ(x) для x ≥ 0 приведены в таблицах, имеющихся, например в [2, 3]. Отметим, что справедливы соотношения ϕ(−x) = ϕ(x), Φ(−x) = 1 − Φ(x). Используя функции ϕ(x) и Φ(x), сформулированные выше результаты
можно преобразвоать к виду:
Теорема 3.8 (локальная теорема Муавра - Лапласа)
P |
(m) |
1 |
ϕ(x ), n |
|
, где x |
= |
m − np |
|||
√ |
|
→ ∞ |
||||||||
|
√ |
|
|
|||||||
n |
|
npq |
n |
n |
|
npq |
|
Теорема 3.9 (интегральная теорема Муавра - Лапласа)
|
|
|
Pn(m1 ≤ m ≤ m2) ≈ Φ(bn) − Φ(an), |
(3.5) |
|||||
|
− |
|
|
|
− |
|
|
|
|
где an = (m1 |
np)/√npq, bn = (m2 |
np)/√npq. |
|
||||||
|
|
|
Пример 3.11 В партии из 768 арбузов каждый арбуз оказывается неспелым с вероятностью 1/4. Найти вероятность того, что количество спелых арбузов
будет в пределах от 564 до 600.
Решение. |
Используя формулу (3.5), имеем p |
= |
3/4, |
q = 1/4, |
√ |
|
= |
||||
npq |
|||||||||||
p |
|
|
|
|
· 3/4 = 576, |
|
|
(564 − 576)/12 |
= −1, |
||
|
− |
|
|
|
|
||||||
|
768 · 3/4 · 1/4 = 12, np = 768 |
an |
= |
||||||||
bn = (600 |
|
576)/12 = 2. |
|
|
|
|
|
|
|
||
|
Отсюда искомая вероятность |
|
|
|
|
|
|
|
P (564 ≤ m ≤ 600) ≈ (Φ(2) − Φ(−1)) ≈ (0, 97725 − (1 − 0, 84135)) = 0, 8186.
4 Случайные величины и их законы распределения.
4.1Понятие случайной величины.
Вместе с понятием события и его вероятности третьим основным понятием теории вероятностей является понятие случайной величины.
Определение 4.1 Случайной величиной называется вещественная функция X = X(ω), заданная на вероятностном проcтранстве (Ω, A, P ) и обладающая свойством измеримости: прообраз любого интервала измерим. То есть X−1(B) A, где B R1 - любой (конечный или бесконечный) интервал. Такая функция называется измеримой относительно σ-алгебры A.
Замечание 4.1 Если Ω - пространство элементарных исходов дискретно, то всякая вещественная функция, заданная на Ω измерима. Пусть (Ω, A) = (R1, B),
тогда все непрерывные вещественные функции вещественного аргумента (и многие другие) являются измеримыми относительно борелевской σ-алгебры B.
25
Пример 4.1 Обозначим через X - число очков, выпадающее на игральной кости. Здесь Ω является дискретным и, следовательно, X = X(ω) - случайная величина,
возможные значения которой 1, 2, 3, 4, 5, 6 принимаются ею в зависимости от результата испытания - бросания игральной кости.
Пример 4.2 Пусть ω - обозначает наименьший угол между большой стрелкой
случайно остановившихся часов и горизонтальным направлением. Тогда рассмотрим в качестве Ω = [0, π/2] c борелевской σ-алгерой. Функция X = tg(ω) будет случайной величиной, которая принимает все значения от 0 до +∞. В этом случае X - непрерывная вещественная функция вещественного аргумента и потому
измерима.
Случайные величины обозначаются заглавными буквами X, Y, Z, ..., а конкретные их значения соответственно малыми буквами x, y, z, ... Наиболее полной вероят-
ностной характеристикой случайной величины служит закон распределения этой величины.
Определение 4.2 Пусть (Ω, A, P ) - вероятностное пространство и X = X(ω) заданная на нем случайная величина. Распределением случайной величины X называется функция множеств PX (B) = = P (X−1(B)) = P (ω Ω : X(ω) B), где B B - борелевской σ - алгебре на прямой, то есть PX (B) - вероятностная мера
(аналог длины), заданная на прямой.
Замечание 4.2 Достаточно функцию PX (B) определить для произвольных интервалов B. Нужно найти прообраз интервала B - то есть все исходы из Ω, для которых значения случайной величины X = X(ω) принадлежат интервалу B. Тогда PX (B) - есть вероятность прообраза B. Иначе, PX (B) есть вероятность того, что случайная величина X приняла значение из интервала B.
Пример 4.3 Пусть опыт заключается в двукратном подбрасывании правильной монеты. Исходы данного эксперимента можно записать в виде {ГГ, РГ, ГР, РР},
где Г - появление герба, а Р - появление обратной стороны (решки). Слова "правильная монета"указывают на то, что мы имеем классическую схему, то есть все исходы равновозможны и имеют вероятность 1/4. Рассмотрим случайную величину X - число появившихся гербов. X принимает 3 значения: X(ГГ) = 2, X(РГ) = X(ГР) = 1, X(РР) = 0. В данном случае можно говорить о вероятностях самих этих значений: PX (2) = P (X−1(2)) = P (ГГ) = 1/4, PX (1) =
P (X−1(1)) = P (ГР+РГ) = 1/2, PX (0) = P (X−1(0)) = P (РР) = 1/4. Кроме то-
го, определена вероятностная мера на всей прямой. Для определения новой "длины"всякого интервала достаточно найти значения X, лежащие на этом интервале и сложить их вероятности. Так, например, PX (0, 2) = PX (1) = 1/2, так как на открытом интервале (0, 2) из значений случайной величины X лежит только 1; PX [0, 2] = PX (0) + PX (1) + PX (2) = 1, PX (−0, 5, 0, 3] = PX (0) = 1/4, PX [4, 6) = PX ( ) = 0.
Случайные величины могут иметь дискретное, абсолютно непрерывное, сингулярное или смешанное распределение. Мы остановимся на случайных величинах с
26

дискретным распределением, будем называть их дискретными случайными величинами и на случайных величинах с абсолютно непрерывным распределением, они называются обычно непрерывными случайными величинами.
Определение 4.3 Случайная величина X называется дискретной случайной ве-
личиной, если множество всех ее значений можно перенумеровать, то есть величина X принимает не более чем счетное число значений x1, x2, ..., xn, ....
Распределение (или закон распределения) дискретной случайной величины X удобно задавать в виде таблицы. Пусть PX (xi) = pi - вероятность принять значение xi, тогда следующая таблица называется рядом распределения дискретной
случайной величины
|
xi |
x1 |
x2 |
. . . |
xn |
. . . |
|
|
|
|
pi |
p1 |
p2 |
. . . |
|
pn |
. . . |
|
|
|
События (X = x1), |
(X = x2), ... являются несовместными и образуют полную |
|||||||
группу событий, следовательно, |
i pi = 1. То есть сумма вероятностей всех возмож- |
||||||||
ных значений дискретной |
случайной величины равна единице (закон нормировки). |
||||||||
|
|
P |
Пример 4.4 Пусть X - число гербов минус число решек выпавших при двух бросаниях правильной монеты. Величина X может принимать значения {−2, 0, 2}.
Приведем ее ряд распределения (см. пример 4.3).
xi |
−2 |
0 |
2 |
pi |
1/4 |
2/4 |
1/4 |
Чтобы придать ряду распределения более наглядный вид, часто прибегают к его графическому изображению: по оси абцисс откладывают возможные значения случайной величины, а по оси ординат - вероятности этих значений. Для наглядности полученные точки соединяют отрезками прямых. Такая фигура называется многоугольником распределения:
Определение 4.4 Функция FX (x) = P (X < x) = PX (−∞, x), определенная для любого вещественного x и равная вероятности попадания случайной величины X на промежуток (−∞, x), называется функцией распределения случайной величины
X.
27

Замечание 4.3 Для дискретной случайной величины
FX (x) = P (X < x) = P |
xi<x(X = xi) |
= xi<x P (X = xi) = xi<x pi. |
|
|
X |
X |
X |
Пример 4.5 Найти функцию распределения случайной величины X, равной числу
гербов при двух бросаниях правильной монеты.
1/4, |
0 < x |
|
1, |
|
|
|
|
|
|
|
|||||
0, |
x ≤ |
0, |
2, |
|
|
|
|
|
|
|
|||||
3/4, |
1 < x |
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
≤ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
FX (x) = |
|
|
|
|
≤ |
|
|
|
График этой функции имеет вид |
||||||
1, |
x > 2. |
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
6F (x) |
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
p1 + p2 + p3 |
|
|
|||||||
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
p |
+ p |
2 |
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
||
|
|
|
|
p1 |
|
|
|
|
|
|
- |
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
1 |
|
2 |
|
x |
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
При помощи функции распределения FX (x) находится вероятность того, что значения случайной величины X попадают на любой промежуток [x1, x2) числовой
оси.
Утверждение 4.1 Вероятность попадания случайной величины на полуоткрытый промежуток [x1, x2) определяется по формуле
P (x1 ≤ X < x2) = FX (x2) − FX (x1).
Доказательство. Событие {X < x2} представляет собой объединение двух несовместных событий {X < x1} и {x1 ≤ X < x2}. Следовательно, в силу аддитивности P имеем
P (X < x2) = P (X < x1) + P (x1 ≤ X < x2),
откуда получаем
P (x1 ≤ X < x2) = PX (X < x2) − P (X < x1) = FX (x2) − FX (x1). |
(4.1) |
В дальнейшем мы будем опускать индекс X в обозначении функций распреде-
ления и других характеристик случайной величины, если из контекста ясно о какой случайной величине идет речь.
Свойства функции распределения.
F1. Функция F (x) является неубывающей функцией. То есть если x1 < x2, то
F (x1) ≤ F (x2).
28
Доказательство. Пусть A = {X < x1}, B = {X < x2}. При x1 < x2 выполняется включение A B, так как если X(ω) < x1, то X(ω) < x2. По п. 3, утв. 2.1 P (A) ≤ P (B), а это по определению функции распределения и означает, что F (x1) ≤ F (x2).
F2. 0 ≤ F (x) ≤ 1, F (−∞) = 0, F (+∞) = 1.
Доказательство. Функция F (x) при любом x является вероятностью некоторо-
го события и по п. 4, утв. 2.1 принимает значения от 0 до 1. Далее, поскольку {X < −∞} = , а {X < +∞} = Ω, то есть эти события являются соотвественно невозможным и достоверным, по п.п. 1, 2 утв. 2.1 имеем F (−∞) = P (X < −∞) = 0, а F (∞) = P (X < +∞) = 1.
Более того из свойства непрерывности вероятностной меры (см. замечание 3.4) и монотонности функции распределения следует, что
lim F (x) = 0, |
lim |
F (x) = 1. |
x→−∞ |
x→+∞ |
|
F3. Функция F (x) непрерывна слева, то есть |
lim F (x) = F (x0). |
|
|
x→x0, x≤x0 |
Доказательство этого факта, аналогично следует из свойства непрерывности вероятностной меры (из второй аксиомы непрерывности) и монотонности функции распределения.
Теорема 4.1 Всякая вещественная функция F (x) вещественного аргумента, об-
ладающая свойствами F1, F2, F3 является функцией распределения случайной величины X(ω) = ω, заданной на пространстве {Ω = R1, B, P : P ([a, b)) =
F (b) − F (a)}.
Схема доказательства. Доказательство заключается в проверке выполнения аксиом теории вероятностей о вероятностной мере P = P (B), для B B - σ-агебре
Бореля. Как уже отмечалось достаточно эти аксиомы проверить для интервалов [a, b). Ясно, P (Ω) = F (+∞)−F (−∞) = 1 - условие нормировки выполнено. Условие P (B) ≥ 0, B = [a, b) следует из монотоннсти F (x) : F (b) ≥ F (a) при b > a. Cчет-
ная аддитивность следует из непрерывности слева, но это доказывается достаточно сложно. Функция X(ω) = ω непрерывна и потому является случайной величиной с функцией распределения равной F (x).
Из теоремы следует, что достаточно проверить условия F1, F2, F3, чтобы убедиться в корректности вероятностной постановки задачи.
Определение 4.5 Если |
функция распределения |
F (x) |
для любого x (−∞, ∞) |
||
|
x |
|
|||
представима в виде F (x) = |
R |
f (y)dy, где f (y) ≥ 0, то функция f (y) называет- |
−∞
ся плотностью распределения случайной величины X. В этом случае случайная величина X называется непрерывной случайной величиной .
Замечание 4.4 Функция распределения непрерывной случайной величины, являясь интегралом с переменным верхним пределом, непрерывна.
29

Свойства плотности распределения.
∞
R
f1. f (x)dx = 1 - свойство нормировки. Это свойство следует из определения
−∞
плотности и свойства функции распределения F (+∞) = 1.
f2. Обычно полагают f (x) = F ′(x), в тех точках x, в которых существует производ-
ная.
f3. P (a ≤ x ≤ b) = Rab f (x)dx. Это свойство следует из (4.1), аддитивности интеграла
относительно промежутка интегрирования и того, что для непрерывной случайной величины P (X = x) = 0 для любого вещественного x.
Наглядно геометрический смысл функций F (x) и f (x) можно показать на сле-
дующих рисунках.
F(x)
1 6
Bs
0 |
s |
|
|
x |
|
|
F (x) = P (X < x) |
||
|
|
|
- |
|
|
x |
|
|
|
|
|
|
|
f (x) |
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
0 |
S |
|
|
- |
|
||
|
|
|
|
|
|
|
|||||
|
|
Rx1 |
|
x1 |
|
|
|
|
x2 |
x |
|
S = |
f (x)dx = P (x1 ≤ X ≤ x2) |
||||||||||
|
|
x2 |
|
|
|
|
Впервом случае величина ординаты точки B для данной абсциссы x равна F (x)
-вероятности того, что X < x. Во втором случае, S - площадь заштрихованной фигуры равна вероятности того, что x1 ≤ X ≤ x2
Пример 4.6 Функция распределения непрерывной случайной величины X имеет
вид |
|
|
x ≤ 0, |
|
|
F (x) = |
|
0, |
1, |
||
ax2 |
, 0 < x |
≤ |
|||
|
|
|
x > 1. |
|
|
|
1, |
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
Найти коэффициент a, функцию f (x) - плотность распределения случайной величины X и P (1/4 ≤ X < 1/2) - вероятность попадания случайной величины X на интервал [1/4, 1/2).
Решение. В силу непрерывности функции распределения имеем: F (1) = ax2|x=1 = 1, следовательно, a = 1.
f (x) = F ′(x) = |
|
0, |
x < 0, |
2x, |
0 < x < 1, |
||
|
|
|
|
|
0, |
x > 1. |
|
|
|
|
|
|
|
|
|
В точках x = 0, x = 1 можно положить, например, f (0) = f (1) = 0.
P (1/4 ≤ x < 1/2) = F (1/2) − F (1/4) = (0, 5)2 − (0, 25)2 = 0, 1875.
Заметим, что в этом случае P (1/4 ≤ x < 1/2) = P (1/4 ≤ x ≤ 1/2) = P (1/4 < x < 1/2).
Приведем графики функции распределения и плотности для этого примера.
30

|
|
F (x) |
|
|
|
|
|
|
|
f (x) |
|
||
|
|
|
|
|
|
|
|
|
|||||
1 |
|
6 |
|
|
|
|
|
|
6 |
|
b |
|
|
|
|
|
|
- |
x |
2 |
|
|
|
|
|
- |
|
|
|
|
|
|
|
|
|||||||
0 |
|
|
1 |
|
0 |
|
|
1 |
x |
||||
|
|
|
|
4.2Числовые характеристики случайной величины.
Важнейшими числовыми характеристиками случайных величин являются моменты различных порядков, к числу которых, в частности, принадлежат математическое ожидание и дисперсия случайной величины.
Определение 4.6 Математическим ожиданием случайной величины X называется число mx, которое определяется соотношениями
1) для дискретной случайной величины:
mx = E(X) = P xipi, где xi - все возможные значения случайной величины X, а
i
pi - вероятности с которыми эти значения принимаются: pi = P (X = xi);
2) для непрерывной случайной величины:
∞
R
mx = E(X) = xf (x)dx, где f (x)- плотность распределения случайной величины
−∞
X.
При этом, если дискретная величина X имеет счетное число значений, то
∞
говорят, что математическое ожидание существует, если ряд P |xi|pi сходит-
i=1
ся, в противном случае говорят, что математического ожидания не существует. Аналогично, для непрерывной случайной величины X, существование ма-
тематического ожидания эквивалентно сходимости несобственного интеграла
∞
R
|x|f (x)dx.
−∞
В дальнейшем, говоря о свойствах и связях моментов, будем предполагать, что все соответствующие моменты существуют.
Укажем на механическую аналогию математического ожидания. Пусть в точ-
n
ках xi на числовой оси сосредоточены массы mi, тогда сумма P mixi представляет
i=1
собой статический момент рассматриваемой системы материальных точек, а сум-
n
P
ма xi(mi/m) будет равна координате центра тяжести распределения масс этой
i=1 |
n |
|
|
n |
n |
n |
|
||
iP |
|
P |
||
системы, если m = |
|
mi - масса всей системы. Но |
xipi будет аналогична сумме |
|
iP |
=1 |
P |
|
i=1 |
|
|
|
||
=1 xi(mi/m), так как mi/m ≥ 0, i=1 mi/m = 1 |
(то есть можно положить pi = mi/m). |
Следовательно, E(X) можно рассматривать, как координату центра тяжести распределения масс системы материальных точек с абсциссой xi и массой mi.
Математическое ожидание называется начальным моментом первого порядка или средним значением случайной величины X.
31

Свойства математического ожидания:
Все свойства математического ожидания являются следствием свойств сумм, рядов или интегралов и справедливы в предположении, что соответствующие математические ожидания существуют. Говоря о суммах или произведениях случайных величин мы будем предполагать, что они заданы на одном и том же вероятностном пространстве.
E1. |
Если C- постоянная величина, то E(C) = C. |
|
E2. Постоянный множитель можно выносить за знак математического ожидания: |
||
E(CX) = CE(X). |
P |
|
|
P |
|
E3. |
n |
n |
E(X + Y ) = E(X) + E(Y ), E( i=1 Xi) = |
i=1 E(Xi). |
|
E4. |
Если случайная величина X ≥ 0, то E(X) ≥ 0. |
Математическое ожидание обладает еще одним свойством, которое будет сформулировано и доказано в подразд. 5.2 ( свойство E5 математического ожидания ).
Свойство E3 будет доказано в подразд. 5.1 (см. соотношение (5.2)).
Определение 4.7 |
˚ |
Случайная величина X = X − E(X) называется центрирован- |
|
ной. |
|
Определение 4.8 |
Начальным моментом порядка k случайной величины X на- |
зывается число E(X)k . Центральным моментом порядка X называется число
˚ k
E(X) .
Упражнение 4.1 Доказать, что
˚
1) E(X) = 0,
˚˚
2)если E(XY ) = E(X)E(Y ) , то E(X Y) = 0 (это свойство эквивалентно свойству некоррелированности случайных величин X и Y , которое будет введено в
подразделе ??).
Указание. Перемножить (X −E(X))(Y −E(Y )) и воспользоваться cвойством E3
математического ожидания.
Определение 4.9 Дисперсией случайной величины X называется математиче-
|
˚ |
2 |
: |
|
ское ожидание случайной величины (X) |
|
|
||
˚ 2 |
|
|
2 |
). |
D(X) = E(X) |
= E((X − E(X)) |
В частности, если X - дискретная случайная величина, то
n
X
D(X) = (xi − E(X))2pi,
i=1
если X - непрерывная случайная величина, то
Z∞
D(X) = (x − E(X))2f (x)dx.
−∞
Квадратный корень из дисперсии называется среднеквадратичным отклонением p
D(X) = σ(X) ≥ 0.
32