Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

МАРТ_Часть2_Главы1_3

.pdf
Скачиваний:
0
Добавлен:
21.03.2026
Размер:
1.86 Mб
Скачать

8. Декартовы координаты точки 1 и 2 являются СВ, описываемыми совместной ПВ W x1, x2 . Записать выражения для ПВ длины и аргумен-

та случайного вектора, начало которого находится в точке (0,0), а конец в точке 1, 2 .

9. Как решается задача об отыскании ПВ случайной величины

f 1, 2, , n при заданной ПВ W x1, x2, , xn ?

10.Найдите ПВ суммы и разности независимых нормальных СВ, имеющих параметры a1, a2 и 1 , 2 соответственно.

Глава 3. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН

Рассмотренные ранее функция распределения, плотность вероятности и характеристическая функция дают наиболее полное представление о СВ. Однако, являясь функциями одной или нескольких переменных, для многомерных СВ, они представляют собой достаточно сложные объекты. Во многих случаях достаточно бывает использовать для описания СВ совокупность чисел, называемых числовыми характеристиками СВ. Познакомимся с этими числовыми характеристиками.

3.1. Моменты случайной величины

Под начальным k -м моментом СВ , где k = 1, 2, … понимают вели-

 

k

 

 

x dx , где особую роль играет

1

 

 

 

x dx , называе-

чину

m

xkW

m

 

xW

 

 

 

 

 

 

 

 

 

 

мый математическим ожиданием или средним значением СВ . Моменты СВ

 

 

 

 

 

x dx ,

 

 

 

 

 

 

 

существуют тогда и только тогда, когда

 

x

k W

k = 1, 2, ….

Часто для записи математического ожидания используют символ статистического усреднения, обозначаемый М, Е или просто прямой чертой сверху, т. е.

M , E или

 

 

. Для дискретных СВ, задаваемых распределением ( xi , pi ),

 

 

 

 

 

 

i = 1, 2, …, n ,

математическое ожидание равно m1 xi pi , если записан-

 

 

 

i 1

ный ряд сходится абсолютно.

- 21 -

Используя аппарат дельта-функций, для дискретных СВ можно пользоваться интегральной формой записи математического ожидания

 

 

 

 

 

 

m1

 

x pi x xi dx = pi

x x xi dx = xi pi .

 

i 1

i 1

 

i 1

Математическое ожидание m1 является точкой концентрации значений СВ в том смысле, что среднеквадратический разброс значений СВ относительно m1 минимален. Смысл понятия «среднеквадратический разброс» будет уточнен ниже.

Являясь абсциссой центра тяжести плоской фигуры, ограниченной осью абсцисс и кривой W x , математическое ожидание характеризует положение ПВ относительно оси ординат. Часто бывает полезно представление

 

F x

 

 

m1 с помощью ФР F x .

 

 

 

 

 

 

 

 

 

Можно показать

([1] [5]),

что

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

m1 1 F

x dx

F x dx , т. е. мате-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

+

 

 

0

 

 

 

 

 

 

 

_

 

 

 

матическое

ожидание

равно

разности

 

 

 

 

 

 

 

 

 

 

 

 

площадей,

 

заключенных

между

осью

0

 

x

ординат,

прямой

y = 1

и

кривой

 

 

Рис. 3.1

 

 

y = F x

в

интервале ( 0, ) и между

 

 

 

 

 

 

осью абсцисс, кривой y

= F x

и осью ординат в интервале ( ,0 ). На

рис. 3.1 указанные площади заштрихованы и отмечен знак, с которым нужно взять соответствующие площади.

Условное

математическое ожидание. Пусть

дана условная

ПВ Wξ2 x1

 

x2 .

Условным математическим ожиданием СВ

относительно

 

 

 

 

значения x2 СВ 2 , относительно события { 2 = x2 } называется выражение

 

 

 

 

 

 

 

 

 

 

 

 

вида m1 1

 

x2

x1 W x1

 

x2 dx1 . Зависимость m1

1

 

x2 от x2 определяет

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

кривую регрессии 1

на 2 . При этом переменную

x2 , называют регресси-

онной переменной, или регрессором, а m1 1

 

x2

откликом. Математиче-

 

- 22 -

ское ожидание может быть определено и для функций СВ , если только су-

 

f x

 

W x dx , т. е. M f

 

f x W x dx .

ществует интеграл

 

 

 

 

 

 

 

 

 

 

 

Для векторных и матричных СВ (компоненты вектора и элементы матрицы есть СВ) математическое ожидание определяется как вектор или мат-

рица,

в которых

СВ

заменены

своими средними значениями, т. е.

M

M 1 , M 2 , , M n , где

 

M i

 

 

 

x1, x2 , , xn dx1dx2 dxn .

 

 

 

xi W

 

 

 

 

 

Аналогично определяется математическое ожидание случайной матрицы. Читателю предлагается проверить справедливость приведенной формулы для M i .

Наряду с начальными моментами mk , для характеристики СВ исполь-

 

 

 

зуют центральные моменты M k M m1 k = x m1 k W x dx . Важней-

 

 

 

шим центральным моментом является M 2 , называемый дисперсией СВ и

обозначаемый обычно как D или D . Корень из дисперсии

 

 

D называ-

ют среднеквадратическим отклонением (значением) СВ . В качестве упражнения рекомендуем доказать, что если существует m1, то M1 = 0.

Теперь мы можем вернуться к утверждению, что СВ имеет минимальный среднеквадратический разброс относительно математического ожидания

m1. Запишем средний квадрат отклонения СВ

 

от некоторого значения a

 

 

 

 

 

 

 

 

 

 

M a 2 = x a 2W x dx . Раскрывая скобки

и

используя обозначения

 

 

 

 

 

 

 

 

 

 

начальных моментов, будем иметь M a 2 = m

– 2 m a + a2 . Исследуя

 

 

 

 

 

2

1

данную функцию a на экстремум, получим

dM a 2

 

= 0, откуда сле-

 

 

da

 

 

 

 

 

 

 

 

 

 

a a0

дует, что a = m . Вторая производная M a 2

 

 

 

 

 

 

 

 

равна 2 > 0 и, следователь-

 

0

1

 

 

 

 

 

 

 

но, a

= m соответствует минимуму M a 2

. Само минимальное значение

0

1

 

 

 

 

 

 

 

 

min M a 2 =

 

 

 

 

 

 

 

 

x m1 2W x dx равно дисперсии D .

a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рассмотрим свойства математического ожидания и дисперсии.

- 23 -

1. Математическое ожидание постоянной (детерминированной величины) равно ей самой, а дисперсия равна нулю.

Так как для детерминированной СВ W x x a , где a значение

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

этой величины, то M

 

x x a

dx a и D

x a 2 x a dx 0 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2. Математическое ожидание суммы любых (зависимых и независи-

мых)

случайных величин равно сумме математических ожиданий, так как

M

=

 

 

x x

 

W

x , x

 

dx dx

 

 

 

 

 

x , x

 

dx dx

 

 

 

 

2

2

=

 

x W

2

+

 

1

 

 

2

 

 

1

 

 

1

1 2

 

 

1

 

1

1 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

W

x , x

 

 

dx dx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

2

2

2

. Выполняя внутреннее интегрирование в первом

 

 

 

1

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

слагаемом по x2 , а во втором по x1, получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M 1

2 = x1W

x1 dx1 + x2W

2

x2

dx2 = M 1 M 2 .

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3. Постоянный множитель можно выносить за знак математического

ожидания, т. е. M C = C M , так как

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M C =

CxW x dx = C xW x dx =C M .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4. С учетом свойств 2 и 3 можно утверждать, что математическое ожи-

 

 

 

 

n

дание линейной комбинации СВ Ci i равно линейной комбинации с теми

 

 

 

 

i 1

же

коэффициентами

Ci математических ожиданий M i , т. е.

 

n

 

n

i . Таким образом, для оператора математического

M

Ci i

= Ci M

 

i 1

 

i 1

 

ожидания (статистического усреднения) справедлив принцип суперпозиции, т. е. это – линейный оператор (функционал).

5. Математическое ожидание произведения независимых СВ равно произведению их математических ожиданий, т. е.

M

=

 

 

 

 

W

x , x

 

dx dx

 

 

 

x x

2

2

=

1 2

 

1

 

1

1 2

 

 

 

 

 

 

 

 

 

 

- 24 -

= x1x2 W 1 x1 W 2 x2 dx1dx2 M 1 M 2 ,

так как переменные в последнем двойном интеграле разделяются.

6. Дисперсия суммы или разности независимых СВ равна сумме их дисперсий. Для суммы или разности независимых СВ 1 и 2 дисперсия равна

D 1 2 = M 1 2 M 1 M 2 2 =

 

 

 

1 M 1 2

M 2 2W x1 W

 

x2 dx1dx2 .

 

 

 

 

2

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

Возводя в квадрат и используя введенные обозначения, получим

 

 

D 1

2 = D 1 + D 2 ± 2 M1 M1

2

= D 1 + D 2 ,

 

 

 

 

 

 

1

 

 

 

 

где M1

и M1

 

– равные нулю первые центральные моменты СВ 1

и 2 .

1

 

2

 

 

 

 

 

 

 

Позже мы узнаем, что для справедливости данного результата достаточно некоррелированности СВ 1 и 2 .

7. Дисперсия произведения постоянной величины C на СВ равна

C 2 D . Доказательство этого утверждения тривиально и предоставляется читателю.

n

8. Дисперсия линейной комбинации Ci i попарно независимых СВ

i 1

n

1, 2 , , n равна Ci 2 D i . Рекомендуем доказать это утверждение са-

i 1

мим. Чему равна дисперсия суммы или разности зависимых СВ, мы опреде-

лим позднее.

 

 

 

 

 

 

 

Совершенно аналогично можно определить моменты

(начальные и

 

 

 

 

 

 

m = M f k =

 

x dx

центральные) для функции

f СВ , т. е.

 

f k x W

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и

 

Mk = M f Mf k = f x Mf k W x dx при

 

условии,

что

 

 

 

 

 

 

 

 

 

 

 

 

f x

 

k W x dx .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

- 25 -

Между центральными и начальными моментами существует очевидная

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

связь, определяемая

формулой Mk = M M k Ckl M l M k l .

Ис-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

l 0

 

 

 

 

 

 

пользуя обозначения

M l m

 

это выражение можно переписать в виде

 

 

 

 

 

 

 

 

 

 

l

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

1 k

l C l m

mk l

1 k 1 k 1 mk .

 

 

 

 

 

M

k

=

 

 

 

 

 

 

 

l 2

 

 

 

 

k l

1

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Запишем эту связь для первых четырех центральных моментов, игра-

ющих особо важную роль в теории вероятностей и статистике.

 

 

 

 

 

M =0,

M

2

D m m2

, M

3

m 3m m 2m 2

,

 

 

 

1

 

 

 

 

 

 

 

2

 

1

 

3

2

1

1

 

 

 

 

 

 

 

 

M

4

m 4m m 6m m 2 3m 4 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

3

1

 

2

1

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 0

 

 

 

 

 

 

 

 

 

W x

 

 

 

 

 

1 0

 

 

 

 

 

1 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.25

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.15

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.05

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

 

 

 

2

 

 

 

0

 

 

 

2

 

 

4

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 3.2

- 26 -

W x

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.4

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.2

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0.1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

2

0

 

 

 

2

 

4

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 3.3

 

 

 

 

 

 

 

 

 

 

На

 

практике

обычно

используют

 

нормированные моменты

 

M

3

M

3 2 , называемый асимметрией, и

2

M

4

M 2 , именуемый экс-

1

 

 

2

 

 

 

 

 

 

 

2

 

 

цессом.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Асимметрия характеризует несимметричность ПВ относительно мате-

матического ожидания [18], рис. 3.2. Эксцесс 2

характеризует удельный вес

больших отклонений от математического ожидания или, как говорят в статистике, «тяжесть хвостов» ПВ.

Чаще вместо 2 используют коэффициент = 2 – 3, который позволяет сравнивать данную ПВ с гауссовской, для которой 2 = 3. Иллюстрация этой зависимости представлена на рис. 3.3, заимствованном из [18].

3.2. Квантили

Моменты СВ являются удобным способом описания СВ, если они существуют. Однако СВ может и не иметь моментов. Например, весьма важное для

приложений распределение Коши W

x =

1

 

 

 

 

не имеет моментов,

 

 

 

 

 

 

 

 

 

 

 

 

2

x

2

 

 

 

 

 

 

 

 

 

 

 

 

x

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

так как интеграл

 

 

 

 

dx расходится при любых k =1, 2, … .

 

 

 

 

 

 

x 2

2

 

 

 

 

 

 

 

 

Кроме того, при экспериментальном определении (оценке) моменты оказываются весьма чувствительными к засорению выборки, т. е. появлению в наблюдаемой совокупности чисел, значений другой СВ, обычно

- 27 -

сильно отличающихся по своим свойствам от изучаемой СВ (аномальные ошибки). В этих условиях полезным оказывается использование квантилей, к определению которых мы и переходим.

Определение. Квантилью p -го порядка, или p -квантилью, называют корень уравнения F x = p , обозначаемый как xp . При использовании ПВ

x p

xp определяется из условия W x dx = p .

При p = 12 квантиль называют медианой и обозначают x1 2 = . Ме-

диана определяет точку на оси x , которая делит значения СВ на две равновероятные половины. Кроме медианы, используют x1 4 и x3 4 , которые назы-

ваются квартилями. В качестве характеристики разброса СВ часто принимается интерквартильный размах или срединное отклонение СВ, равное

x34 x1 4 2 .

Полезной характеристикой распределения является мода – абсцисса локального максимума ПВ. По числу мод распределения делятся на унимодальные и полимодальные. Абсцисса глобального максимума называется наивероятнейшим значением СВ.

3.3. Числовые характеристики совокупности случайных величин. Корреляционные моменты

По аналогии с моментами одномерной СВ для характеристики сово-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

купности СВ,

случайного вектора = 1, 2, , n , могут быть использова-

ны начальные mk , k

2

, , k

n

и центральные Mk , k

2

, , k

n

моменты, определя-

 

 

 

 

1

 

 

 

 

 

 

1

 

 

емые как

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

ki

 

 

 

 

 

 

 

 

 

 

 

m

 

=

M

 

 

=

 

 

 

 

 

 

 

 

 

 

k1, k2 , , kn

 

 

i 1

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x1, x2 , , xn dx1dx2 dxn

 

 

 

 

x1k1 x2k2 xnkn W

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

i

 

 

 

 

 

x1 M 1 k1

и Mk , k

2

, , k

n

= M

 

M i ki

=

 

 

 

1

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x2 M 2 k2 xn M n kn W x1, x2 , , xn dx1dx2 dxn ,

-28 -

где k1, k2, , kn неотрицательные целые числа. Порядком момента называют величину ki .

i

Если все показатели степени k1, k2, , kn , за исключением одного kl , равны нулю, то приведенные выражения дадут моменты mkl и Mkl для СВ l . При отличных от нуля показателях степени kl и km мы получим характеристику статистической связи СВ l и m :

 

 

 

 

M kl km =

xl M l kl xm M m km W xl , xm dxl dxm .

 

 

 

При kl = km = 1 мы приходим к понятию ковариации СВ l

и m , ха-

рактеризующему меру линейной связи между СВ l и m :

 

 

cov l , m = M l M l m M m =

 

 

 

xl M l xm M m W xl , xm dxl dxm .

 

=

 

 

 

 

Чтобы исключить зависимость ковариации от величины разброса СВl и m относительно средних значений, ее нормируют относительно их

среднеквадратических значений D l и D m , т. е. переходят к безразмерному отношению

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r l m =

 

 

cov l , m

 

 

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D l

 

 

D m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

называемому

коэффициентом корреляции. Если коэффициент корреляции

r

 

равен нулю,

то СВ l и m

называют некоррелированными или орто-

l

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

гональными,

 

 

так

как

двойной

интеграл

 

 

xl M l xm M m

 

W x

 

 

 

 

dx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

, x

m

dx

m

можно рассматривать как скалярное произведение функ-

 

 

 

l

 

 

 

 

 

 

l

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f x , x

 

 

 

 

x

 

M

 

 

 

 

 

 

 

 

 

 

 

 

x , x

= x

 

M

 

 

ций

 

 

=

l

W x

l

, x

m

 

и

 

 

 

m

m

 

 

 

 

 

 

 

l m

 

 

 

 

 

l

 

 

 

 

 

 

 

 

 

 

 

 

 

l m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

W

x

l

, x

m

 

, в чем легко убедиться, используя аксиомы скалярного произ-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ведения. Тогда, используя неравенство Коши–Буняковского, получаем, что

r l m

1, причем равенство

 

r l m

1 справедливо, если только

 

 

 

x M

 

 

 

 

 

 

 

C x

 

M

 

 

 

 

 

 

 

 

W

x , x

m

 

=

m

m

W

x , x

m

 

 

l

l

 

 

 

l

 

 

 

 

 

 

 

l

 

 

- 29 -

или если xl M l = C xm M m , что означает линейную связь между

СВ l и m . При этом r l m = sign C , где sign – знаковая функция.

 

 

Выясним связь между понятиями независимости и некоррелированно-

сти СВ. Если СВ l

и m независимы, то они некоррелированы, так как в

этом случае

 

 

 

 

 

 

 

 

 

 

 

cov l , m =

 

 

xl M l xm M m W xl W

 

xm dxl dxm

 

 

 

m

=

 

 

 

l

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= xl M l W xl

dxl xm M m W

m

xm dxm

=

M1

M1

m

= 0.

 

l

 

 

 

 

 

l

 

 

 

 

 

 

 

 

 

 

 

 

Обратное утверждение в общем случае не справедливо. Например, еслиl cos и m = sin , где – СВ, равномерно распределенная в интервале

, , то M l =

 

 

1

 

 

= M m =

 

1

 

cov l , m =

 

cos

d

sin

d = 0,

 

 

 

 

2

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

= M cos sin =

 

 

 

 

1

 

 

1

 

 

 

 

 

 

cos sin

d =

 

sin 2 d = 0, т. е.

l и m не-

2

4

 

 

 

 

 

 

 

 

 

 

 

коррелированные СВ, но

между ними

существует функциональная связь

l 2 m2 = 1 (не линейная!).

3.4. Кумулянты

Еще одним видом числовых характеристик СВ являются кумулянты, или семиинварианты. В ряде случаев их использование оказывается более эффективным, чем описание СВ с помощью моментов. Прежде чем дать определение кумулянтам, остановимся на свойствах введенной выше ХФ

v W x e jvxdx .

Прежде всего отметим, что 0 W x dx =1. ХФ v непре-

рывна для всех v , для нее выполняются следующие условия: 0 v ;

v v и

 

– знак комплексного сопря-

v e jvxdv 0, x , где

 

 

 

- 30 -

Соседние файлы в предмете Математический аппарат радиотехники