Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

g2

.pdf
Скачиваний:
11
Добавлен:
25.03.2016
Размер:
519.27 Кб
Скачать
2 1 r2

некоррелированности нормально распределенных величин вытекает их независимость.

Действительно, нормальный закон на плоскости задается двумерной плотностью распределения

fξη(x, y)=

1

2πσ(ξ)σ(η)

 

 

(x a)2

(y b)2

 

 

 

 

+

 

 

 

σ 2(ξ)

σ 2(η)

1 r2

exp

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(x a)(y b)

 

2r

 

 

 

σ(ξ)σ(η)

 

 

 

 

 

,

 

 

 

 

 

 

 

 

где a, b – математические ожидания, σ(ξ), σ(η) среднеквадратичные отклонения величин ξ и η , r коэффициент корреляции. Пусть ξ и η некоррелированные величины. Тогда μ = 0 и r = 0 . Учитывая это, получим

f

ξη

(x, y)=

1

 

exp

(x a)2

+

(y b)2

 

= f

ξ

(x)f (y).

2πσ(ξ)σ(η)

 

 

 

 

 

 

2σ

2

(ξ)

 

2σ

2

 

 

 

η

 

 

 

 

 

 

 

 

 

 

(η)

 

 

 

Откуда следует по доказанному выше утверждению независимость (СВ) ξ и η . Таким образом, для нормально распределенных (СВ) понятия независимости и некоррелированности равносильны.

Пример. В заколдованном круге радиуса 1 герой Гоголя Хома выбирает наугад точку А и через нее в произвольном направлении проводит магическую хорду ВС. Найти среднюю длину хорды ВС.

Решение. Пусть R (СВ) длины радиус-вектора точки А, Φ (СВ) угла, образованного этим вектором и хордой ВС. По условию задачи эти (СВ) независимы. Найдем функции распределения этих величин

FR (r)P(R < r)

FΦ(ϕ)P(Φ <ϕ

 

πr2

2

 

 

 

 

 

2 = r , 0 < r 1

=

 

 

π1

 

 

 

1, r >1

 

 

 

 

 

ϕ

2ϕ

 

<ϕ π / 2

)=

 

=

 

, 0

π / 2

π

 

 

ϕ > π / 2

 

 

 

1,

 

 

Откуда следует

fR (r)=

dFR (r)

 

 

2r, 0 < r 1

 

=

 

 

dr

 

 

 

 

0, r >1

fΦ(ϕ)=

dFΦ(ϕ)

=

2 / π, 0 <ϕ π / 2

 

 

 

 

dϕ

 

 

0, ϕ > π / 2

Так как (СВ) R и Φ независимы, то

fRΦ(r,ϕ)= fR (r)fΦ(ϕ)= 4πr .

По теореме Пифагора длина хорды ВС равна

L = 2 1 H 2 = 2 1 r2 sin2(ϕ),

так что средняя длина хорды ВС

 

 

8

π / 2

1

1 r2 sin2(ϕ)rdr = 16 .

M (L)=

Lf (r,ϕ)drdϕ =

dϕ

π

 

−∞

 

0

0

3π

 

 

 

 

 

§9. Условные законы распределения

Рассмотрим

сначала

дискретную

двумерную (СВ) {ξ,η}. Пусть

xi (i =1,2...n) возможные значения (СВ) ξ ;

y j (j =1,2...m)возможные значения

(СВ) η .

Определение. Условным распределением составляющей ξ при условии, что (η = y j ), называют совокупность условных вероятностей

P(ξ = x1 /η = y j ), P(ξ = x2 /η = y j ), P(ξ = x3 /η = y j )....P(ξ = xn /η = y j ),

вычисленных в предположении, что событие (η = y j )уже наступило.

Аналогично определяется условное распределение составляющей η . По теореме умножения эти вероятности можно представить в виде

P(ξ = x

/η = y

j

)=

Pij

, P(η = y

j

/ ξ = x )=

Pij

.

 

 

i

 

 

Pj

 

i

Pi

 

 

 

 

 

 

 

Определение. Условной плотностью распределения составляющей ξ при условии, что (η = y), называют функцию вида

ϕξ (x / y)= ffη(x(,yy)), fη(y)= f (x, y)dx .

Аналогично определяется условная плотность распределения составляющей η при условии, что (ξ = x)

ϕη(y / x)= ff(ξx(,xy)), fξ (x)= f (x, y)dy .

−∞

f (x)

Основное свойство функции регрессии

Определение. Условным математическим ожиданием дискретной (СВ) η при условии, что (ξ = x), называют величину

M (η / ξ = xi )= m y j P(y j / ξ = xi ).

j=1

Определение. Условным математическим ожиданием непрерывной (СВ) η при условии, что (ξ = x), называют величину

 

 

 

 

 

 

M (η / ξ = x)= yϕη(y / x)dy .

 

 

 

 

−∞

 

 

Аналогично

определяется

условные

математические

ожидания

составляющей ξ :

 

 

 

 

 

M (ξ /η = y)= n

 

 

 

 

xiP(xi /η = y j ), M (ξ /η = y)= xϕξ (x / y)dx .

 

 

i=1

 

 

−∞

M (η / ξ = x)

Из определений видно,

условное математическое ожидание

является функцией от x, которую называют функцией регрессии величины η на ξ . Обозначим ее следующим образом M (η / ξ = x)= f (x). Уравнение y = f (x) называется уравнением регрессии η на ξ , а график функции регрессии – линией регрессии η на ξ . Линия регрессии η на ξ показывает, как в среднем изменяется величина η при изменении величины ξ . Аналогично определяется регрессия ξ на η : M (ξ /η = y)= g(y). Функции регрессии

g(x) в общем случае не являются взаимно обратными. Основное свойство

регрессии раскрывается в следующей теореме.

 

 

Теорема. Если f (x) является функцией регрессии η

на ξ , то для любой

функции h(ξ)

 

 

 

 

M (η

f (ξ))2

M (η h(ξ))2

.

(1)

 

 

 

 

 

Доказательство. Доказательство проведем в два этапа. Сначала докажем, что для любой функции u(ξ)

M (u(ξ) η)= M (u(ξ) f (ξ)).

(2)

По формуле для математического ожидания функции (СВ) имеем

 

 

∞ ∞

∞ ∞

 

 

 

 

M (u(ξ) η)

=

u(x)yf (x, y)dxdy = ∫ ∫u(x)yfξ

(x)ϕη(y / x)dxdy =

 

 

 

−∞−∞

−∞−∞

 

 

 

 

 

(x)f (x)dx = M [u(ξ)f (ξ)]

 

 

= u(x)fξ

(x)dx yϕη(y / x)dy = u(x)fξ

 

 

−∞

 

−∞

−∞

 

 

 

 

 

что и требовалось показать. В частности, если

u(ξ)=1,

то из формулы (2)

следует

 

 

 

M (η)= M (f (ξ)).

 

(3)

 

 

 

 

 

 

 

Теперь преобразуем

M (η h(ξ))2 следующим образом:

 

 

 

 

 

 

 

 

 

 

 

 

 

M (η h(ξ))2

= M ((η f (ξ))+ (f

(ξ)h(ξ)))2

= M (η f (ξ))2

+ M (f

(ξ)h(ξ))2

+

 

 

 

 

 

 

 

 

 

 

+ 2M (η f (ξ))M (f (ξ)h(ξ))

 

 

 

 

 

 

По формуле (3)

M (η f (ξ))M (f (ξ)h(ξ))= 0 и, следовательно,

 

 

 

 

M (η h(ξ))2

= M (η f (ξ))2 + M (f (ξ)h(ξ))2 .

(4)

 

 

 

 

 

 

 

 

 

 

 

Из (4) следует, что

M (η f (ξ))2 M (η h(ξ))2 .

Аналогично формулируется основное свойство регрессии ξ на η

M (ξ g(η))2 M (ξ H (η))2 .

В частном случае, когда h(ξ)= M (η)= M (ξ)= b , из (4) следует

M (η b)2 = M (η f (ξ))2 + M (f (ξ)b)2 ,

т.е.

D(η)= D(f (ξ))+ M (f (ξ)η)2 .

так что

D(η)D(f (ξ)).

(5)

(6)

Линейная регрессия

Если обе функции регрессии f (x) и g(y) линейны, то говорят, что между величинами ξ и η существует линейная корреляционная зависимость. В этом случае линии регрессии являются прямыми. Выведем уравнения прямых линий регрессии. Для этого введем обозначения:

a = M (ξ), b = M (η), D(ξ)=σ 2(ξ), D(η)=σ 2(η), μ = M [(ξ a)(η b)].

В соответствие с постановкой задачи представим функцию регрессии в линейном виде

f (x)= A(x a)+ B .

Найдем параметры А и В. По формуле предыдущего раздела

M (η)= M (f (ξ))= M [A(ξ a)+ B]= AM (ξ a)+ B = B = b,

μ = M [(ξ a)(η b)]= M [(ξ a)(f (ξ)b)]= AM (ξ a)2 = Aσ 2(ξ).

откуда следует, что

 

 

 

 

A =

 

 

μ

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

σ 2(ξ)

 

 

 

Таким образом,

 

 

 

 

 

 

 

 

 

f (x)=

μ

 

 

(x a)+ b .

 

 

 

 

 

 

 

 

 

 

 

 

σ 2(ξ)

 

 

 

 

 

 

 

Аналогично, функция регрессии ξ на η имеет вид

 

 

 

g(y)=

μ

 

 

(y a)+ a .

 

 

 

 

 

 

 

 

 

 

 

σ 2(η)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

μ

Если воспользоваться коэффициентом корреляции r =

 

, то уравнения

σ(ξ)σ(η)

регрессии можно представить в традиционном виде

 

 

 

f (x)= r

σ(η)

(x a), g(y)= r

σ(ξ)

 

(y b).

 

 

σ(ξ)

 

 

 

σ(η)

 

 

 

Свойства коэффициента корреляции

Свойство 1. Коэффициент корреляции не изменяется ни при изменении начала отсчета, ни при изменении масштаба измерения (СВ) ξ и η . Доказательство. Изменение масштаба и начала отсчета (СВ) ξ означает линейное преобразование вида

ξ = x0 + hξ,

где h > 0 . При таком преобразовании

M (ξ)= M (x0 + hξ)= x0 + hM (ξ),σ(ξ)= hσ(ξ)

и, следовательно,

 

 

ξ′− M (ξ)

 

 

 

 

 

ξ M (ξ)

=

.

 

 

 

 

σ(ξ)

 

 

σ(ξ)

 

 

Аналогично,

 

 

 

 

 

 

 

 

 

 

 

η M (η)

=

η′− M (η)

.

 

 

 

 

σ(η)

 

 

σ(η)

 

 

Тогда

 

 

 

 

 

 

 

 

 

 

M [(ξ M (ξ))(η M (η))]

 

 

 

(ξ M (ξ))(η M (η))

 

r =

 

σ(ξ)σ(η)

=

M

 

 

 

=

 

σ(ξ)σ(η)

 

 

 

 

 

 

 

 

 

(ξ′− M (ξ))(η′− M (η))

 

 

 

 

 

 

= M

 

= r

 

 

 

 

σ(ξ)σ(η)

 

 

 

 

 

 

 

 

 

 

 

 

 

что и требовалось показать.

Свойство 2. Коэффициент корреляции по абсолютной величине не превышает единицы, т.е.

r 1 .

Доказательство. Представим величину η в виде

 

η = [A(ξ a)+ B]+ χ ,

где остаток

χ =η [A(ξ a)+ B] будем рассматривать как ошибку

приближения величины η линейной функцией [A(ξ a)+ B] . Константы А и В

найдем из условия минимума

 

χ

2

M

. Для этого преобразуем эту величину

следующим образом:

 

 

 

 

 

 

M χ2 = M {[(η b)A(ξ a)(B b)]2}= M (η b)2 + A2M (ξ a)2 (1)

2AM [(η b)(ξ a)]+ (B b)2 = D(ξ)+ A2D(η)+ (B b)2 2Arσ(ξ)σ(η)

Решая уравнения экстремума,

 

 

χ

2

 

 

M

 

 

 

 

 

 

= 2AD(ξ)2σ(ξ)σ(η)= 0,

 

 

 

 

A

 

 

 

2

 

 

 

χ

 

M

 

 

 

 

 

 

= 2(B b)= 0

 

B

 

 

 

 

найдем А и В

A = r σσ((ηξ)), B = b.

Из (2) следует, что

M (χ)= M [(η b)A(ξ a)]= M (η b)AM (ξ = a)= 0 ,

и, следовательно, дисперсия (СВ) χ равна

D(χ)= M χ2 .

Подставляя (2) в (1) с учетом (3), получим

DD((ηχ)) =1 r2 .

(2)

(3)

(4)

Так как любая дисперсия по определению является неотрицательной величиной, то из (4) следует, что 1 r2 0 или r 1 , что и требовалось

доказать.

Свойство 3. Если r = 0 , то (СВ) ξ и η не связаны линейной корреляционной зависимостью.

Доказательство. При r = 0 из определения коэффициента корреляции

r =

M [(ξ M (ξ))(η M (η))]

= M (ξ η)M (ξ)M (η)

 

σ(ξ)σ(η)

 

σ(ξ)σ(η)

следует

 

 

 

 

M (ξ η)= M (ξ)M (η).

(1)

Доказательство проведем по методу от противного. Для этого предположим, что

f (ξ)= A(ξ a)+ B .

(2)

Из равенства (2) следует

 

M (η)= M (f (ξ))= B ,

(3)

M (ξ η)= M (ξ)M (f (ξ))= M [ξ[A(ξ a)+ B]]= AD(ξ)+ BM (ξ).

(4)

Из (1), (3), и (4) находим

 

D(ξ)= 0 .

(5)

Применим неравенство Чебышева к случайной величине A(ξ a):

P[

 

 

 

 

 

A(ξ a)

 

 

 

 

< ε]1

A2D(ξ)

.

(6)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ε2

 

 

 

 

 

 

 

 

Так как D(ξ)= 0 , то из (6) находим

 

P[

 

 

 

A(ξ a)

 

 

 

< ε]=1

 

 

 

 

 

 

и, следовательно, согласно (2)

 

P[

 

f (ξ)B

 

< ε]=1,

 

 

 

 

т.е. с единичной вероятностью

 

M (η / ξ = x)= B = M (η).

 

Это означает, что (СВ) ξ и η независимы.

Свойство 4. Коэффициент корреляции принимает крайние значения ±1тогда и только тогда, когда между величинами ξ и η имеется линейная функциональная зависимость.

Доказательство. Если r = ±1, то по формуле (4) второго свойства D(χ)= 0 , Тогда из неравенства Чебышева

P[χ M (χ) < ε]1 D(χ)

ε2

следует

P[χ < ε]=1,

т.е. с единичной вероятностью остаток χ = 0 и, следовательно, (СВ) η есть линейная функция от ξ : η = A(ξ a)+ B . Верно и обратное утверждение: если η = A(ξ a)+ B , то χ = 0 , D(χ)= 0 и, следовательно, r = ±1.

Следствие. Из доказанных свойств коэффициента корреляции следует, что коэффициента корреляции является мерой линейной корреляционной зависимости между (СВ): с возрастанием абсолютной величины r линейная корреляционная зависимость становится более тесной и при r = ±1 переходит в линейную функциональную зависимость.

Пример. В клетке 50 попугаев, из них 25 розовых. На обед удаву наугад последовательно выбирают двух попугаев. Пусть ξ – случайная величина числа розовых попугаев, появившихся при случайном выборе первого

попугая, а η – при выборе второго попугая. Найти коэффициент корреляции

ξ и η .

Решение. Построим ряды распределении для (СВ) ξ , η и их произведения

(ξ η)

ξ

0

 

 

 

1

 

 

 

 

 

 

 

 

pi

0.5

 

 

 

0.5

 

 

 

 

 

 

 

η

0

 

 

 

1

 

 

 

 

 

 

 

 

pi

0.5

 

 

 

0.5

 

 

 

 

 

 

 

ξ η

0

 

 

 

1

 

 

 

 

 

 

 

 

pi

37

 

 

 

12

 

49

 

 

 

49

 

 

 

 

 

 

Тогда коэффициент корреляции равен

 

 

 

 

 

r =

M (ξη)M (ξ)M (η)

= −

1

.

 

σ(ξ)σ(η)

 

 

49

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]