Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Многомерный статистический анализ (128

..pdf
Скачиваний:
8
Добавлен:
15.11.2022
Размер:
473.36 Кб
Скачать

Очевидно, что вектор μi состоит из средних вектора ξi ; Dii -матрицы ковариаций вектора ξi ; i =1,2; D12 – матрицы взаимных ковариаций векторов ξ1, ξ2 ; соответственно D21 – аналогичная матрица векторов ξ2 , ξ1. Для краткости обозначим через np ( x; μ, D) плотность р-мерного нормального распределения.

Теорема 1.3. Маргинальное распределение векторов ξ1, ξ2

является нормальным с параметрами μi , Dii , т. е. ξi ~ N (μi , Dii ), i =1,2 .

Доказательство опускается.

Следствие 1.2. Для того чтобы ξ1 и ξ2 были независимы, необходимо и достаточно, чтобы D12 = 0.

Доказательство. Необходимость очевидна, так как для любых случайных величин из их независимости следует их некоррелированность.

Докажем достаточность. Пусть D12 = 0. Рассмотрим квадра-

тичную форму Qp ( x) = ( x −μ)D1 ( x −μ)

в показателе экспонен-

ты плотности

np ( x; μ, D).

Из свойств блочных матриц следует,

что D1

 

D1

0

 

 

D1

 

=

 

D1

 

D1

 

. Тогда

 

 

 

 

 

 

 

 

 

 

=

11

D1

,

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

11

 

 

22

 

 

 

 

 

 

 

 

 

22

 

 

 

 

 

 

 

 

 

 

 

D1

0

x

−μ

Q

 

(x)=

(x −μ )

 

, (x

−μ

 

)

p

 

 

11

D1

1

1 =

 

 

 

1

1

 

 

2

 

 

 

2

 

 

0

x2 −μ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

22

 

 

=(x1 −μ1 )D111 (x1 −μ1 )+(x2 −μ2 )D221 (x2 −μ2 )=

=Qr (x1 )+Qm (x2 ).

Врезультате

11

n

p

( x;μ, D) =

 

1

 

 

 

exp

1

Q

( x )

1

Q

( x

)

×

 

 

 

 

 

 

 

 

 

 

 

 

(

2π)r

 

 

 

 

 

2

r

1

2

m

2

 

 

 

 

1

 

 

 

D11

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

×

 

 

 

 

 

= nr ( x1;μ1, D11 ) nm ( x2 ;μ2 , D22 ).

 

 

 

(

2π)m

 

D22

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, совместная нормальная плотность есть произведение маргинальных плотностей ξ1, ξ2 (что следует из теоремы 1.2).

Следствиедоказано.

Покажем, что линейное преобразование нормального вектора сохраняет свойство нормальности.

Пусть ξ~ N (μ, D). Рассмотрим η= Cξ, где C – невырожденная матрица размеров ( p × p) . Ранее уже было показано, как

преобразуются средние и матрицы ковариаций при линейных преобразованиях.

Якобиан преобразования x = C1 y есть

 

C1

 

= ± 1/

 

C

 

2 = ±

 

 

D

 

1/ 2

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

CDC

 

1/ 2

 

 

 

 

 

 

 

 

 

 

Согласнообщимправилампреобразованияплотностейполучим

fη (y)= np (C1 y;μ, D) mod

 

 

 

 

 

1

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

C1

 

=

 

 

 

CDξC

 

 

×

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

(

2π)

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

×exp

1

(C1 y −μ)Dξ1 (C1 y −μ)

=

 

1

 

 

 

 

CDξC

 

 

×

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

(

2π)

p

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

×exp

1

(C1( y Cμ))Dξ1 (C1 (y

Cμ))

=

 

 

1

 

 

×

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

(

2π)p

 

CDξC

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

12

 

1

( y Cμ)(CDξC)

1

 

= np ( y;Cμ;CDξC).

×exp

 

 

( y Cμ)

2

 

 

 

 

 

 

Здесь использовано равенство (C1)′ = (C)1.

Рассмотрим вопрос об условных распределениях нормального вектора. Пусть, как при формулировке теоремы 1.2, осуществлено разбиение:

 

 

ξ

 

 

 

 

 

μ

 

, D =

D

D

 

 

ξ =

ξ

1

, μ =

 

μ

1

 

 

 

11

12

.

 

 

 

2

 

 

 

 

 

2

 

 

 

 

 

D

D

 

 

 

 

 

 

 

 

 

 

 

 

 

 

21

22

 

Рассмотрим линейное преобразование

 

 

 

 

 

 

η

 

 

I

 

 

D

D

1 ξ

 

 

 

η=

 

 

1

 

=

r

 

 

 

1

= Aξ.

(1.8)

 

 

 

 

 

 

 

 

 

12

22

 

 

η2

 

0

 

 

 

 

 

 

 

 

ξ2

 

 

 

 

 

 

 

 

 

 

 

Im

 

 

 

Согласно только что доказанному свойству, случайный вектор η имеет нормальное распределение с параметрами

 

Eη=

μ − D D1μ

2

 

; D

=

D

 

D D1D

 

0

 

.

(1.9)

 

 

 

1

12

22

 

 

11

12 22 21

 

 

 

 

 

 

 

μ

 

 

 

 

η

 

 

 

0

 

D

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

22

 

 

 

Следовательно,

векторы

η1, η2 независимы.

Обозначим

B1 =

= D

D D1D ,

 

ν = μ − D D1μ

2

.

Тогда плотности векторов

11

12

 

22

21

 

 

1

1

 

12

22

 

 

 

 

 

 

 

η1, η2 есть nr ( y1; ν1, B1), nm ( y2 ; μ2 , D22 ) соответственно.

 

 

Следствие 1.3. Условное распределение ξ1

при фиксирован-

ном векторе

 

ξ2 = x2

является нормальным с параметрами

μy =

= μ + D D1

( x −μ

2

), D

y

= D D D1D .

 

 

 

 

 

1

12

22

 

2

 

 

 

 

11

 

12

22 21

 

 

 

 

 

Доказательство. Согласно определению условной плотности,

13

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x1

 

 

 

 

 

 

 

 

(x1

 

= x2 ) =

f

 

( x)

 

 

 

np x

;μ,

D

 

 

 

 

 

fξ

ξ2

 

ξ

 

 

 

=

 

 

 

2

 

 

.

(1.10)

 

 

 

 

fξ2 ( x2 )

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

nm ( x2 2 , D22 )

 

С другой стороны, совместную плотность вектора ξ в числи-

теле

(1.10)

можно

получить

 

 

из

совместной

плотности

y

 

 

ν

 

 

вектора

 

η

 

преобразованием

переменных

np

1

;

 

1

, Dη

 

 

 

y2

 

μ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y = Ax,

где матрица A определена в (1.8). Очевидно, что якобиан

этого преобразования равен 1 и

y = x D

D1x ,

y

2

= x . В силу

независимости η1, η2 получим

 

1

 

 

1

12

12

2

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x1

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

np x

 

;μ, D

= nr (x1 D12 D22 x2 1, B1 ) nm ( x2 2 , D22 ).

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Подставляя это выражение в (1.10) и сокращая одинаковые сомножители nm (x2 ; μ2 , D22 ), после очевидных преобразований получим требуемый результат.

Определение 1.2. Условное среднее μ y = μ1 + D12 D221 ( x2 − μ2 )

называется функцией регрессии ξ на

x , а матрица

D D1

1

2

 

 

 

12

22

матрицей коэффициентов регрессии.

 

 

 

 

 

 

Определение 1.3. Элементы bij , i,

j =

 

 

условной матрицы

1, r

ковариаций B1 называются частными ковариациями ξi

и ξj

при

фиксированном векторе ξ2 = x2 , а γij =

bij

 

bij – соответственно

biibjj

 

 

 

 

 

 

частными коэффициентами корреляции.

Рассмотрим еще один показатель, характеризующий зависимости между компонентами нормальных векторов. Для простоты будем полагать μ = 0, что не ограничивает общности резуль-

татов.

14

Положим, что для ξ, D осуществлены предыдущие разбиения (см.

теорему 1.2). Пусть ξi – одна из компонент подвектора ξ1, i =

1, r

.

Из

следствия 1.3 очевидно,

что распределение ξi

при условии ξ2 = x2

является

нормальным

с E (ξi

 

x2 ) = β′i x2 ,

D(ξi

 

x2 ) = bii ,

где

 

 

β′i = di D221,

di i-ястрокаматрицы D12

(напомним, что μ = 0 ).

 

Рассмотрим случайную величину

αi =β′iξ2 , которая является

линейной комбинацией компонент ξ2

(не смешивать αi с величи-

ной β′i x2, являющейся числом). Величина αi обладает важными свойствами, которые приведены в следующей теореме.

m

 

 

Теорема 1.4. Пусть

– произвольная линейная

γ jξr+ j = γ ξ2

j=1

 

 

комбинация компонент ξ2.

Тогда справедливы следующие утвер-

ждения:

 

 

1.D(ξi −αi ) = minγ D(ξi − γ′ξ2 ).

2.ρ(ξi , αi ) = maxγ ρ(ξi , γ′ξ2 ).

Здесь D, ρ – символы дисперсии и коэффициента корреляции со-

ответственно.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доказательство. Докажем только утверждение 1.

 

 

Из независимости векторов η1, η2

 

(см. (1.8), (1.9)) следует, что

(ξ

i

−α

)

и ξ

2

независимы. Отсюда E

(

ξ

i

−β′ξ

ξ′ = 0. Так как для

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 2 )

2

любой скалярной случайной величины

 

z

 

справедливо равенство

Ez

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= Ezz , получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D(ξi − γ′ξ2 )= E (ξi −βi′ξ2 + (βi′ − γ′)ξ2 )(ξi −βi′ξ2 + (βi′ − γ′)ξ2 )=

= E

(

ξ

i

−β′

ξ

2 )

2 +

(

β

i

− γ

Eξ

2

ξ′

(

β

i

− γ

)

=

 

 

 

 

 

 

 

i

 

 

 

 

)

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

15

= D(ξi −αi ) +(βi − γ)D22 (βi − γ).

Так как матрица D22 положительно определена, то минимум достигается при γ =βi . Что требовалось доказать.

Значение дисперсии D(ξi −αi ) легко вычисляется с учетом независимости (ξi −αi ) и ξ2:

D(ξi −βi′ξ2 )= E (ξi −βi′ξ2 )(ξi −βi′ξ2 )= E (ξi −βi′ξ2 )ξi =

(1.11)

 

 

 

 

 

 

 

 

= σ

ii

d D1d .

 

 

 

 

 

 

 

i 22 i

 

 

 

 

 

 

Аналогично можно вычислить ρ(ξi , αi ):

 

 

 

ρ(ξi , αi ) =

 

di D221di

, i =

 

.

(1.12)

 

 

 

1, r

 

 

 

 

 

 

 

 

σii

 

Здесь σii

– дисперсия ξi ,

т. е. элемент исходной матрицы D

(или D11 ).

Определение 1.4. Максимальное значение коэффициента корреляции между ξi и линейной комбинацией β′iξ2 называется мно-

жественным коэффициентом корреляции между ξi и ξ2. Обозначим множественный коэффициент корреляции через

Ri,m. Из (1.11) и (1.12) можно получить соотношение между условной и безусловной дисперсиями bii и σii

bii = (1 Ri2,m )σii ,

(1.13)

которое показывает, что никакая условная дисперсия ξi не может

быть больше ее безусловной дисперсии.

Определенные выше параметры зависимости между компонентами нормального вектора широко используются при статистиче-

16

ском анализе результатов научных и инженерных экспериментов, поэтому оценка этих параметров играет важную роль.

Теорема 1.5. Оценками максимального правдоподобия частных ковариаций и коэффициентов корреляции, условных математических ожиданий, множественных коэффициентов корреляции являются статистики, которые получают подстановкой оценок максимального правдоподобия (1.6) исходных параметров μ, D в

выражения, определяющие эти параметры.

Доказательство теоремы следует из свойств оценок максимального правдоподобия (см. приложение).

2.СТАТИСТИЧЕСКИЕ ВЫВОДЫ О ВЕКТОРЕ СРЕДНИХ

2.1.Доверительное оценивание и проверка гипотез при известной матрице ковариаций

Вразд. 1 были найдены точечные оценки максимального правдоподобия для μ. Для получения вывода интервальных оценок и

методов проверок гипотез о векторе средних докажем несколько вспомогательных утверждений.

Теорема 2.1. Обозначим

ξ1,,ξn – независимые векторы,

ξi ~ N (μi , D) . Пусть C ={cij }

– ортогональная матрица размеров

(n ×n) .

Справедливы следующие утверждения:

1. ηj = C jk ξk , j =1, n – независимые векторы и

n

ηj ~ N (νj , D), νj = C jk μk . k=1

n n

2.ξiξ′i = ηiη′i .

i=1 i=1

Доказательство. Нормальность векторов ηi следует из того, что линейное преобразование нормальных векторов приводит к нормальному же вектору. Вид νj получается непосредст-

венно. Матрица ковариаций ηi , ηj будет выглядеть так:

17

E (ηi − νi )(ηj − νj )= E

n

Cik (ξk −μk )

n

C jl (ξl −μl ) =

 

 

 

 

k =1

 

 

 

l=1

 

 

=

n

Cik C jl E (ξk −μk )(ξl −μl )=

n

Cik C jk D =

D, i = j;

 

k,l

 

 

 

 

k =1

 

0,

i j.

 

 

 

 

 

 

 

 

Аналогично докажем утверждение 2:

 

 

 

 

n

 

n n

 

n

 

n

 

 

n

 

 

ηi ηi′ =

Cik Cil ξk ξl′ =

 

Cik Cil

ξk ξl′ =

ξk ξ′k ,

 

i=1

i=1 k,l

 

k,l

i=1

 

 

k =1

что и требовалось доказать.

Применим доказанную теорему к анализу распределения оценок среднего и матрицы ковариаций.

Из (1.6) нетрудно получить

D =

1 n

 

 

 

 

 

 

1 n

 

 

 

n

 

 

n

 

 

 

(ξ

k

−μ)(ξ

k

−μ)′ =

 

 

ξ

k

ξ′

2

ξ

k

μ + μμ =

 

 

 

 

 

 

 

 

n k =1

 

 

 

n k =1

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

k =1

 

 

k =1

 

1

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

ξ

k

ξ′ −μμ′.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n k =1

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Можно доказать, что существует ортогональная матрица C0 ,

у которой элементы последней строки равны C0

=

1

,

j =

 

n.

1,

 

nj

 

n

 

 

 

 

 

 

 

 

 

 

У такой матрицы сумма элементов любой строки (кроме последней) равна нулю. Докажите это самостоятельно.

n

Рассмотрим преобразование ηi = Cij0ξj , i =1, n. Тогда ηn =

j=1

=1 ξj = nμ. В результате имеем

n j=1n

n

nD = ξk ξ′k (

k =1

18

nμ)(

nμ)

n

n1

= ηiη′i −ηnη′n = ηiη′i .

 

 

i=1

i=1

Так как векторы ηi – независимы, то отсюда следует, что μ и

D независимы. Очевидно, что Eμ = E 1n ηn = μ, т. е. μ – несме-

щенная оценка μ . Из теоремы 2.1 получаем μ ~ N μ, 1n D .

Аналогично при i < n находим

 

n

 

n

 

Eηi = Cij0 Eξj Cij0 = 0.

j=1

j=1

 

Тогда

 

1 n1

 

 

 

 

 

 

 

 

n 1

ED =

 

 

 

Eηi ηi′ =

 

 

D.

 

n i=1

 

n

 

 

 

 

 

Оценка D смещена, поэтому выборочной матрицей ковариаций обычно называют матрицу

 

1

n

 

S =

(ξk −μ)(ξk −μ),

(2.1)

 

 

n 1 i=1

 

являющуюся несмещенной оценкой D.

 

Получим доверительное множество для μ в том случае,

когда

матрица D известна. Вывод основан на доказанном в пособии [1] утверждении о распределении некоторой квадратичной формы от коор-

динат нормального вектора, состоящем в том, что если ξ~ N( μ, D),

то Q =(ξ−μ)D1(ξ−μ) имеетраспределение χ2 ( p).

 

 

 

 

Ранее было доказано, что μ ~ N( μ,

 

1

D). Тогда из утвержде-

 

 

 

 

 

 

 

 

 

 

 

n

 

 

1

 

 

 

 

 

 

 

 

 

 

 

1

 

 

ния следует,

что квадратичная форма

Q = (μ −μ) (

 

D)

 

(μ −μ) =

n

 

1

(μ −μ) ~ χ

2

( p).

Отсюда получаем, что доверитель-

= n(μ −μ) D

 

 

 

ное множество Ω(μ) для параметра μ имеет вид

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

(2.2)

 

 

 

 

 

 

 

 

 

 

 

 

Ω(μ) = μ

 

n(μ −μ) D (μ −μ) < zγ ,

 

 

 

 

 

 

 

 

 

19

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где zγ – квантиль уровня γ распределения χ2 ( p).

Область (2.2) является внутренностью эллипсоида с центром в точке μ.

Аналогично можно применять статистику Q при проверке статистических гипотез о значениях параметра μ.

Пусть проверяется гипотеза

 

 

 

 

 

 

 

H0 :

μ = μ0 ,

 

 

(2.3)

где μ0 – некоторый числовой вектор.

 

 

 

 

Тогдакритическаяобластьразмера α дляпроверки(2.3) имеетвид

 

 

 

 

 

n(μ −μ0 )D

1

 

 

 

 

 

 

 

 

 

 

 

 

 

Xкр = μ

 

 

(μ −μ0 ) > z1−α ,

 

 

 

 

где

z

– квантиль распределения χ2 ( p).

 

 

 

1−α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пусть имеются две выборки ξ1,ξ2 ,ξ3 ,...,ξn и η1, η2 ,η3 ,...,ηm ,

причем

ξi ~ N(μ1, D),

 

 

ηj ~

N(μ2 , D), матрица D известна. По

таким данным требуется проверить гипотезу

 

 

 

 

 

 

 

 

 

H0 : μ1 = μ2 .

 

 

(2.4)

 

Критическая область размера α для проверки (2.4) имеет вид

 

 

 

 

 

 

 

mn

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xкр = μ1, μ2

 

 

 

 

 

 

(μ1 −μ2 ) D

 

(μ1

−μ2 ) > z1−α ,

 

 

m + n

 

 

 

 

 

 

 

 

 

 

 

 

 

где

z

– квантиль распределения χ2 ( p).

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Определение 2.1. Величина δ, определяемая равенством

δ = (μ1 −μ2 )D1(μ1 −μ2 ),

называется расстоянием Махаланобиса между двумя нормальными совокупностями N(μ1, D) и N(μ2 , D).

20

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]