Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Многомерный статистический анализ (128

..pdf
Скачиваний:
4
Добавлен:
15.11.2022
Размер:
473.36 Кб
Скачать

Московский государственный технический университет имени Н.Э. Баумана

Г.Д. Карташов, В.И. Тимонин, Л.М. Будовская

МНОГОМЕРНЫЙ СТАТИСТИЧЕСКИЙ АНАЛИЗ

Методические указания к выполнению курсовой работы

М о с к в а Издательство МГТУ им. Н.Э. Баумана

2 0 0 7

УДК 519.2 ББК 22.172

К27

Рецензент В.Ю. Чуев

Карташов Г.Д., Тимонин В.И., Будовская Л.М.

К27 Многомерный статистический анализ: Методические указания к выполнению курсовой работы. – М.: Изд-во МГТУ им. Н.Э. Баумана, 2007. – 48 с.: ил.

Изложены основные понятия и методы статистического анализа многомерных результатов технических экспериментов. Приведены теоретические сведения о свойствах многомерных гауссовских распределений.

Длястудентовстаршихкурсовфакультетафундаментальныхнаук. Ил. 2. Библиогр. 5 назв.

УДК 519.2 ББК 22.172

♥ МГТУ им. Н.Э. Баумана, 2007

ВВЕДЕНИЕ

Основное внимание в пособии уделяется методам анализа зависимостей между многомерными величинами, наблюдаемыми в ходе эксперимента. Результатом эксперимента, рассматриваемого в пособии, является случайный вектор, распределенный по нормальному закону. Приводятся методы обработки статистических данных, наиболее часто используемые в промышленности и науке.

При усвоении материала (особенно в разд. 6) требуется определенный навык работы с матрицами. Предполагается также, что студенты знают такие базовые понятия, как несмещенность, состоятельность и эффективность точечных оценок неизвестных параметров; размер критерия, его критическая область и др.

Некоторые математические сведения, необходимые для понимания выкладок, содержатся в приложении. Для наглядного представления получаемых результатов рекомендуется пользоваться пакетами SAS или «STATISTICA», изучение которых входит в спецкурс «Статистические программные комплексы».

3

1. МНОГОМЕРНОЕ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ

1.1. Многомерная нормальная плотность

Часто результатом эксперимента является совокупность чисел, характеризующая некоторый исследуемый объект.

Например, при обследовании пациентов в больнице у них могут измерять температуру тела ( ξ1 ) и артериальное давление ( ξ2 ).

Ясно, что у различных пациентов пара ( ξ1, ξ2 ) принимает различные значения, поэтому с полным основанием можно говорить о случайном векторе ξ = (ξ1, ξ2 ).

Определение 1.1. Случайный вектор размерности p ξ = = (ξ1,ξ2 ,,ξp ) называется нормальным (гауссовским), если его совместная плотность распределения имеет вид

f (x ,, x

 

) =

 

 

1

 

 

 

exp

 

1

( x −μ)D1 ( x −μ)

,

(1.1)

 

 

 

 

 

 

 

 

 

1

p

 

 

(2π)

p / 2

 

D

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где x = (x1,, xp )

– вектор аргументов;

μ = (μ1,,μp )– некото-

рый числовой вектор; D – симметричная, положительно-опреде- ленная матрица; «'» – знак транспонирования; D – определитель

матрицы .

В дальнейшем всегда под вектором будем понимать векторстолбец. Кроме того, для краткости совместную плотность будем

обозначать f ( x). Запись в виде ξ~ N (μ, D) означает, что вектор

ξ имеет p-мерное нормальное распределение.

4

Теорема 1.1. Вектор μ состоит из математических ожиданий компонент вектора ξ, матрица D является матрицей ковариаций компонент ξ, т. е.

Eξ1

Eξ = Eξ2 = μ; D = E (ξ−μ)(ξ−μ),

(1.2)

Eξp

 

где Е – знак математического ожидания.

Доказательство. Пусть η – случайныйвектор, ξ = Bη+b – линейное преобразование η, где B – квадратная матрица размеров p × p; b – числовой вектор. Обозначим Dξ, Dη матрицы ко-

вариаций ξ, η. В пособии [1] показано, что векторы средних

μ = Eξ, ν = Eη и матрицы ковариаций Dξ,

Dη связаны соотно-

шениями

 

μ = Bν+b; Dξ = BDηB.

(1.3)

Матрица D из (1.2) – симметричная, положительно-определен-

ная, поэтому справедливо ее представление [2]

D = CΛC , где C

ортогональная матрица, составленная из собственных векторов матрицы D; Λ – диагональная матрица с собственными числами λi > 0 матрицы D поглавнойдиагонали. Рассмотримпреобразование

L( x ) = Λ1/ 2C( x −μ),

(1.4)

где Λ1/ 2 ={λij } , λij = 0, i j; λii =1/ λi , i =1, p.

Пусть η= L(ξ) – случайный вектор. Совместная плотность его

компонент ηi , i =1, p , определенная по общим правилам (см. приложение), равна

5

gη (y1,, yp )= fξ (L1 (y)) mod

 

CΛ1/ 2

 

=

 

 

 

 

 

1

 

 

×

 

 

 

 

 

 

 

 

 

 

(

 

 

 

 

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 π)p λi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

×exp

y′Λ1/ 2CD1CΛ1/ 2 y λi

=

 

 

 

 

 

 

 

×

 

 

2

 

 

(

2π)

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p

 

 

 

 

1

e

y j2

 

 

×exp

y′Λ1/ 2CCΛ1CCΛ1/ 2 y =

 

 

 

2

.

 

 

2

 

 

 

2π

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

Здесь при выводе этой формулы использованы свойства мат-

 

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

риц D и C :

 

 

D

 

= λi ; C

1

 

 

1

= CΛ

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= C ; D

 

 

 

 

 

 

C .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, компоненты ηi

 

являются независимыми стан-

дартными

 

нормальными

 

 

случайными

величинами с

Eηi = 0,

Dηi =1. Другими словами,

Eη= 0,

 

Dη = I p

 

– единичная матрица.

Тогда из (1.3), (1.4) получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Eξ = E (CΛ1/ 2η+μ) = μ; Dξ = CΛ1/ 2 IΛ1/ 2C′ = CΛC′ = D.

Теорема доказана.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 1.1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пусть

p = 2,

μ =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0, тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

1

 

 

1

 

 

 

 

 

 

 

σ11

 

σ12 .

 

 

 

f

 

 

( x

, x

) =

 

 

 

 

e2 xD

 

x , D =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ξ

1

2

 

 

2π

 

 

D

 

 

 

 

 

 

 

 

 

 

 

 

σ21

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ22

 

 

Заметим, что если λi

 

– собственные значения матрицы D, то

1– собственные значения матрицы D1.

λi

Рассмотрим линии

уровня квадратичной формы:

1

X =

X D

 

= C > 0 fξ ( x ) = const

и пусть e1, e2 – ортогональные единичные

собственные векторы матрицы D1.

6

 

 

X D1 X =

y2

y2

В новых координатах y1, y2

имеем

1

+

2

= C

 

 

 

 

 

λ1

λ2

эллипс с полуосями a = Cλ1 , b =

Cλ2

(рис. 1). Пусть λ1 > λ2.

Рис. 1

График плотности представлен на рис. 2.

Рис. 2

7

Получен колокол, растянутый в большей степени вдоль той оси, которая соответствует большему значению λ.

1.2. Оценивание параметров нормального распределения

Пусть ξ1, ξ2 ,, ξn – выборка из p-мерной нормальной сово-

купности, т. е. ξi ~ N (μ, D) , i =1, n. Основной задачей первичной статистической обработки является оценка вектора средних μ и

матрицы ковариаций D. Получим оценки методом максимального правдоподобия.

Функция правдоподобия имеет вид

n

 

 

1

 

 

 

 

 

 

 

1

 

 

1

 

 

L(ξ1,,ξn ;μ, D) =

 

 

 

 

 

 

exp

 

 

 

(ξi −μ)

D

 

(ξi −μ) .

(2π)

p / 2

 

D

 

 

2

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Обозначим A = D1

и сначала найдем оценки для μ и

A из

системы уравнений

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ln L

= 0;

 

ln L =

0.

 

 

 

 

(1.5)

 

 

∂μ

 

 

 

 

 

A

 

 

 

 

 

 

 

 

 

 

Учитывая правила дифференцирования функционалов по векторному или матричному аргументам (см. [1]), получим

ln L

 

 

 

 

np

 

n

 

 

 

1

n

 

 

 

=

 

 

+

ln

A

(ξi −μ)

A(ξi −μ)

=

 

 

 

 

 

 

∂μ

 

∂μ

2

2

 

 

 

2 i=1

 

 

 

 

 

 

 

= − n

A(ξi −μ)= A(nμ − n

 

)= 0.

 

 

 

 

ξ

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

1 n

Здесь ξ = n i=1 ξi . Так как матрица А невырождена, то решением уравнения является оценка μ = ξ.

8

Аналогично получаем

ln L = n (A1 )

1 (ξi −μ)(ξi −μ)

= 0 .

 

 

 

 

 

 

 

n

 

 

A

 

 

 

 

 

 

 

 

 

2

 

 

2 i=1

 

 

Отсюда (A)=

1n i=1

(ξi −μ)(ξi −μ)

1

 

.

 

 

 

 

n

 

 

 

 

 

Из свойств оценок максимального правдоподобия (см. приложение) следует, что оценка D имеет вид

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D =

 

(ξi −μ)(ξi −μ).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Обозначим элементы матрицы D через σij .

Тогда

 

 

 

 

 

 

 

 

 

1

 

n

 

 

 

 

 

 

 

1

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σij =

 

(ξki

 

i )(ξkj

 

 

j ) =

ξkiξkj

 

 

i

 

 

j .

 

 

 

 

ξ

ξ

ξ

ξ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n k =1

 

 

 

 

 

 

 

n k =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i-я компонента вектора

 

 

 

 

 

 

 

 

 

1 n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Здесь ξ

ki

ξ

k

;

 

ξ =

 

 

 

 

 

ξ

ki

оценка

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

n k =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

среднего μi

i-й компоненты вектора μ.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Сформулируем полученные результаты в виде теоремы.

 

Теорема 1.2. Оценками максимального правдоподобия для μ и

D являются статистики

D = 1 (ξk −μ)(ξk

−μ).

 

 

 

(1.6)

 

 

 

μ = ξ = 1 ξk ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

k =1

 

n

k =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В покомпонентной записи

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

μi

= ξi = 1 ξki ;

σij = 1 (ξki − ξi )(ξkj − ξj ).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

k =1

 

 

n

k =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

При анализе зависимостей между компонентами нормального вектора необходимо оценивать коэффициенты корреляции ρij .

9

Следствие 1.1. Оценки максимального правдоподобия коэф-

фициентов корреляции ρij = σij /

σiiσjj

имеют вид

 

 

 

ρij = rij =

 

σij

,

i j.

 

 

(1.7)

σiiσjj

 

 

 

 

 

 

 

 

Доказательство. Множество параметров ρ , i j

и σ

ii

= σ2

 

 

 

 

ij

 

i

взаимно однозначно отображается на множество параметров σij ,

i =1, p; j =1, p . Тогда утверждение следует из свойств оценок максимального правдоподобия (см. приложение).

1.3. Оценивание зависимости между компонентами нормального вектора

Подробный анализ связей между компонентами нормальных векторов проводят в связи с тем, что их маргинальные и условные распределения также являются нормальными. Кроме того, линейные комбинации компонент нормального вектора являются нормальными случайными величинами. В этом разделе рассмотрены основные свойства распределения нормального вектора (свойства, необходимые для дальнейшего изложения, приведены в приложении).

Пусть ξ~ N (μ, D). Разобьем ξ на два подвектора ξ1 размер-

ности r и ξ2 размерности m, т. е. r + m = p.

Всоответствии с этим разбиением получим представление для

μи D :

μ1

 

D11

D12

 

 

μ =

μ

2

 

; D = D D

 

,

 

 

 

21

22

 

 

где μ1 – вектор размерности r ; μ2 – вектор размерности m;

D11

матрица размеров r × r;

D22 – матрица размеров m ×m ;

D12

матрица размеров r ×m ;

 

 

D21 = D12 .

 

 

10

 

 

 

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]