Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Статистика и анализ геологических данных

..pdf
Скачиваний:
2
Добавлен:
12.11.2023
Размер:
21.12 Mб
Скачать

Хотя рассматриваемый метод факторного анализа и исполь­ зует главные компоненты, все же вычисление собственных зна­ чений и собственных векторов в этом случае различается с двух точек зрения. Во-первых, собственные значения вычисляются для стандартизированной ковариационной, или корреляционной, матрицы. (Факторный анализ, основан-ный на использовании корреляционной матрицы, носит название «R-метода». Символ R принят для обозначения множественной корреляции.) Это пред­ полагает не только то, что все переменные имеют одинаковые веса, но также позволяет нам считать векторы главных компо­ нент факторами. Во-вторых, собственные векторы должны быть вычислены в так называемой нормализованной форме, т. е. опре­ делять вектор единичной длины. Иногда -подпрограмма вычис­ ления собственных значений, приведенная в гл. 4, выдает норма­ лизованные собственные векторы, и весьма поучительно исследо­ вать, как это делается. Однако, прежде чем перейти к этой теме, остановимся вкратце на влиянии стандартизации данных на главные компоненты ковариационной матрицы.

С целью иллюстрации влияния стандартизации на фиг. 7.28 изображены исходные данные, а на фиг. 7.29 — стандартизиро­ ванные. Исходные данные имеют ковариационную матрицу

Г 6,08 11,08" [ 11,08 27,54

и следующие собственные векторы и собственные значения:

ГО,391

собственный вектор 1 = Q 92 собственное значение=32,23, или 96%

Г0,921

собственный вектор 1 1 = I Q

собственное значение= 1,39, или 4%

Ковариационная (или корреляционная) матрица стандартизиро­ ванных данных имеет вид

"1,00 0, 86'

0,86 1,00. .

Ее собственные векторы и собственные значения:

собственный вектор I =

ГО,7071

собственное значение= 1,86, или 93%

|_0,707J

 

Г -0,707

 

собственный вектор 11 =

[ 0,707 j собственное значение = 0,14, или 7%

Стандартизация позволяет привести данные к виду, при ко­ тором обе переменные имеют одинаковые области значений. В ре­ зультате стандартизации область значений переменной I удли­ няется по отношению к переменной II и происходит вращение главной оси на 45°. (В двумерных задачах вращение на 45° встречается всегда. Вообще же стандартизация m-мерных дан­ ных тоже приводит к вращению главных осей, но в отличие от двумерного случая угол, на который приходится поворачивать данную ось, не фиксируется.) Очевидно небольшое уменьшение дисперсии для первого собственного вектора. В больших матри­ цах собственные значения обычно распределены равномернее для стандартизированных данных, чем для необработанных. Если собственные значения необработанных данных сильно раз­ личаются, то влияние стандартизации еще заметнее.

Посмотрим теперь, как выполняется нормализация собствен­ ных векторов и почему она необходима для факторного анализа. Как указывалось в гл. 4, компоненты собственных векторов яв­ ляются решениями системы уравнений. Имеется бесконечное множество решений этой системы, так как компоненты вектора можно умножать на произвольную константу р и они все будут

удовлетворять системе уравнений. В

примере, рассмотренном

в гл. 4, мы произвольно выбрали р =

1, однако могли бы взять

и любое другое значение р. Чтобы нормализовать вектор, надо выбрать значение р таким образом, чтобы длина вектора была равна единице.

Предположим, что подпрограмма собственных значений вы­ дает ненормализованные собственные векторы, элементы кото­ рых мы назовем bjk, где j — номер переменной, а к — номер соб­ ственного вектора. Для нормализации вектора его компоненты возводят в квадрат, находят сумму квадратов, извлекают квад­ ратный корень из суммы и делят каждую компоненту вектора на полученное число. Если компоненты нормализованного вектора обозначить через Bjk, то эти операции можно записать следую­ щим образом:

B jk =

(7.38)

 

Стандартизация соответствует умножению каждого элемента вектора на константу, равную

(7.39)

Фиг. 7.30. Построение единичных собственных векторов.

а и Ь — нагрузки исходных переменных на собственный вектор исходных данных; Л и В — нагрузки исходных переменных на нормализованный собственный вектор.

На фиг. 7.30 показано, почему эта процедура приводит к еди­ ничному вектору. Предполагается, что исходные оси образовы­ вали прямые углы друг с другом, поэтому 'задача сводится к на­ хождению длины сторон прямоугольного треугольника, гипоте­ нуза которого равна единице. Если а — один из собственных векторов исходных данных, а Ь — другой, то квадрат гипотенузы равен с2 = а2+ Ь 2. Полагая с равным 1,00, для компонент норма­

лизованного собственного вектора

получаем

А = а/Уа2+ Ь 2 и

В = Ь/У а2+ Ь 2. Это рассуждение

допускает

непосредственное

обобщение на ш-мерный случай.

 

 

При выполнении факторного анализа целесообразно привести единичный, или нормализованный, собственный вектор к такому виду, при котором его длина будет равна величине собствен­ ного значения. Это преобразование не изменяет направления вектора, а изменяет лишь его длину. Для его выполнения каж­ дая компонента нормализованного собственного вектора умно­ жается на квадратный корень из соответствующего собствен­ ного значения. Полученный вектор называется фактором, его вес пропорционален вкладу в общую дисперсию. В качестве при­

мера приведем преобразование

первого

собственного вектора

множества данных, представленного на фиг. 7.29:

[0,707

1 /Ш П

[0,964]

фактор 1 = | д 707

|/ Т ^ б ] =

[ 0(9б4_Г

Компоненты фактора носят название факторных нагрузок. Если преобразование выполнено правильно, то сумма квадратов факторных нагрузок будет равна собственному значению:

(0,964)2+(0,964)2«1 ,8 6 .

—0,707

V 0 M 1

Г -0 ,2 6 4 ]

Фактор II =

V a i 4 j _

[ 0,264j

0,707

\

Сумма квадратов факторных нагрузок также равна собст­ венному значению:

(—0,264)2+(0.264)2 = 0,14.

Эти два фактора графически представлены на фиг. 7.31. Ори­ ентации факторов такие же, как и исходных собственных век­ торов, а их длина равна квадратным корням из собственных значений. Собственные значения характеризуют относительный вклад каждого собственного вектора в суммарную дисперсию. Значения длины векторов, представляющих факторы, равны соб­ ственным значениям (точнее квадратным корням из собствен­ ных значений), поэтому факторы отражают также дисперсии (или, более точно, стандартные отклонения). Действительно, так как собственные векторы сначала нормализовались, а затем ум­ ножались на квадратный корень из собственных значений, то каждая факторная нагрузка взвешена пропорционально квад­ ратному корню от вклада в дисперсию, соответствующего дан­ ной переменной. В нашем примере первый фактор составляет

примерно 1,86/2,00 = 93%

общей дисперсии наших данных. Из

них 0,9642/1,86 = 50%

соответствуют переменной 1 и

0,9642/1,86 = 50% — переменной 2. Аналогично второй фактор

составляет 7% общей дисперсии, причем

—0,2642/0,14 = 50%

соответствует переменной 1 и 0,2642/0,14 =

50% — переменной 2.

Сто процентов изменчивости переменной 1 распределяется на два фактора, так же как и 100% изменчивости переменной 2. (Взаимность влияния этих дисперсий на два фактора является

Фиг. 7.31. Графическое изображение двух факторов для двумерных данных, представленных на фиг. 7.29.

неизбежным следствием работы с матрицей порядка 2X2. Это соотношение, вообще говоря, не имеет места для матриц более высоких порядков.)

Расположив факторные нагрузки в форме матрицы, мы по­ лучим матрицу факторных значений, которая для данных фиг. 7.29 имеет вид

 

 

Факторы

 

 

I

II

Переменные

1

ГО,964

-0,2641

2

[О,964

0,264]

 

Если мы возведем в квадрат элементы матрицы факторных значений и произведем суммирование по каждой переменной, то суммы вкладов переменных в факторы будут одинаковыми, т. е.

Факторы Общности

I II

Переменные

1 ГО,9642

-0,2642]

Г1,001

2[о,9642

0.2642J

Ll.OOj

 

Эти суммы называются общностями, и их принято обозначать где j — номер переменной. Если мы извлечем m факторов

из ковариационной матрицы порядка m X m , то их общности бу­ дут равны исходным дисперсиям. Так как мы используем стан­ дартизированные переменные, то эти общности равны 1,00. Од­ нако если извлечь менее гп факторов, то общности будут меньше исходных дисперсий, и мы получим показатель эффективности приведенного множества факторов. Например, если сохранить только один фактор из матрицы порядка 2X2, то общности рав-

нялись бы hi = 0 ,964s = 0 ,9 3 ,

h i=0,9642= 0 ,9 3 .

Таким образом, сохранение только одного фактора позволяет учесть 93% дисперсии первой переменной и 93% дисперсии вто­ рой переменной.

Так как значения общностей зависят от числа сохраняемых факторов, то вопрос о последних ставит нас перед лицом одной из важнейших задач факторного анализа — какое число факто­ ров должно быть сохранено? К сожалению, на этот вопрос нет простого ответа, и его отсутствие является одним из самых серь­ езных возражений против факторного анализа. Психологи-экс­ периментаторы на ранней стадии развития факторного анализа решали эту задачу прямолинейно: они извлекали столько факто­ ров, сколько требовала проверяемая ими теория. Другой, столь же приближенный способ состоит в том, что извлекается только

два или три фактора, так как это максимальное число факто­ ров, которые можно изобразить графически на диаграмме рас­ сеяния, и любое увеличение числа факторов ведет к увеличению размерности пространства, в котором решается поставленная задача, в результате чего ее трудности заметно возрастают.

Некоторые исследователи советуют сохранять столько фак­ торов, сколько имеется собственных чисел, больших единицы. Иными словами, сохраняются все факторы, которые дают боль­ ший вклад в дисперсию, чем исходные стандартизированные пе­ ременные. В большинстве примеров лишь немногие факторы со­ держат большую часть вклада в дисперсию множества данных, и эта рекомендация оказывается полезной. Однако, если исход­ ные переменные оказываются слабо коррелированными или не­ коррелированными, половина или более факторов может иметь собственные значения, большие единицы. В результате получа­ ется не только очень большое число факторов, но и вероятность того, что ни один из них не допускает никакой интерпретации. Если данные таковы, что факторный анализ к ним применим (т. е. наблюдаемые дисперсии возникли благодаря корреляции между переменными и рассматриваемыми факторами), то лишь некоторые факторы дают большой процентный вклад в суммар­ ную дисперсию и общности имеют высокие значения. Если для того, чтобы учесть большую часть исходной дисперсии, требу­ ется сохранение большого числа факторов или если значения общностей нескольких первых факторов низкие, то факторная модель чаще всего оказывается неподходящей.

Прежде чем переходить к рассмотрению следующей проце­ дуры факторного анализа, а именно вращению факторных осей для получения «простой структуры», применим изложенные выше методы к уже рассмотренному примеру. Мы используем данные табл. 7.19 и сохраним два фактора, так как наша ин­ туиция подсказывает нам, что в этом случае требуется только два фактора, а именно факторы размера и формы. Матрица стандартизированных дисперсий и ковариаций приведена в табл. 7.24. В табл. 7.25 дана матрица собственных векторов или главных компонент и приведены также соответствующие им собственные значения. Мы сохраним только первые два из них и преобразуем их в факторы. С этой целью умножим нормали­ зованные собственные векторы на квадратный корень из соот­ ветствующих собственных значений, в результате чего получим

факторные

нагрузки. Матрица

факторных нагрузок [L], имею­

щая в действительности порядок т Х р ,

здесь с целью экономии

места представлена в сокращенном виде:

 

фактор

I

ГО,747

0,795

0,710

0,910

-0,235 -0,178

-0,8861

фактор

II

[о,491

0,373

-0,596

0,389

0,963 0,971

0,218J

Т а б л и ц а 7.24

Стандартизированные дисперсии и ковариации (коэффициенты корреляции) для семи переменных, измеренных на 25 параллелепипедах, указанных в табл. 7.17 (выписана лишь нижняя половина симметричной матрицы)

 

X!

X,

х3

х4

х6

хв

х7

XI

1,000

 

 

 

 

 

 

Х2

0,580

1,000

 

 

 

 

 

Х3

0,201

0,364

1,000

 

 

 

 

Х4

0,911

0,834

0,439

1,000

 

 

 

Хб

0,283

0,166

-0,704

0,163

1,000

 

 

Х6

0,287

0,261

-0,681

0,202

0,990

1,000

 

Х7

-0,533

-0,609

-0,649

-0,676

0,427

0,357

1,000

Т а б л и ц а 7.25

Собственные значения и матрица собственных векторов для данных табл. 7.24 (сохранены лишь два собственных вектора с собственными значениями, превосходящими 1 ,000)

Вект ор

Собственное

Сум м арная

Суммарная

(к у м у л я т и в ­

з н а ч ен и е

д и с п е р с и я , %

н а я ) д и с п е р с и я

, °/о

1

3,3946

4 8,4949

4 8,4949

 

II

2,8055

40

,0783

88,5731

 

III

0,4373

6,2473

9 4

,8204

 

IV

0,2779

3

,9707

98,7911

 

V

0,0810

1,1565

99,9476

 

VI

0,0034

0,0487

99,9963

 

VII

0,0003

0,0037

100

,0000

 

 

 

С о б с т в е н н ы й в е н т о р

 

 

Переменная I

II

III

IV

V

VI

VII

X ,

0,4053 - 0,2929 - 0,6674

0,0888 - 0,2267

0,4098 - 0,2782

Х2

0,4316 - 0,2224

0,6980 - 0,0338 - 0,4366

0 ,1443 - 0,2540

X,

0,3854

0,3559

0,1477

0,6276

0,5121

0 ,1875

- 0,1081

X ,

0,4939 - 0,2323 - 0,1186

0,2103 - 0,1054 - 0,5878

0,5359

Х 5

- 0,1277

- 0,5751

0,0294

0,1108

0,3890

- 0,4232

- 0 ,5562

Х 6

- 0,0968

- 0,5800

0,1743

- 0,0061

0,3549

0,5003

0 ,4975

Х 7

- 0,4809

- 0,1303

0,0176

0,7353 - 0,4553

0,0332

0,0489

Вектор общностей по всем переменным имеет вид

h?=- [0,798 0,771 0,860 0,979 0,983 0,976 0,833]. Остаточная дисперсия j -й переменной (1,00—h p является

единственной компонентой, ассоциированной с этой переменной. Составляющие этой компоненты таковы:

[0,202 0,229 0,140 0,021 0,017 0,024 0,167].

Если для множества m переменных приходится сохранять ш факторов, то исходную ковариационную матрицу [s2] можно вос­ становить с помощью перемножения всевозможных пар фак­ торных нагрузок и суммирования по факторам. Конечно, если сохраняется р < ш факторов, то исходную ковариационную мат­ рицу точно воспроизвести нельзя. Получаемая таким образом оценка ковариации переменных j и к имеет вид

sjk==

I ^j2^k2 I • • • “Wjp4p>

(7.40)

где /ji — нагрузка j -й переменной на первый фактор. Если [L] — матрица факторных нагрузок, то эквивалентная матричная за­ пись этой формулы имеет вид

[ s2] = [L] 1Ы',

(7.41)

если считать, что векторы факторных нагрузок являются столб­ цами матрицы. Стандартизированная матрица остаточных кова­ риаций (или остаточная корреляционная матрица) находится как разность двух матриц:

И - Р Ч - Ы У .

(7 .4 2 )

Вопроизведенная и остаточная корреляционные матрицы для нашего примера даны в табл. 7.26. Остаточная матрица является мерой неспособности этих факторов учесть изменчивость исход­ ного множества данных.

Вращение факторов. Несмотря на То что факторный анализ позволяет уменьшить число измерений в задаче до приемлемых размеров, дать содержательную интерпретацию факторов бы­ вает не очень легко. Возможно, это является результатом того, что положение р ортогональных факторных осей в т-мерном пространстве определяется положением ш—р ненужных орто­ гональных осей в выборочном пространстве. Однако для описа­ ния наших данных достаточно только р факторных осей. Если мы можем исключить из рассмотрения излишние ортогональные оси, то оставшиеся факторные оси можно подвергнуть дополни­ тельному вращению, которое может помочь в нахождении наи­ лучшего их расположения. Для этой цели можно использовать разнообразные схемы вращения. Мы будем использовать так называемый варимакс Кайзера, основой которого является изме­ нение положения факторных осей до тех пор, пока проекции каждой переменной на факторные оси не окажутся близкими либо к нулю, либо к их максимальным значениям. Иными сло­ вами, в результате применения этого метода факторные нагрузки оказываются либо близкими к нулю, либо к ±1 . Обычно для каждого фактора мы получаем немного довольно высоких зна­ чений факторных нагрузок и много незначимых нагрузок. В этом

Т а б л и ц а 7.26

Корреляционная матрица для двух факторов, полученных для данных по параллелепипедам, и остаточная корреляционная матрица, в которой содержатся коэффициенты корреляции между переменными, неучтенными первыми двумя факторами; приведены лишь нижние половины симметричных матриц

 

 

X.

х 2

Хз

х 4

Хз

х в

Х7

Корреляционная матрица

 

 

 

 

х ,

0

,7983

 

 

 

 

 

 

х 2

0,7766

0,7711

 

 

 

 

 

Х3

0,2379

0,3426

0,8596

 

 

 

 

X,

0,8704

0,8685

0,4143

0,9794

 

 

 

Х5 0,2969

0,1718 - 0,7413

0,1606

0,9833

 

 

Х6

0,3434

0,2201

- 0,7057

0,2157

0,9778

0,9756

 

Х7

- 0,5546

- 0,6233

- 0,7594

- 0,7214

0,4187

0,3701

0,8328

Остаточная

корреляционная

матрица

 

 

 

X,

0,2017

 

 

 

 

 

 

х .,

- 0,1963

0,2289

 

 

 

 

 

Хз - 0,0367

0,0212

0,1404

0,0206

 

 

 

Х4 0,0409 - 0,0348

0,0243

0,0167

 

 

Хз

- 0,0135

- 0,0060

0,0371

0,0024

0,0244

 

Х6 - 0,0569

0,0409

0,0252 - 0,0134

0,0124

 

х 7

0,0214

0,0146

0,1105

0,0459

0,0085 - 0,0129

0,1672

случае интерпретация в терминах исходных переменных прово­ дится легко. Однако имеются случаи, когда вращение фактор­ ных осей не облегчает анализа и даже приводит к дальнейшему ухудшению результатов. Это связано либо с взаимной коррелированностью факторов, или указывает на то, что выбранная факторная модель оказывается плохой.

Метод варимакс сводится к максимизации дисперсии нагру­

зок на факторы. Определим дисперсию

нагрузок на k-й фак­

тор как

 

где, как и раньше, р — число факторов, гп — число исходных пе­ ременных, /jP — нагрузка j -й переменной на р-й фактор и Щ

общность j -й переменной. Функция, которую мы хотим максими­ зировать, имеет вид

V = 2 S2k.

(7.44)

k=l

Дисперсия вычисляется для факторных нагрузок /jpj делен­ ных на соответствующие общности h2j. Иными словами, рас-

Фиг. 7.32. Графическое изображение нагрузок на два фактора, полученных по данным измерения 25 параллелепипедов.

Исходные данные для семи переменных указаны в табл. 7.19.

сматривается только общая часть дисперсии по каждой пере­ менной и отбрасывается ее часть, соответствующая ш—р компо­ нентам. Максимизация дисперсии приводит к увеличению интер­ вала изменения факторных нагрузок, которые для того, чтобы

удовлетворить

требованиям метода Кайзера,

стремятся либо

к своему экстремальному (положительному

или отрицатель­

ному) значению

или к нулю.

 

Никакой простой аналитической схемы для метода варимакс не существует. Обычно вращение факторных осей производится итеративным методом. Вращению подвергаются две оси, в то время как другие оси остаются неподвижными. После того как все оси будут подвергнуты вращению, процесс повторяется снова до тех пор, пока уменьшение дисперсии нагрузок на каждом шаге не станет ниже некоторого заранее заданного уровня.

Этот метод вращения лучше всего проиллюстрировать на примере. Мы сделаем попытку «почистить» факторы, получен­ ные для наших искусственно взятых данных, по параллелепипе­ дам, применяя метод вращения к двум оставленным факторам. На фиг. 7.32 представлены векторы, определенные нагрузками ис­ ходных переменных на факторные оси до вращения. На фиг. 7.33 указано положение переменных по отношению к факторным осям после выполнения вращения по методу Кайзера. Положе­ ние переменных по отношению друг к другу не изменилось, а из­ менилось только их положение по отношению к факторным осям. Заметим также, что длина векторов является функцией вкладов