Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Статистический анализ данных в геологии. Кн. 2

.pdf
Скачиваний:
0
Добавлен:
12.11.2023
Размер:
19.38 Mб
Скачать

раничения. Простейшее из них — это предположить число фак­ торов равным некоторому априори заданному числу р. К сожа­ лению, в большинстве геологических задач число факторов неизвестно заранее и может быть даже важным объектом ис­ следования. Другой путь — задать границу либо для [ЛЛ] [А*]', либо для [vare//] и затем извлекать факторы до тех пор, пока этот предел не будет достигнут.

Мы будем исследовать две из многих схем факторного ана­ лиза, начав с нахождения собственных значений и собственных векторов корреляционной матрицы и затем отбрасывая менее важные из них. Это не приводит к «истинному» факторному решению, однако математика слишком прямолинейна, и это приближение используется всюду в науках о Земле, в которых применяется факторный анализ. Мы приведем также краткий обзор метода максимального правдоподобия, который дает «истинные» факторы. К сожалению, соответствующие матема­ тические процедуры слишком сложны, чтобы их здесь описывать.

Хотя первый из рассматриваемых методов факторного ана­ лиза использует главные компоненты, все же вычисление соб­ ственных значений и собственных векторов в этом случае раз­ личается с двух точек зрения. Во-первых, собственные значения вычисляются для стандартизованной ковариационной, или кор­ реляционной, матрицы. Это предполагает не только то, что все переменные имеют одинаковые веса, но также позволяет нам считать векторы главных компонент факторами. Во-вторых, собственные векторы, вычисленные в так называемой нормали­ зованной форме (см. стр. 135), преобразуются так, что они определяют векторы, длины которых пропорциональны тем вариациям, которые они представляют. Эти преобразованные собственные векторы являются факторами множества данных.

Преобразование нормализованных, или единичных, собствен­ ных векторов в факторы не нарушает направлений векторов и не изменяет их длины. Это делается умножением каждого эле­ мента нормализованного собственного вектора на соответст­ вующее сингулярное значение, т.е. квадратный корень из соот­ ветствующего собственного значения. Полученный фактор есть вектор, взвешенный пропорционально вкладу в общую диспер­ сию, которую он представляет.

Влияние стандартизации обсуждалось в одном из предшест­ вующих разделов, посвященных методу главных компонент. Здесь мы продемонстрируем его, используя данные, представ­ ленные на рис. 6.33. Необработанная ковариационная матрица имеет вид

' 6,08 11,08'

.11,08 27,54.

292

2 0

15

 

 

 

 

• •

 

%

 

10

 

 

 

5- О

 

1

 

1

 

1

 

20

 

 

 

 

 

 

 

 

 

 

 

°С

5

 

у Ю

15

 

 

 

 

 

 

 

 

 

 

 

Рис. 6.33. Множество данных по стан­

 

Рис. 6.34.

Данные

рис.

6.33

после

дартизации. Необработанные

 

данные

 

 

 

стандартизации.

 

имеют средние значения Хг = 5 и Х2=

 

О ни и м ею т

н улевы е

с р ед н и е зн ачен и я

 

 

 

= 10

 

 

 

 

 

и е д и н и ч н о е

ст а н д а р т н о е

откл он ени е.

 

 

 

 

 

 

 

 

 

 

О тм ети м ,

что

о б л а ст и зн ачен ии

о б е и х

 

 

 

 

 

 

 

 

 

 

перем ен н ы х

о д и н ак ов ы

 

и

следующие

собственные векторы

собственные

 

значения:

собственный

вектор

1 =

 

0,39"

собственное

значение

32,23,

или

96%;

 

 

 

 

 

0,92

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,92

 

 

 

 

 

 

 

 

 

собственный

вектор

11 =

 

собственное

значение

1,39,

 

 

 

 

 

 

 

 

 

 

 

0,39 J’

 

 

вычитая

средние

или 4%. Если эти данные стандартизовать,

и

осуществляя

деление

на

стандартизованные

отклонения

(рис. 6.34), то ковариационная

 

(или корреляционная)

матрица

стандартизированных данных будет иметь вид

 

 

 

 

 

 

 

 

 

 

 

 

'

1,00

 

0,86 '

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

. 0,86 1,00.

 

 

 

 

 

 

 

 

 

Ее собственные векторы и собственные значения:

 

 

 

 

,

.

вектор

т

10,7071

 

собственное

значение

1,86,

собственный

1 =

! 0,707

 

пли 93%;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-0,707' собственное

 

 

 

 

 

собственный

вектор

11 =

 

 

значение

0,14,

или 7%.

 

 

 

 

 

 

0,707%

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

[£/J

 

 

 

 

 

 

 

 

Матрица собственных векторов

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

' 0,707

-0,707

'

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.0,707

0,707.

 

 

 

 

 

 

 

293

и собственные значения, или, скорее, квадратные корни из них, определяют матрицу сингулярных значений

п

м

0,0

 

' 1,36

0,0

[Л] =

0,0

V O M

_

_ 0,0

0,37.

 

Собственные значения по формуле

(6.42)

можно преобразовать

в факторы [/4R] = [L/] [Л].

 

 

 

вектора в факторы

Преобразование

первого собственного

 

дает

 

0,707

1,86 '

"0,964'

фактор

1 =

0,707

1,86

0,964

 

 

Компоненты фактора

носят

название

факторных нагрузок.

Пели преобразование выполнено правильно, то сумма квадра­

тов факторных нагрузок будет равна

собственному

значению:

 

(0,964)2 + (0,964)2 = 1,86;

 

 

 

фактор II

' —0,707

0,14

'

Г -0,264

'

 

0,707

0,14

 

Н

0,264

 

 

 

 

 

 

1

*

 

Сумма квадратов факторных нагрузок также равна собст­

венному значению: (—0,264)2+ (0,264)2 = 0,14.

 

 

рнс. 6.35.

Эти два

фактора

графически

представлены на

Ориентации

факторов

такие же,

как

и

исходных

собственных

векк.ров, а их длина равна квадратным корням нз собственных значении. Собственные значения характеризуют относительный вклад каждого собственного вектора в суммарную дисперсию.

.Значения длины векторов, представляющих факторы, равны собственным значениям (точнее, квадратным корням из собст­ венных значений), поэтому факторы отражают также дисперсии (или. более точно, стандартные отклонения). Так как собствен­ ные векторы сначала нормализовались, а затем умножались на

Рис. 6.35. Графическое представление двух факторов для двумерных дан­ ных, изображенных на рис. 6.34

294

квадратный корень из собственных значений, то каждая фак­ торная нагрузка взвешена пропорционально квадратному кор­ ню из вклада в дисперсию, соответствующего данной перемен­ ной. В нашем примере первый фактор составляет примерно

1,86/2,00=93%

общей

дисперсии

наших

данных.

Из них

0,9642/ 1,86= 50%

соответствует переменной

1

и

0,9642/1,86 =

= 50% — переменной 2. Аналогично

второй

фактор

составляет

7% общей дисперсии,

причем —0,2642/0,14= 50% соответствует

переменной 1 и 0,2642/0,14= 50% — переменной

2.

Сто

процен­

тов изменчивости переменной 1 распределяется на два фактора, так же как и 100% изменчивости переменной 2. (Взаимность влияния этих дисперсий на два фактора — неизбежное следст­ вие работы с матрицей порядка 2x2. Это соотношение, вообще говоря, не имеет места для матриц более высоких порядков.)

Расположив факторные нагрузки в форме матрицы, мы по­

лучим матрицу факторных значений,

которая для данных

рис. 6,34 имеет вид

Факторы

 

 

 

 

I

II

Переменные

0,964

0,264 '

0,964

0,264 _•

 

Если возвести в квадрат элементы матрицы факторных зна­ чений и произвести суммирование по каждой переменной, то суммы вкладов переменных в факторы будут одинаковыми, т. е.

 

Факторы

 

Суммы

 

 

I

II

 

 

 

1

10,9642

—0,2642

1,00

 

Переменные 2

[ 0 9б42

 

_1,00

 

 

 

0,2642_

 

Эти суммы называются общностями, и их

принято

обозна­

чать hj2, где / — помер

переменной. Если

определить ш

факто­

ров из ковариационной

матрицы

порядка

m X

n i , то их

общно­

сти будут равны исходным дисперсиям. Так как мы используем стандартизированные переменные, то эти общности равны 1.00. Однако если извлечь меньше факторов, то общности будут меньше исходных дисперсий, н мы получим показатель эффек­

тивности приведенного

множества

факторов.

Например,

если

сохранить только один

фактор из

матрицы

порядка

2x2,

то

общности будут равны

AI2 = 0,S642

= 0,93, /г22 = 0,9642 = 0,93.

Та­

ким образом, сохранение только

одного

фактора

позволяет

учесть 93% дисперсии

первой переменной

и

93%

дисперсии

второй переменной.

Так как значения общностей зависят от числа сохраняемых факторов, то вопрос о последних ставит нас перед лицом одной

2 9 5

из важнейших

задач факторного

анализа — какое число фак­

торов должно

быть сохранено? К

сожалению, на этот вопрос

нет простого ответа, и его отсутствие является одним из самых серьезных возражений против факторного анализа. Психологиэкспериментаторы на ранней стадии развития факторного ана­ лиза решали эту задачу прямолинейно: они определяли столько факторов, сколько требовала проверяемая ими теория. Другой столь же приближенный способ состоит в том, что определяет­ ся только два или три фактора, так как это максимальное чис­ ло, которое можно изобразить графически на диаграмме рас­ сеяния, и любое увеличение числа факторов ведет к увеличению размерности пространства, в котором решается поставленная задача, в результате чего ее трудности заметно возрастают.

Некоторые исследователи советуют сохранять столько фак­ торов, сколько имеется собственных чисел, больших единицы. Иными словами, сохраняются все факторы, которые дают боль­ ший вклад в дисперсию, чем исходные стандартизированные переменные. В большинстве примеров лишь немногие факторы содержат большую часть вклада в дисперсию множества дан­ ных, и эта рекомендация оказывается полезной. Однако если исходные переменные оказываются слабо коррелированными или некоррелированными, половина или более факторов может иметь собственные значения, большие единицы. В результате не только получается очень большое число факторов, но и воз­ можно, что ни один из них не допускает никакой интерпрета­ ции. Если данные таковы, что факторный анализ к ним приме­ ним (т.е. наблюдаемые дисперсии возникли благодаря корре­ ляции между переменными и рассматриваемыми факторами), то лишь некоторые факторы дают большой процентный вклад в суммарную дисперсию и общности имеют высокие значения. Если для того чтобы учесть большую часть исходной диспер­ сии, требуется сохранение большого числа факторов или если значения общностей нескольких первых факторов низкие, то факторная модель чаще всего оказывается неподходящей.

Прежде чем переходить к рассмотрению следующей про­ цедуры факторного анализа, а именно вращению факторных осей для получения «простой структуры», применим изложен­ ные выше методы к рассмотренному примеру, Мы используем данные табл. 6.18 и сохраним два фактора, так как интуиция подсказывает нам, что в этом случае требуется только два фак­ тора, а именно факторы размера и формы. Матрица стандарти­

зированных дисперсий и ковариаций приведена

в табл. 6.25.

В табл. 6.26 дана матрица собственных векторов

или главных

компонент н приведены также соответствующие им собственные значения. Мы сохраним только первые два из них и преобра­ зуем их в факторы. С этой целью умножим нормализованные собственные векторы на квадратный корень из соответствую-

296

 

 

 

 

 

 

Т а б л и ц а

6 .2 5

 

Стандартизированные дисперсии и коэффициенты корреляции

 

 

 

для семи переменных, измеренных на 25 параллелепипедах,

 

 

 

указанных в

табл. 6.18 (приведена только нижняя

 

 

 

 

половина симметричной матрицы)

 

 

 

 

г ,

V.,

л;

 

х5

 

 

 

X,

1 . 0 0 0

 

 

 

 

 

 

 

V,

0 . 5 8 0

1 , 0 0 0

 

 

 

 

 

 

X ,

0 , 2 0 1

0 , 3 6 4

1 , 0 0 0

 

 

 

 

 

X ,

0 ,9 1 1

0 , 8 3 4

0 , 4 3 9

1 , 0 0 0

 

 

 

 

Х-,

0 , 2 8 3

0 , 1 6 6

— 0 , 7 0 4

0 , 1 6 3

1 , 0 0 0

 

 

 

Х й

0 , 2 8 7

0 ,2 6 1

— 0 ,6 8 1

0 , 2 0 2

0 , 9 9 0

1 , 0 0 0

 

 

х 7

— 0 , 5 3 3

— 0 , 6 0 9

— 0 , 6 4 9

— 0 , 6 7 6

0 , 4 2 7

0 , 3 5 7

1 , 0 0 0

 

 

 

 

 

 

Т а б л и ц а

6.26

Собственные значения и матрица собственных векторов для данных табл. 6.25 (сохранены лишь два собственных вектора

с собственными значениями, превосходящими 1,000)

 

В е к т о р

С о б с т в е н н о е з н а ­

В к л а д в д и с п е р ­

С у м м а в к л а д о в

 

 

ч е н и е

с и ю , %

в д и с п е р с и ю , :%

i

 

3,3946

48,4949

48,4949

II

 

2,8055

40,0783

88,5731

III

 

0,4373

6,2473

94,8204

IV

 

0,2779

3,9707

98,7911

V

 

0,6810

1,1565

99,9476

VI

 

0,0034

0,0487

99,9963

V II

 

0 0003

0,0037

100,0000

П е р е м е н ­

 

С о б с т в е н н ы й в е к т о р

 

 

 

1U

 

 

 

 

н а я

 

 

I V

 

V I

V I I

 

 

 

 

м

0,4053

—0,2929

—0,6674

0,0888

—0,2267

0,4098

—0,2782

V,

0,4316

—0,2224

0,6980

—0,0338

—0,4366

0,1443

—0,2540

М

0,3854

0,3559

0,1477

0,6276

0,5121

0,1875

—0,1081

Л'-'

0,4939

—0,2323

—0,1186

0,2103

—0,1054

—0,5878

0,5359

—0,1277

—0,5751

0.0294

0,1108

0,3890

—0,4232

—0,5562

X,

—0,0968

—0,5800

0,1743

—0,0061

0,3549

0,5003

0,4975

Xj

—0,4809

—0,1303

0,0176

0,7353

—0,4553

0,0332

0,0489

щих собственных значений, в результате чего получим факторные нагрузки. Матрица факторных нагрузок [/4я], имеющая в действительности порядок тХр, с целью экономии места представлена в следующем виде:

фактор I [0,747 0,795 0,710 0,910 —0,235 - -0,178 —0,886 фактор II 0,491 0,373 —0,596 0,389 0,963 0,971 0,218 ‘

2 9 7

Вектор общностей по всем переменным имеет вид

 

Л/2 == [0,798 0,771 0,860 0,979 0,983

0,976

0,833].

 

Остаточная дисперсия /-й переменной

(1,00—А,2) — единст­

венная компонента, ассоциированная с этой переменной.

Со­

ставляющие этой компоненты таковы:

 

 

 

[varе//] = [0,202 0,229 0,140 0,021 0,021

0,017

0,024 0,167].

Если для множества т переменных

приходится сохра­

нять т факторов, то исходную ковариационную

матрицу

[s2]

можно восстановить с помощью перемножения

всевозможных

пар факторных нагрузок и суммирования по факторам. Конеч­ но, если сохраняется р<Ст факторов, то исходную ковариацион­

ную матрицу точно воспроизвести

нельзя.

Получаемая

таким

образом оценка ковариации переменных /

и А имеет вид

$5* — я л

+ a i 2 а к2

+ ••• - г

aJp акр,

(6.55)

где Ctrl — нагрузка /-и

переменной

на фактор L Если

[А*]

матрица факторных нагрузок, то эквивалентная матричная за­ пись этой формулы имеет вид

[s2l = M ff]-H*]'*

если считать, что векторы факторных нагрузок являются столб­ цами матрицы. Стандартизированная матрица остаточных ко­ вариаций (пли остаточная корреляционная матрица) находит­ ся как разность двух матриц

[ З У = М - [ Н

(6.56)

Воспроизведенная и остаточная корреляционные матрицы для нашего примера даны в табл. 6.27. Остаточная матрица является мерой неспособности этих факторов учесть изменчи­ вость исходного множества данных.

Вращение факторов

Несмотря на то что факторный анализ позволяет умень­ шить число измерений в задаче, дать содержательную интер­ претацию факторов бывает не очень легко. Возможно, это ре­ зультат того, что положение р ортогональных факторных осей в ш-мерном пространстве определяется положением пг—р не­ нужных ортогональных осей в выборочном пространстве. Одна­ ко для описания наших данных достаточно только р факторных осей. Если исключить из рассмотрения излишние ортогональ­ ные оси, то оставшиеся факторные оси можно подвергнуть дополнительному вращению, которое может помочь в нахожде-

298

 

 

 

 

 

 

 

 

Т а б л и ц а 6.27

 

К ор р ел я ц и он н ая м ат р и ц а д л я д в у х ф а к т о р о в , п ол уч ен н ы х по д ан н ы м

о

п а р а л л ел еп и п е д а х , и

о с т ат оч н ая к ор ре л я ц и он н ая м а т р и ц а , в к отор ой

с о д е р ж а т с я к оэф ф и ц и ен ты к орреляци и , н еуч т ен н ы е

первы ми

д в у м я ф а к т о р а м и

 

(п р и в е де н ы

лиш ь

н и ж н и е п оловины си м м етр и ч н ы х

м а т р и ц )

 

 

X i

*2

 

Хя

*4

Х 5

Хв

К о р р е л я п л о н н а я м а т р и ц а

 

 

 

А'-

0

, / 9 3 0

 

 

 

 

 

 

V ,

0 ,7 7 6 6

0 ,7 7 1 1

 

 

 

 

Аз

0 ,2 3 7 9

0 ,3 4 2 6

0 , 8 5 9 6

 

 

 

А 4

0 ,8 7 0 4

0 , 8 6 8 5

0 , 4 1 4 3

0 ,9 7 9 4

 

 

А £.

0 ,2 9 6 9

0 ,1 7 1 8 — 0 , 7 4 1 3

0 ,1 6 0 6

0 ,9 8 3 3

 

А 6

0 ,3 4 3 4

0 ,2 2 0 1 — 0 , 7 0 5 7

0 ,2 1 3 7

0 ,9 7 7 8

0 ,9 7 5 6

а 7

— 0 ,5 5 4 6 — 0 , 6 2 3 3

— 0 , 7 5 9 4 -- 0 , 7 2 1 4

0 ,4 1 8 7

0 ,3 7 0 1

О ■: т ат о ч н а я ь.о р р е л я ц и о н н а я

м а т р и ц а

 

А-

0 ,2 0 1 7

0 , 2 2 8 9

 

 

 

 

А 2

— 0 , 1 9 6 3

0 ,1 4 0 4

 

 

 

А 3

•— 0 ,0 3 0 7

0 ,и 2 1 2

 

 

 

а 4

0 ,0 4 0 9 — 0 , 0 3 4 8

0 ,0 2 4 3

0 ,0 2 0 6

 

 

А-

— 0 ,0 1 3 5 — 0 , 0 0 6 0

0 ,0 3 7 1

0 ,0 0 2 4

0 ,0 1 6 7

 

А 6

— 0 ,0 5 6 9

0 , 0 4 0 9

0 ,0 2 5 2

-- 0 , 0 1 3 4

0 ,0 1 2 4

0 ,0 2 4 4

X?

0 ,0 2 1 4

0 ,0 1 4 6

0 , 1 1 0 5

0 ,0 1 5 9

0 ,0 0 8 5 — 0 ,0 1 2 9

нии наилучшего их расположения. Для этой цели можно ис­ пользовать разнообразные схемы вращения. Мы будем исполь­ зовать так называемый варимакс Кайзера, основой которого является изменение положения факторных осей до тех пор, пока проекции каждой переменной на факторные осп не ока­ жутся близкими либо к нулю, либо к их максимальным значе­ ниям. Иными словами, в результате применения этого метода факторные нагрузки оказываются близкими либо к нулю, либо к ±1. Обычно для каждого фактора мы получаем немного довольно больших значений факторных нагрузок и много не­ значимых нагрузок. В этом случае интерпретация в терминах исходных переменных проводится легко. Однако имеются слу­ чаи, когда вращение факторных осей не облегчает анализа и даже приводит к дальнейшему ухудшению результатов. Это связано либо с взаимной коррелированностью факторов, или указывает на то, что выбранная факторная модель оказывается плохой.

Метод варимакс сводится к максимизации дисперсии на­ грузок на факторы. Определим дисперсию s*2 нагрузок на k-vs фактор как

299

где, как и раньше, р — число факторов;

т — число

исходных

переменных; а,-р— нагрузка /'-й переменной на

р-й фактор;

h/ 2 — общность /'-й переменной. Функция,

которую

мы

хотим

максимизировать, имеет вид

 

 

 

 

 

 

 

 

(6.58)

Дисперсия вычисляется для факторных нагрузок а(Р, делен­

ных на соответствующие общности /г,2. Иными

словами,

рас­

сматривается только общая часть дисперсии по каждой пере­ менной и отбрасывается ее часть, соответствующая т—р ком­ понентам, необходимым для учета всех дисперсий каждой пере­ менной. Максимизация дисперсии приводит к увеличению ин­ тервала изменения факторных нагрузок, которые для того, что­ бы удовлетворить требованиям метода Кайзера, стремятся ли­ бо к своему экстремальному (положительному или отрица­ тельному) значению, либо к нулю.

Никакой простой аналитической схемы для метода варнмакс не существует. Обычно вращение факторных осей прово­ дится итеративным методом. Вращению подвергаются две оси, в то время как другие оси остаются неподвижными. После того как все оси подвергнуты вращению, процесс повторяется снова до тех пор, пока уменьшение дисперсии нагрузок на каждом шаге не станет ниже некоторого заранее заданного уровня.

Этот метод вращения лучше всего проиллюстрировать на примере. Мы сделаем попытку «почистить» факторы, получен­ ные для наших искусственно взятых данных по параллелепипе­ дам, применяя метод вращения к двум оставленным факторам. На ряс. 6.36 нагрузки семи исходных переменных на фактор I нанесены по отношению к нагрузкам на фактор II. Связывая построенные точки с началом координат, получаем диаграмму, на которой факторные нагрузки представлены как векторы. Ориентация векторов по отношению к факторным осям отра­ жает степень их корреляции с факторами. Длина каждого век­ тора пропорциональна общности переменной, которую этот век­ тор представляет. Если два фактора нанесены с полным учетом всех вариаций исходной переменной, то общность переменной равна единице и на диаграмме она будет лежать па окружно­ сти единичного радиуса. В этом примере все обшности высоки, поэтому все векторы, представляющие семь исходных перемен­ ных, лежат вблизи от единичной окружности.

Варнмаксное вращение изменяет факторные нагрузки, по­ этому исходные переменные имеют либо высокую положитель­

ную. либо отрицательную

корреляцию (приблизительно

±1)

с некоторым фактором или

корреляцию, близкую к

нулю.

На

рис. 6.37 представлены положения факторных осей

после

вра-

3 0 0

Рис. 6.36, Графическое представление нагрузок на два фактора для не­ обработанных данных по 25 случайным блокам.

И сх о д н ы е д ан н ы е д л я с е ­ ми п ер ем ен н ы х п р и в е д е ­ ны в табл . 6.18

Рис. 6.37. Графическое представление тех же на­ грузок после вращения по методу варимакс.

.И сп ользиваны д ан н ы е п о

25бл окам , п риведен ны е

втабл . 6.18

щения. Заметим, что относительное положение переменных не

изменяется при вращении; изменяются только их

положения

по отношению к факторным осям. Также заметим,

что длины

векторов остаются неизменными.

 

Соотношения между самими переменными также не изменя­ ются при вращении, хотя положение индивидуальных объектов в пространстве, определенном факторными осями, изменяется. На рис. 6.38 нанесены факторные метки, аналогично меткам