Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Статистический анализ данных в геологии. Кн. 2

.pdf
Скачиваний:
0
Добавлен:
12.11.2023
Размер:
19.38 Mб
Скачать

Рис. 6.38. Графическое представление факторных меток данных по случайным блокам для первых двух факторов (I и II).

У к а за н о

п о л о ж е н и е п а р а л л ел еп и п е д о в по

от н о ш ен и ю к

д в у м ф ак тор ам .

П у н к ­

ти р н ой

линией п р едс тав л ен ы ф ак тор н ы е

оси после

в ращ ен и я по

м е т о д у

 

вари м ак с

 

 

главных компонент, представленным па рис. 6.27. Заметим, что два множества факторных осей представлены на диагр: мме, одно для факторных меток до вращения и другое — для меток после варимаксного вращения. Оказывается, что первый фак­ тор на самом деле отражает все размеры блоков, так что мень­ шие блоки располагаются слева, а большие — справа. Второй фактор разделяет формы одинакового размера на верхушке с уплощениями и удлинениями ниже относительно второго фак­ тора, В этом случае варимаксное вращение, возможно, не даст вклад в нашу интерпретацию факторов. Никакая из схем фак-

302

горных меток сильно не отличается от полученных методом главных компонент, хотя относительная важность первой н вто­ рой факторных осей меняются местами по сравнению с осями метода главных компонент.

Графическое изображение факторных меток (до вращения или после него) более сложно, чем в методе главных компо­ нент. Главные компоненты получаются в результате примене­ ния линейных преобразований, в то время как факторные зна­ чения представляют оценки вкладов различных факторов в каждое исходное наблюдение. Так как факторы находятся по тем же данным, вычисление факторных нагрузок — в некото­ ром роде циклический процесс, и потому результаты могут ока­ заться неоднозначными. Одно из наилучших изложений этого вопроса принадлежит Моррисону [51] (см. также процедуры, описываемые Харманом [22]). В психометрии факторы обычно представляют самостоятельный интерес, а факторные метки совсем не используются, поэтому вычислению факторных ме­ ток до сих пор уделялось мало внимания. Вероятно, фактор­ ные метки могут играть значительную роль в применениях фак­ торного анализа в геологии и потому важно уметь их вычис­

лять.

данные представлены

Предположим, что наши исходные

в виде матрицы [X] порядка пХт, где

п — число строк, или

наблюдений, а т — число столбцов, или переменных. По анало­

гии с МГК молено вычислить матрицу факторных меток

[5я],

умножая

матрицу исходных данных на

матрицу

факторных

нагрузок

[Ля], т.е. выполняя операцию [X] • [/4я] = [S*]. Если

мы сохраняем р факторов, то матрица

нагрузок [Ля]

будет

матрицей

порядка тХр, а

матрица факторных

значений

[SR]

будет иметь порядок

п х р.

Напомним, однако,

что

исходные

данные представлены

не только с помощью факторов, но и с

помощью

специфической переменной (см.

формулу

6.51), по­

этому матрица факторных значений, вычисленная таким обра­ зом, частично отражает ковариационную структуру заданного набора т переменных, а также структуру р факторов. Действи­ тельно. для того чтобы получить истинные факторные значе­ ния, специфическую компоненту исходных переменных необхо­ димо отделить. Это делается с помощью умножения указанного уравнения на матрицу, обратную матрице ковариаций:

(6.59)

Обратная матрица имеет порядок тХт, а матрица фактор­ ных нагрузок — порядок тХр, так что матрица «истинных»

факторных значений [S*] будет порядка пХр, что и следовало ожидать. В результате выполнения этой операции мы получаем

3(Г

факторные метки, свободные от специфической компоненты* имеющейся в каждом из исходных наблюдений.

Несмотря на простоту, этот метод нахождения факторных меток не используется на практике. Матрица [s2] может быть очень большой, в особенности в Q-методе факторного анализа, на котором мы остановимся ниже, и ее обращение может ока­ заться очень сложным. Однако, используя алгебраические соот­ ношения, можно обратить матрицу ковариаций порядка р Х р , построенную по факторам, и в результате получить тот же ре­ зультат. Обычно р бывает значительно меньше т, что позволяет упростить вычисления, хотя число матричных преобразований, при этом возрастает.

Вычислим сначала матрицу [S], умножая

матрицу

фактор­

ных нагрузок на ее транспозицию

 

 

[y4*]'.[y4*] = [S].

 

(6.60)

Так как транспонированная матрица [Л*]'

имеет

порядок

р Х т , то в результате умножения получится квадратная матри­ ца порядка р Х р . Эта матрица обращается и умножается на матрицу факторных нагрузок, что дает нам некоторую вспомо­ гательную матрицу [В]:

[4 * ].[S ]-‘= [B ],

(6.61)

которая затем используется для вычислений истинной матрицы факторных значений по формуле

[X]-[B] = [S*1.

(6.62)

Последовательностьопераций, приведенных в формулах

(6.60)—

(6.62), может быть представлена в терминахматрицы фактор­ ных нагрузок [Лй]:

[ X] - [ B] =

[ S* ] ;

 

) А ' ] - [ Л Л ' ] - 1=

\S R\.

(6.63)

IX].IA*].(IA«Y.[A«])-I =

IS«}.

 

Та же процедура используется для получения проекций фак­ торных значений на факторные оси до или после выполнения вращения по методу Кайзера. Отметим, что в матрице данных № представлены стандартизированные переменные, а не ис­ ходные, как в МГК. Это объясняется тем, что нагрузки в МГК вычисляются на основании ковариационной матрицы исходных данных, а факторные нагрузки — на основании стандартизиро­ ванной, или корреляционной, матрицы. Конечно, если бы мы стандартизировали данные, используемые в МГК, то вычисляли

304

бы факторные значения на главные оси для стандартизирован­ ных данных.

Теперь задача определения числа р сохраняемых факторов приобретает важное значение. Число факторов влияет на раз­ меры воспроизведенной и остаточной корреляционной матриц, на общности и на нагрузки специфической компоненты. Сами фак­ торные нагрузки при этом не изменяются. Это значит, что если по исходному множеству данных определить р равным 2, то факторные нагрузки I и II не изменятся при добавлении треть­ его фактора. Однако если подвергнуть вращению два фактора, то нагрузки могут сильно отличаться от нагрузок, полученных в случае, если бы мы определили их по тем же данным и подвергли вращению фактора. Вращение двух факторов при р = 2 не ограничено никакими условиями. Вращение этих двух факторов не может выполняться так же свободно при р = 3, из-за того что третья ортогональная ось накладывает ограничения, которые также должны быть согласованы с базисом /n-мерного прост­ ранства исходных переменных.

Схема вращения по методу Кайзера сохраняет ортогональ­ ность факторных осей. Несмотря на то что после вращения факторные оси не совпадают больше с главными осями эллип­ соида ковариаций, они образуют прямые углы друг с другом и, следовательно, некоррелированы. Существуют также схемы в) з- щеиия, в которых не требуется выполнение условия ортогона., J- ности, и факторные оси могут образовывать друг с другом углы, отличные от прямых. В некоторых случаях такие факторы мо­ гут быть лучше проинтерпретированы, так как часто нагрузки на них оказываются более высокими. Однако при использова­ нии этих схем возникают некоторые трудности теоретического характера. Во-первых, факторная модель основана на допуще­ нии, что наблюдаемая ковариационная матрица является результатом корреляции между т переменными и р взаимно не­ коррелированными факторами. Ослабление условия ортогональ­ ности ведет к возникновению взаимной корреляции между фак­ торами и, по-видимому, расширяет исходное множество допу­ щений. Если факторы оказываются коррелированными, то в силу существования взаимодействия между парами переменных и парами факторов соотношения между факторами и исходными переменными оказываются значительно более сложными, чем предполагает модель. Наличие взаимной корреляции наводит на мысль и о том, что, вероятно, неортогональные факторы сами по себе являются не чем иным как результатом корреляции между некоторыми «суперфакторами», еще более глубоко скры­ тыми от прямого наблюдения.

Первоначально факторный анализ предназначался для объ­ яснений взаимных связей между большим количеством перемен­ ных при небольшом числе факторов. Это сопровождалось тео­

20—115

305

рией, которая позволяла предсказать природу факторов, что облегчало их интерпретацию. Однако когда факторный анализ стал применяться в областях, в которых заранее никакой тео­ рии не существовало, то оказалось необходимым объяснить смысл получаемых факторов. Это не всегда возможно, так как теоретические основы факторного анализа слишком мало раз­ виты для того, чтобы позволить во всех случаях давать адекват­ ное объяснение явления. Однако вместо того чтобы признать свое поражение, факторный анализ рекомендует неортогональ­ ные схемы вращения, которые позволяют выразить факторы в терминах исходных переменных. Таким образом, исследователь проходит полный цикл от переменных к факторам (с целью сжатия данных) и затем снова к переменным (для интерпрета­ ции факторов).

Сказанное нельзя считать подтверждением того, что методы неортогональных факторов бесполезны: используя их, в некото­ рых случаях удалось получить хорошие результаты. Однако если обычные методы факторного анализа дают плохие резуль­ таты, новичок приходит к выводу о том, что они неприменимы к данной задаче или что о причинных связях между перемен­ ными известно слишком мало для того, чтобы дать интерпрета­ цию факторов. Неортогональные решения вносят элемент субъ­ ективности в уже и без того довольно произвольное решение задачи, которого надо тщательно избегать всем, за исключением экспертов. Интересующийся читатель может обратиться к книге Хармана [22] и ранней работе Тэрстоуна [63, гл. 15].

Рассмотрим теперь альтернативный /?-метод факторного ана­ лиза, или метод максимального правдоподобия, разработанный Лоули [39] и затем модифицированный многими исследователя­ ми. Он не касается проблем, возникающих в других факторных процедурах. Метод максимального правдоподобия преодолевает их благодаря введению некоторых начальных предположений о природе факторов п дисперсии специфического фактора. Фак­ торы предполагаются нормально распределенными с нулевыми средними и единичными дисперсиями. Элементы матрицы дис­ персий специфических факторов также предполагаются нор­ мально распределенными с нулевым средним п дисперсией [vare//]- Все факторы и элементы специфической дисперсии да­ лее предполагаются независимыми. Таким образом, наблюден­ ная матрица дисперсий и ковариаций [s2] предполагается до­ статочной для оценки [X], ненаблюдаемой матрицы дисперсий и ковариаций между факторами.

Получение оценок максимального правдоподобия факторных нагрузок требует математических выкладок все возрастающей сложности; в согласии с другими авторами мы проследим раз­ витие этих методов. Интересующихся читателей отсылаем к Лоули и Максвелу [40] и Йорескогу [32]; очень понятное и ко­

306

роткое изложение приводит Моррисон [51]. Мы ограничимся исследованием соответствующих вычислительных процедур в том виде, как они представлены в общедоступных фондах вы­ числительных программ.

Метод максимального правдоподобия исходит из того же модельного уравнения, что и другие формы факторного анализа:

[S2] = [Л*].[Д*]'+ [var 8//].

Однако оценки максимального правдоподобия для фактор­ ных нагрузок получаются итерационным методом. Чтобы пояс­ нить шаги итераций, введем обозначение [гад], означающее t-ю итерацию в аппроксимации специфической дисперсии /-и пере­ менной левой части после извлечения г-го фактора.

Начальные оценки нагрузок на первый фактор [ойд] осно­ вываются на элементах первого собственного вектора, извле­ ченного из наблюденной матрицы дисперсий и ковариации [sJ], Шкалы элементов собственного вектора выбраны таким обра­ зом, что сумма их квадратов равна первому собственному зна­ чению. Начальная аппроксимация дисперсии определяется по формуле

[ 0var tjj. , ] = diag ([s2] — [ Qa n \ [ йап \’)

(6.64)

(оператор diag означает, что сохраняются только диагональные элементы матрицы).

Далее вычисляются элементы матрицы

[ ovar елн I)-J/2([s2] — [0var е}). ,]) ]0var

(6.6-i)

п определяются первое собственное значение и первый собст­ венный вектор. Собственный вектор снова формируется так, чтобы сумма квадратов его элементов равнялась собственному значению; их мы обозначим [ifl/i]. Оценка матрицы факторных нагрузок в конце первой итерации определена формулой

 

[И?] = [ovar

<'6-66)

Оценка дисперсии в конце первой итерации находится по

формуле

 

 

 

 

[,var ajj.i] = diag ([s2] — [,4fl').

(6,67)

Это аналогично начальной оценке дисперсий, определенной

формулой

(6.64). Этот процесс повторяют, используя

новые

оцененные значения [vare//.i]. Итерации продолжают

до

тех

пор, пока [;4Ir] и [;+I4 I*] будут отличаться не более

чем

на

заданную

малую величину. Столбцы вектора [,4i*]— это оцен­

ки максимального правдоподобия нагрузок на первый фактор. Гипотезу о том, что данные содержат только один фактор,

так что

[s2]= [4f] \Ал]' + [var £)ji\,

20*

307

можно проверить с помощью критерия %2 методом, описанным Моррисоном [51]. Если же гипотезу отклоняют, то добавляют новые факторы. Их вычисляют методом итераций, аналогичным тому, которым вычисляли первый фактор. Отличие состоит в том, что процесс начинался с матрицы остатков [s2res]:

[S?e,] = [S2] - H f ] [И?]'.

Из этой матрицы определяют первые два собственных зна­ чения и собственных вектора. Собственный вектор [оа/2] явля­ ется начальной аппроксимацией второго фактора, который ком­ бинируется с вектором [,v4is] с целью образования матрицы

[о^2Л] = [zAiS ofl/2].

С помощью этой начальной оценки двухфакторной матрицы нагрузок получен аналог уравнения (6.64). Процесс, который был использован для оценки нагрузок на первый фактор, теперь применен для получения нагрузок на второй фактор. После того как устойчивая оценка найдена, проверяется ее значимость. В случае положительного результата процесс повторяется с целью определения третьего фактора, затем четвертого и так далее.

Может случиться, что все систематические источники измен­ чивости будут определены, и процесс выделения факторов за­ кончится.

Обобщение метода максимального правдоподобия выделения факторов очень напоминает аналогичный процесс факторного анализа, основанного на методе главных компонент. Факторы можно подвергнуть вращению с целью получения простой струк­ туры и даже до косых положений в поисках их осмысленной ин­ терпретации. Решения задачи априорного определения числа факторов р можно избежать, и факторы оказываются свобод­ ными от смещения, присущего факторам, определенным более простыми методами. К сожалению, основные аргументы крити­ ков факторного анализа применимы и здесь. Анализ очень по­ лезен в тех областях, где хорошо известны причинные отноше­ ния явлений. В геологгш, однако, положение такозо, что спра­ ведливые сегодня истины завтра оказываются дискредитиро­ ванными, и факторные интерпретации, по-видимому, находятся не в лучшем положении. Скептически настроенному читателю можно рекомендовать познакомиться с критикой применения факторного анализа в геологии Темпла [62] и с более обосно­ ванным отрицательным мнением Метеле и Рейхера [49], отно­ сящимся к применению факторного анализа в гидрогеологии.

Q-МЕТОД ФАКТОРНОГО АНАЛИЗА

Теперь обратимся к Q-методу факторного анализа, в котором основное внимание уделяется исключительно интерпретации от­ ношений множества данных внутри объекта, а не отношений между переменными (или ковариаций), используемых в ^-ме­ тоде факторного анализа. Тот факт, что эти два метода в сущ­ ности эквивалентны, не был замечен большинством исследова­ телей, что привело к созданию 'крайне запутанных и очень слож­ ных в вычислительном плане алгоритмов Q-метода.

Первый шаг Q-метода факторного анализа состоит в фор­ мировании матрицы сходства порядка п х п . Коэффициент кор­ реляции, однако, можно рассматривать как меру сходства, так как для его определения требуется вычисление дисперсий по переменным. Такая мера имеет очень непонятный смысл.

Наиболее широко применяемая мера сходства в Q-методе факторного анализа — это косинус 0, пропорциональный коэф­ фициенту сходства

т

X ikXJll

(6.68)

Эта мера выражает сходство между объектом с номером i п объектом с номером /, если рассматривать каждый из них как

вектор

в ш-мерном

пространстве. Косинус

0 — косинус угла

между

этими двумя

векторами. Заметим, что

это уравнение

очень напоминает по форме коэффициент корреляции (см. фор­ мулу 2.24); если переменные стандартизованы так, что их сред­ ние равны нулю и стандартные отклонения равны единице, то две меры будут численно совпадать.

Косинус 0 изменяется от 1,0 для двух объектов, векторные представления которых совпадают, до 0,0 для объектов, векто­ ры которых образуют угол в 90°. Так как косинус 0 измеряет только угловое сходство, то он чувствителен к относительным пропорциям переменных, а не к их абсолютным величинам. Ес­ ли, например, измерения были сделаны на двух брахиоподах, которые идентичны по виду, но не по размеру, то мера сходства cos0 между ними будет равна 1,0,

Матрицу сходства порядка пХп удобнее всего строить, вы­ числяя cos0 в два шага [33]. Сначала каждый элемент строки в матрице данных делится на квадратный корень из суммы

309

Значения косинусов 0, которые пропорциональны коэффициентам

нижняя половина симметрической

а

ь

С

d

е

f

К

а1 ,0 0 0 0

ь

0 , 8 9 9 3

1 , 0 0 0 0

1 , 0 0 0 0

 

 

 

 

С

0 , 5 9 9 2

0 , 8 5 5 4

 

 

 

 

а

0 , 5 0 9 6

0 , 7 9 1 6

0 , 9 9 2 0

1 ,0 0 0 0

 

 

 

е

0 , 7 4 0 6

0 , 9 5 2 0

0 , 9 6 5 8

0 ,9 2 8 4

1 ,0 0 0 0

 

 

£

0 , 9 1 6 7

0 , 9 9 5 9

0 , 8 5 6 6

0 ,7 9 1 7

0 ,9 4 6 2

1 ,0 0 0 0

 

 

 

g

0 , 9 3 1 4

0 , 7 9 6 3

0 ,5 0 0 5

0 ,4 1 5 2

0 ,6 2 8 4

0 ,8 2 7 6

1 ,0 0 0 0

а

0 ,6 7 8 2

0 ,9 1 9 1

0 ,9 8 4 8

0 ,9 5 8 6

0 ,9 9 5 1

0 ,9 1 3 4

0 ,5 7 0 8

i

0 ,9 4 5 8

0 ,9 8 1 7

0 ,7 8 8 1

0 ,7 1 2 9

0 ,9 0 2 1

0 ,9 8 3 4

0 ,8 1 3 0

0 ,9 1 3 7

0 ,9 7 3 2

0 ,7 5 9 1

0 ,6 9 0 9

0 ,8 7 9 0

0 ,9 6 6 4

0 ,8 6 2 8

k

0 , 9 1 1 3

0 ,9 9 3 5

0 , 8 1 3 8

0 ,7 4 7 7

0 ,9 2 2 5

0 , 9 8 7 7

0 ,8 3 2 6

i

0 ,6 4 5 7

0 ,8 9 6 3

0 ,9 9 3 9

0 ,9 7 6 6

0 ,9 8 5 1

0 ,8 9 2 7

0 ,5 5 1 7

т

0 ,7 8 7 3

0 ,9 5 8 5

0 ,9 5 2 9

0 ,9 1 5 6

0 ,9 8 3 0

0 ,9 6 2 3

0 ,7 2 5 8

п

0 ,8 8 6 8

0 ,9 6 8 3

0 ,8 1 8 3

0 ,7 5 8 6

0 ,9 0 7 4

0 ,9 7 1 4

о ! 8724

о

0 ,7 9 0 9

0 ,8 1 7 1

0 ,7 8 2 5

0 ,7 3 8 5

0 ,7 9 8 1

0 ,8 5 7 9

0 ,8 6 5 9

р

0 ,8 7 7 7

0 ,9 8 8 7

0 ,8 9 8 2

0 ,8 3 9 2

0 ,9 7 0 3

0 ,9 9 2 4

0 ,7 6 5 2

Q

0 ,8 7 6 6

0 ,9 9 0 4

0 ,8 8 2 6

0 ,8 2 0 7

0 ,9 6 6 4

0 ,9 8 8 9

0 , 7 4 4 8

Г

0 ,7 3 9 3

0 ,9 5 4 5

0 ,9 6 0 3

0 ,9 2 5 2

0 ,9 9 6 0

0 ,9 4 6 4

0 . 6 4 6 2

S

0 ,9 5 8 9

0 ,9 8 2 8

0 ,7 9 3 7

0 ,7 1 9 3

0 ,9 0 0 6

0 ,9 9 1 5

0 . 8 6 5 2

t

0 ,8 1 5 4

0 ,9 7 5 8

0 ,8 9 6 2

0 ,8 4 9 5

0 ,9 6 3 6

0 ,9 6 8 5

0 . 7 5 9 9

и

0 ,9 4 6 0

0 ,9 8 8 2

0 ,7 9 0 0

0 ,7 1 5 6

0 ,9 0 6 1

0 ,9 8 8 0

0 . 8 2 4 4

V

0 ,6 0 9 5

0 ,8 8 3 3

0 , 9 8 3 3

0 ,9 7 0 2

0 ,9 7 5 9

0 ,8 7 2 9

0 ,5 2 4 4

W

0 ,5 8 9 9

0 ,8 3 9 6

0 ,9 9 6 1

0 ,9 9 4 3

0 ,9 4 9 4

0 ,8 4 3 8

0 ,5 0 9 6

X

0 ,7 3 5 9

0 ,9 5 0 3

0 ,9 3 9 5

0 ,9 0 5 9

0 ,9 8 0 2

0 ,9 3 9 4

0 ,6 6 8 2

У

0 ,5 7 4 9

0 ,8 5 7 1

0 , 9 9 2 5

0 ,9 8 5 7

0 , 9 6 7 6

0 ,8 4 9 5

0 . 4 8 3 5

квадратов элементов этого столбца:

Wjk :

ik

(6.69)

т

 

Это приводит к стандартизации объектов, так что квадраты пе­ ременных, измеренные на каждом объекте, в сумме дают еди­ ницу. Тогда cos 6 определяется по формуле

т

(6.70)

cosBiJ= ' ^ w ikw lk.

ь=1

 

В матричных обозначениях, мы сначала определяем диаго­ нальную матрицу [D], порядка п х п , которая содержит суммы квадратов элементов каждой строки вдоль диагонали и нули в остальных местах.

ЗЮ

 

 

Т а б л и ц а 6.28

сходства между 25 блоками, приведенным в табл. 6.18 (только

 

матрицы имеет порядок

25X25)

 

 

/1

k

т

п

\ , 0 0 iV i

1 , 0 0 0 0

 

 

 

 

 

0 , Ь ' 77

 

 

 

 

 

0 , 8 3 6 9

0 , 9 4 7 2

1 ,0 0 0 0

 

 

 

 

0 ,8 8 5 0

0 , 9 7 0 5

0 , 9 9 2 9

1 ,0 0 0 0

1,0000

 

 

0 , 9 9 6 5

0 , 8 2 6 5

0 , 8 1 5 4

0 , 8 6 2 8

 

 

0 ,9 7 6 1

0 , 9 0 4 2

0 , 9 1 2 3

0 , 9 4 2 3

0 , 9 7 3 6

1 ,0 0 0 0

 

0 , 8 7 6 8

0 , 9 2 5 9

0 , 9 8 3 7

0 , 9 8 2 4

0 , 8 6 4 8

0 ,9 5 3 1

1 ,0 0 0 0

0 ,7 8 6 0

0 , 7 8 1 3

0 , 8 0 9 8

0 , 8 1 7 4

0 ,7 9 4 3

0 ,8 8 3 4

0 , 8 9 2 4

0,9-149

0 ,9 7 5 9

0 ,9 3 3 2

0 ,9 6 7 3

0 ,9 2 5 1

0 , 9 7 0 3

0 , 9 4 4 2

0 ,9 3 7 7

0 ,9 8 2 0

0 ,9 3 4 2

0 ,9 6 8 7

0 , 9 1 3 3

0 ,9 5 6 1

0 ,9 3 3 2

0 ,9 9 1 4

0 ,8 9 3 4

0 ,8 9 7 9

0 ,9 3 3 5

0 ,9 8 4 4

0 , 9 8 8 8

0 , 9 2 7 0

0 ,8 5 7 9

0 ,9 9 3 0

0 ,9 5 9 8

0 ,9 7 7 2

0 ,8 3 1 9

0 , 9 2 2 0

0 , 9 5 3 8

0 ,9 4 5 6

0 ,9 1 7 4

0 ,9 6 2 4

0 ,9 7 6 4

0 ,9 3 5 9

0 , 9 8 1 9

0 ,9 8 0 1

0 .8 6 2 0

0 ,9 9 8 4

0 ,9 6 3 0

0 ,9 8 1 9

0 ,8 3 2 1

0 , 9 1 2 9

0 ,9 4 2 4

0 ,9 8 9 6

0 ,7 9 8 7

0 ,8 1 3 8

0 ,8 5 6 1

0 ,9 9 4 8

0 ,9 6 3 9

0 , 8 6 0 9

0 ,9 7 1 5

0 ,7 6 7 1

0 ,7 5 2 6

0 ,8 0 2 6

0 ,9 8 6 9

0 , 9 4 9 8

0 , 8 1 8 2

0 ,9 7 4 7

0 ,8 7 7 4

0 ,9 1 6 6

0 ,9 4 1 0

0 ,9 7 0 4

0 , 9 8 5 0

0 , 9 4 4 6

0 ,0 8 6 9

0 ,7 7 3 9

0 ,7 7 3 9

0 ,8 2 2 7

0 ,9 9 5 4

0 , 9 5 2 0

0 ,8 2 8 0

Стандартизация осуществляется преобразованием

 

т

- [ я ™ ,

( е л )

и матрица сходства cos0 имеет вид

 

[cos 0]= [Г ] [W]'= [/?]-* [X] [X]'[D]-K

(6.72)

Тот факт, что матрица

[cos 0] порядка пХп имеет не более

пг собственных значений, вытекает из теоремы Эккарта — Юнга. Используя ее, достаточно найти собственные векторы тХ т матрицы [tt7]'[№], а не большей матрицы [cos0], и затем пре­ образовать метки ^-метода в нагрузки Q-метода и наоборот. Этот вопрос подробно рассмотрен в следующем разделе. В не­ которых случаях соотношение взаимосвязи между факторами и метками R- и Q-методов справедливо точно, но это зависит от способа шкалирования, примененного к матрице данных [X].

В табл. 6.28 приведена матрица сходства Q-метода для дан­ ных по случайным блокам, а в табл. 6.29 приведены собствен­ ные значения и три собственных вектора. Как и следовало ожи-

311