
Факторный анализ Модель факторного анализа
Как и прежде будем
полагать, что Х = (X1, X2, …, Xk)T
— исходный k-мерный случайный вектор.
Каноническая модель факторного анализа
для центрированного вектора
имеет следующий вид:
(2.3.1)
где
F = (F1, F2, …, Fm)
— центрированный и нормированный
случайный вектор некоррелированных m
общих факторов для всех исходных
случайных величин Xi
(m < k),
— (неслучайная) матрица нагрузок
случайных величин Xi на
факторы Fj,
— нормально распределенный центрированный
вектор
специфических факторов 1,
2, …, k,
некоррелированных как между собой, так
и с общими факторами.
Пусть
— ковариационная матрица вектора Х,
а Σε =
—
ковариационная матрица (диагональная)
вектора с
диагональными элементами, равными
.
Построим систему
уравнений для нахождения матриц A
и Σε. С учетом (16) и условий
на векторах F и
получим:
Итак,
или
(2.3.2)
Таким образом, здесь, в отличие от модели главных компонент, ковариации исходных случайных величин полностью воспроизводятся матрицей нагрузок, а для воспроизведения их дисперсий помимо нагрузок нужны дисперсии i специфических факторов. И далее, так как
,
то здесь,
как и в компонентном анализе, ковариации
.
Замечание. Если исходный k-мерный вектор Х не только центрирован, но и нормирован, то ΣХ — это корреляционная матрица RХ и система (17) примет вид
RХ = AAT+Σε
или
(2.3.3)
и
в этом случае
,
а
.
Величину
называют общностью
случайной величины Хi,
а матрицу R' = A'A'T,
где
— редуцированной
матрицей
(R'
отличается от R
только тем, что ее диагональными
элементами являются не единицы, а
общности hi).
В системе (17) k2 уравнений, а число неизвестных (aij и υi) равно mk + k < < k(k + 1). Если допустить, что k, m и матрица ΣХ таковы, что решение этой системы существует (иначе построение модели (16) допустимо?), то это решение не единственно.
Действительно, пусть
V — ортогональная матрица размером
.
Проведем тождественные преобразования
модели (16):
. (2.3.4)
В преобразованной
модели вектор общих факторов — это
вектор
,
а матрица нагрузок
.
Итак, если решение системы (17) существует, то оно не единственно: допустим целый класс матриц нагрузок, которые связаны между собой ортогональными преобразованиями.
Замечание. В методе главных компонент также допустимо ортогональное преобразование матрицы нагрузок. Однако вращение пространства главных компонент меняет вклады компонент в общую дисперсию исходных случайных величин: они не равны собственным значениям.
При каких дополнительных условиях на k, m и матрицу нагрузок А решение системы (17) единственно с точностью до ортогонального преобразования? Матрица А должна быть такой, чтобы при вычеркивании из нее любой строки оставшуюся матрицу можно было бы разделить на две подматрицы ранга m (откуда получаем, что 2m k — 1). Сформулированное требование к матрице А является не только достаточным, но и при m = 1 и m = 2 необходимым условием единственности решения системы (17).
Будем предполагать, что решение единственно с точностью до ортогонального преобразования. Тогда, вращая систему координат в m-мерном пространстве общих факторов, можно найти такую матрицу нагрузок, которая позволила бы дать содержательную интерпретацию общих факторов в терминах исходных случайных величин. Существует несколько вариантов дополнительных условий на класс матриц А, обеспечивающих уже окончательную однозначность решения. От этих условий зависит и метод нахождения матриц А, Σε, вектора F, и, соответственно, способ их статистического оценивания.
Наиболее формализованы следующие варианты дополнительных идентифицирующих требований к виду матрицы А:
матрица
должна иметь диагональный вид с различными расположенными в порядке убывания диагональными элементами;
матрица ATB (где матрица
задана заранее) имеет ранг m и должна быть треугольной (наддиагональной); в частности, при
матрица
,
т. е. исходный признак Х1 выражается только через общий фактор F1; X2 — через F1 и F2 и т. д.
Общая итерационная схема нахождения (при заданном m) параметров (А, Σε) факторной модели такова:
задаются нулевым приближением
диагональной матрицы Σε (нулевым приближением
дисперсий vi специфических факторов);
получают нулевое приближение
матрицы ψ = AAT;
последовательно определяют нулевые приближения
столбцов a1, a2, …, am матрицы А;
Замечание.
Нетрудно убедиться в том, что
.
Исходя из этого равенства и учитывая
специфику выбранного варианта
идентифицирующих требований к матрице
А,
сначала находят столбец а1.
Затем переходят к матрице
и определяют столбец а2
и т. д.
определяют первые приближения
дисперсий vi (первое приближение
матрицы Σε) и переходят к следующей итерации;
итерационный процесс заканчивают, когда очередное приближение матрицы Σε мало отличается от предыдущего.
В реальных задачах
располагают лишь оценкой
ковариационной матрицы ΣX.
Заменив в рассмотренной общей схеме ΣX
на
,
можно получить оценки
и
соответственно матрицы нагрузок А
и ковариационной матрицы Σε
специфических факторов.