Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Анализ данных.doc
Скачиваний:
144
Добавлен:
10.05.2014
Размер:
2.77 Mб
Скачать

15. Анализ главных компонент. Геометрическая интерпретация.

Геометрическая интерпретация главных компонент.Дляn-мерного векторас ковариационной матрицейСможно построить так называемый эллипсоид рассеяния:,

где – вектор средних значений элементов.

Точки, соответствующие наблюдениям вектора а, будут располагаться примерно в очертаниях этого эллипсоида. На рис. 11 приведена двумерная иллюстрация эллипсоида рассеяния.

В методе главных компонент исходные наблюдения предполагаются центрированными. Переход к центрированным наблюдениям означает перенос начала координат в точку . Затем оси координат поворачивают на уголтак, чтобы осьшла вдольглавной оси эллипсоида рассеяния. Наблюдения в новых координатахистанут независимыми.

Рис.11. Двумерный эллипсоид рассеяния

Чем теснее наблюдения группируются около главной оси эллипсоида рассеяния, являющейся теперь новой координатой , тем менее значащим является для исследователя разброс точек в направлении оси, а следовательно, и сама эта координата (рис.12).

Рис.12. «Вытянутый» эллипсоид рассеяния

16. Модель и основная теорема факторного анализа.

В отличие от метода главных компонент факторный анализ заранее объясняет ковариационную (либо корреляционную) матрицу исходных переменных (признаков) наличием небольшого числа гипотетических факторов, присутствующих в исходных переменных. На языке корреляций это можно интерпретировать следующим образом. Вначале анализируется на значимость исходная корреляционная матрица, т.е. отличается ли корреляционная матрица значимо от единичной. Если это имеет место, то возникает вопрос: существует ли скрытая, иначе латентная, случайная величина такая, что попарные корреляции между исходными переменными станут равными нулю, если влияниеуже учтено? Пусть после этого элементы корреляционной матрицы все еще отличны от нуля. Тогда пытаются найти две случайные величиныитакие, что корреляции между исходными переменными станут нулевыми, если влияниеиуже учтено, и так далее.

Тем самым корреляция между nнаблюдаемыми признакамисвязывается с тем фактом, что эти признаки зависят от меньшего числа других, непосредственно неизмеряемых переменных, которые принято называть общими факторами.

Модель факторного анализаВ общем случае нельзя гарантировать, что каждый из исходных признаков зависит лишь отmобщих факторов, одних и тех же для всех признаков. Поэтому в факторном анализе постулируется, что наблюдаемый признакxi (i=1,2,…,n) зависит также и от некоторой характерной для себя остаточной (шумовой) случайной компоненты. Итак, линейная модель факторного анализа имеет вид:

, (11.1)

где коэффициенты называютнагрузкойj-го общего фактора наi-й исходный признак, а матрицу,i=1,2,…,n;j=1,2,..,mфакторным отображением, либо матрицей факторных нагрузок.

Предпосылки факторного анализа. Предполагают, что исходные признаки подчиняются многомерному нормальному распределению; общие факторы некоррелированы, а их дисперсии равны единице, следовательно, корреляционная матрицаобщих факторов является единичной, т.е.; характерные (остаточные) факторы– нормально распределенные случайные величины, не зависимые друг от друга и от общих факторов. Это означает, что корреляционная матрицаVхарактерных факторов имеет диагональный вид. Все случайные величины имеют нулевое математическое ожидание.

Факторные нагрузки и дисперсиихарактерных факторов являются неизвестными параметрами, подлежащими оценке.

Вводя векторные обозначения: ,

перепишем модель факторного анализа (11.1) в виде: . (11.1а)

Ковариационная матрица исходных признаков с учетом их центрированности по определению естьCx = M[xx/],

где математическое ожидание берется по множеству реализаций вектора x.

Подставим в выражение (11.1а):Cx = M[(Ay+u)(Ay+u)] = M[(Ay+u)(yA′+u)].

Раскрывая скобки в последнем выражении и учитывая, что общие и характерные факторы некоррелированы и, следовательно, M[uy]=0, M[yu]=0, а также неслучайный характер матрицыA, что позволяет выноситьАза знакМ, получаемCx = AM[yy]A′+M[uu].

M[yy] есть не что иное, как ковариационная матрицаобщих факторов, аM[uu] ковариационная матрицаVхарактерных факторов. Таким образом,. (11.2)

Согласно предпосылкам факторного анализа есть единичная диагональная матрица. Следовательно,

. (11.2а)

Соотношение (11.2) либо (11.2а) иногда называют фундаментальной теоремой факторного анализа. Она утверждает, что ковариационная матрица исходных признаков может быть воспроизведена с помощью матрицы факторных нагрузок и дисперсионной матрицы характерных факторов.

На практике обычно используют не ковариационную , а корреляционную матрицуR исходных признаков. Переход от ковариационной к корреляционной матрице означает, что исходные центрированные переменные подвергаются нормированию делением значений каждого признака на среднее квадратическое отклонение этого признака. Такое преобразование позволяет избежать влияния масштаба измерения на результаты анализа. Преобразованные признаки будут иметь, очевидно, единичную дисперсию, их ковариационная матрица совпадает с корреляционной, а соотношение (11.2) примет вид:, (11.3)

где ВиWимеют тот же смысл, чтоAиV, но для нормированных признаков.

Для диагональных элементов матрицы Rвыполняется соотношение:,

где – диагональные элементы матрицыW.

Сумму квадратов нагрузок общих факторов называют общностью:. (11.4)

Общность указывает ту долю единичной дисперсии исходного признака, которую можно приписать общим факторам. Часть единичной дисперсии, которая не связана с общими факторами, называют характерностью:. (11.5)

Характерность иногда разбивают на две составляющих, одна из которых, , называется специфичностью, а другая,, является дисперсией, обусловленной ошибкой, т.е..

Факторное изображение допускает геометрическую интерпретацию. Согласно (11.1) точка в n-мерном пространстве исходных признаков представляется в виде линейной комбинацииm+nкоординат точки в пространстве общих и характерных факторов, называемом также полным факторным пространством. Так как нагрузки общих факторов однозначно определяют дисперсии характерных факторов, то достаточно представлять признаки вm-мерном ортогональном пространстве общих факторов. Поскольку пространство общих факторов имеет размерность наnменьшую размерности полного факторного пространства, в факторном анализе используют обычно пространство общих факторов. Строки матрицыВфакторных нагрузок рассматривают как точки в пространстве общих факторов. Координатыi-й точки есть. Соединяя эти точки с началом координат, получаемnвекторов-признаков. Длина вектора, отвечающегоi-му признаку, равняется, как видно из (11.4), корню квадратному из общности.

На рис. 13 в качестве примера приведена графическая иллюстрация факторного отображения.

Рис.13. Графическая иллюстрация факторного отображения

Числа 1,2,…,5 около точек соответствуют номерам строк матрицы В, иначе номерам исходных признаков.