
- •Часть II. Методы снижения размерности исследуемого многомерного признака Пункт 1. Сущность задач снижения размерности
- •§2.2. Вычисление главных компонент.
- •У линейного преобразования могут отсутствовать собственные векторы
- •О тсюда и из (2.6) следует
- •§2.3 Основные числовые характеристики главных компонент и критерий информативности метода главных компонент
- •Посмотрим на поведение меры информации:
- •§2.4 Матрица «нагрузок» главных компонент на исследуемые признаки и ее свойства
- •§2.5. Геометрическая интерпретация и оптимальные свойства главных компонент
- •§2.5.1 Свойство наименьшей ошибки «автопрогноза» или наилучшей самовоспроизводимости
- •По методу наименьших квадратов имеем
- •§2.5.2. Свойства наименьшего искажения геометрической структуры множества исходных р-мерных наблюдений при их проектировании пространства р’ первых главных компонент:
- •Обозначим
- •§2.6Статистические свойства выборочных главных компонентов
- •Пункт 3. Факторный анализ (краткая характеристика) §3.1 Сущность модели факторного анализа
- •§3.2 Общий вид линейной модели. Ее связь с главными компонентами
§2.5. Геометрическая интерпретация и оптимальные свойства главных компонент
Всякий переход к
меньшему числу
переменных
осуществляется с помощью линейного
преобразования
и взятия p’
новых переменных.
Такой переход
можно рассматривать как проекцию
исходных наблюдений
в пространство размерности
,
натянутое на координатные оси
,
где
,
- аналитическая форма записи
,
- матричная форма записи
Пример:
Рассмотрим двумерное
нормальное распределение с параметрами
,
Тогда показатели экспоненты для плотности:
Здесь мы производим преобразование координат путем поворота осей координат:
(
и
распределены нормально, но независимо.
Чем больше
(ближе к 1), тем теснее группируются
наблюдения возле оси
).
(если
,
то новая переменная
,
следовательно, мы перешли к некоррелируемым
компонентам. После такого преобразования
,
имеют
двумерное нормальное распределение,
но являются независимыми.
§2.5.1 Свойство наименьшей ошибки «автопрогноза» или наилучшей самовоспроизводимости
Можно показать,
что с помощью первых
главных компонент
,…,
,
исходных признаков
,…,
достигается наилучший прогноз этих
признаков среди всех прогнозов, которые
можно построить с помощью
линейных комбинаций исходных признаков.
В нашей ситуации
мы хотим заменить исследуемый р-мерный
вектор наблюдений
на вектор меньшей размерности
,
в котором линейной комбинацией исходных
признаков, теряя при этом не слишком
много информации.
Информативность
вектора Y
зависит от того, в какой степени
линейных комбинаций
дают возможность «реконструировать»
р
исходных измеряемых на общих признаках
.
Ошибку прогноза
Х
по Y
будем обозначать
и определять как некоторую функцию
от так называемой остаточной
дисперсионной матрицы
вектора Х
при вычитании из него наилучшего, в
смысле наименьших квадратов, прогноза
по Y:
(2.26)
Где
-
наилучший, в смысле наименьших квадратов,
прогноз
по
,…,
.
Были рассмотрены 2 вида функции f:
(2.27)
-
евклидова норма матрицы
(2.28)
Доказано, что
функции
и
одновременно
достигают максимума тогда и только
тогда, когда
,…,
являются
главными компонентами, то есть:
,…,
.
При этом (2.27) и (2.28) превращаются соответственно в:
,
(2.27’)
.
(2.28’)
Где
– последние
собственных чисел исходной матрицы
(или ее выборочной оценки
;
в этом случае (2.27’) и (2.28’) будут
приближаться равенствами).
Вернемся к примеру §. 2.3.
В соответствии с результатом примера возьмем в качестве единственной вспомогательной переменной первую главную компоненту:
тогда из (2.26)
наилучший прогноз для
,
,
при p=3
имеет вид
,
i=1,2,3.