
- •От автора
- •Раздел 1. Проблема измерения в психологии
- •1. 1. Понятие об измерении
- •1. 2. Особенности измерения в психологии
- •1. 3. Шкалы измерений
- •Раздел 2. Основные статистические понятия
- •2. 1. Генеральная и выборочная совокупности
- •2. 2. Переменная величина
- •2. 3. Уровни значимости
- •2. 4. Достоверность результатов исследования
- •Раздел 3. Подготовка данных к математической обработке
- •3. 1. Протоколирование данных
- •3. 2. Составление сводных таблиц (табулирование данных)
- •3. 3. Определение квантилей
- •3. 4. Графическое представление результатов
- •Раздел4. Меры центральной тенденции
- •4. 1. Мода
- •4. 2. Медиана
- •4. 3. Среднее арифметическое значение
- •4. 4. Среднее геометрическое значение
- •Задачи по теме Задача 4.1
- •Задача 4.2
- •Задача 4. 3
- •Раздел 5. Меры изменчивости (разнообразия, вариативности) исследуемого признака
- •5. 1. Лимиты (пределы) разнообразия
- •5. 2. Размах вариаций
- •5. 3. Среднее отклонение
- •5. 4. Дисперсия
- •5. 5. Среднеквадратичное (стандартное) отклонение
- •5. 6. Коэффициент вариации
- •Задачи по теме Задача 5. 1
- •Задача 5.2
- •Раздел 6. Распределения переменных величин
- •6.1. Нормальное распределение
- •6. 1. 1. Основные понятия
- •6. 1. 2. Коэффициент асимметрии
- •6. 1. 3. Коэффициент эксцесса
- •6. 1. 4. Критерий хи-квадрат (c2)
- •6. 1. 5. Критерий Колмогорова – Смирнова (l)
- •6. 2. Равномерное распределение
- •6. 3. Биномиальное распределение
- •6. 4. Распределение Пуассона
- •Задачи по теме Задача 6. 1
- •Задача 6. 2
- •Задача 6. 3
- •Задача 6. 4
- •Раздел 7. Меры различий
- •7. 1. Постановка проблемы
- •7. 2. Непараметрический критерий qРозенбаума
- •7. 4. Критерий Стьюдента
- •7.5. Критерий Фишера
- •7. 6. Критерий j*-угловое преобразование Фишера
- •7.7. Использование критерия χ2 Пирсона и критерия λ Колмогорова для оценки различий между двумя выборками
- •Задачи по теме Задача 7. 1
- •Задача 7. 2
- •Задача 7.3
- •Задача 7.4
- •Задача 7.5
- •Задача 7.7
- •Раздел 8. Меры связи
- •8. 1. Постановка проблемы
- •8. 2. Представление данных
- •8. 3. Коэффициент корреляции Фехнера
- •8. 4. Коэффициент корреляции Пирсона
- •8. 5. Коэффициент ранговой корреляции Спирмена
- •8.6. Коэффициент ранговой корреляции Кендалла (тау Кендалла, t)
- •8.7. Дихотомический коэффициент корреляции (j)
- •8. 8. Точечный бисериальный коэффициент корреляции (rpb)
- •8. 9. Рангово-бисериальный коэффициент корреляции (rrb)
- •8. 11. Матрицы корреляций
- •Задачи по теме Задача 8.1
- •Задача 8. 2
- •Задача 8. 3
- •Задача 8. 4
- •Задача 8. 5
- •Задача 8. 6
- •Задача 8. 7
- •Задача 8. 8
- •Задача 8. 9
- •Задача 8. 10
- •Задача 8.16
- •Задача 8.18
- •Раздел 9. Меры зависимости
- •9.1. Основные понятия
- •9.2. Анализ линейной зависимости методом наименьших квадратов
- •9.4. Множественная регрессия
- •Задачи по теме Задача 9. 1
- •Задача 9. 2
- •Раздел 10. Меры влияния
- •10. 1. Сущность проблемы
- •10. 2. Непараметрические меры влияния
- •10.2.1. Критерий знаков
- •10.2.2. Критерий Вилкоксона
- •10.3. Однофакторный дисперсионный анализ
- •10. 4. Двухфакторный дисперсионный анализ
- •Задачи по теме Задача 10. 1
- •Задача 10. 2
- •Раздел 11. Элементы многомерной статистики
- •11.1. Основные понятия
- •11.2. Кластерный анализ
- •11.2.1. Функции расстояния
- •11.2.2. Меры сходства
- •11.2.3. Выбор числа кластеров
- •Динамическое программирование
- •Целочисленное программирование
- •11.2.4. Методы кластеризации
- •11.2.5. Представление данных
- •11.3. Факторный анализ
- •11.3.1. Основные принципы факторного анализа
- •11.3.2. Основные методы, используемые в факторном анализе
- •Метод главных факторов
- •Центроидный метод
- •Метод минимальных остатков
- •Метод максимума правдоподобия
- •Групповой метод
- •11.3.3. Выбор числа факторов и оценка их значений
- •11.3. 4. Представление результатов факторного анализа
- •Ответы на задачи
- •Список рекомендуемой литературы
- •Дополнительная
- •Приложение статистические таблицы
- •Критические значения коэффициента асимметрии (As), используемого для проверки гипотезы о нормальности распределения
- •Критические значения показателя эксцесса (Ex), используемого для проверки нормальности распределения
- •Теоретические частоты 8-классового нормального распределения ("шаг" 1 s)
- •Теоретические частоты 16-классового нормального распределения ("шаг" 0,5 s)
- •Значения z Пирсона и соответствующие им теоретические накопленные частоты
- •Стандартные значения хи-квадрат
- •Уровень значимости различий между экспериментальным и теоретическим распределениями по критерию λ Колмогорова – Смирнова
- •Критические значения критерия q Розенбаума
- •Критические значения критерия u Манна-Уитни для уровня значимости 0,95
- •Стандартные значения критерия Стьюдента
- •Стандартные значения критерия Фишера, используемые для оценки достоверности различий между двумя выборками
- •Величины угла j в радианах для разных процентных долей (угловое преобразование Фишера)
- •Критические значения коэффициентов корреляции Пирсона и Спирмена
- •Критические значения коэффициента t Кендалла
- •Число пар значений, достаточное для статистической значимости коэффицентов корреляции Пирсона и Спирмена
- •Критические значения дихотомического коэффициента корреляции j
- •Границы критической области для критерия знаков
- •Критические значения критерия т Вилкоксона
11.3. Факторный анализ
Факторный анализ является одним из наиболее мощных способов анализа данных в многомерной статистике. Впервые (в начале ХХ столетия) он был использован именно для анализа результатов психологических исследований.
В данной главе не ставится цель детального изложения всевозможных методов, вариантов и модификаций факторного анализа. Использование современной компьютерной техники и готовых пакетов программ избавляет исследователя от необходимости заниматься рутинной вычислительной работой. Наша задача состоит в том, чтобы дать психологу общие представления о возможностях факторного анализа, об основных теоретических положениях, лежащих в его основе, а также интерпретации данных, получаемых в результате факторного анализа.
11.3.1. Основные принципы факторного анализа
Факторный анализ представляет собой набор моделей и методов, предназначенных для «сжатия» слишком больших массивов информации. В качестве исходного материала для факторного анализа служат матрицы корреляций между различными признаками (параметрами) исследуемых объектов. Если таких признаков достаточно много, матрица становится весьма громоздкой и работа с нею представляет большие трудности.
В основе факторного анализа лежит следующая гипотеза. Наблюдаемые или измеряемые параметры являются лишь косвенными характеристиками изучаемых объектов, так сказать, их внешними проявлениями. На самом же деле существуют внутренние (скрытые, не наблюдаемые непосредственно) характеристики, число которых невелико и которые определяют значения наблюдаемых параметров. Эти внутренние характеристики называют факторами. Отдельные же наблюдаемые значения переменных являются линейными комбинациями факторов, которые не могут быть обнаружены в процессе наблюдения, но могут быть вычислены.
Задача факторного анализа состоит в том, чтобы представить наблюдаемые параметры в виде линейных комбинаций факторов и, возможно, некоторых дополнительных величин, связанных в первую очередь с ошибками измерения. Несмотря на то, что сами факторы изначально не определены, такое разложение может быть получено и, более того, значения каждого из факторов могут быть вычислены непосредственно в ходе анализа.
Задача вычисления факторов может быть интерпретирована так, что исследуемые параметры объединяются в группы, причем параметры, входящие в одну группу, связаны между собой сильной корреляционной связью, а входящие в разные группы – слабо коррелируют друг с другом.
Конечным результатом факторного анализа является получение содержательно интерпретируемых факторов, воспроизводящих матрицу коэффициентов корреляции между переменными.
Применение факторного анализа в различных областях психологических наук, показало, что определяемые факторы, как правило, хорошо интерпретируются как некоторые существенные внутренние характеристики изучаемых признаков (психологических особенностей субъектов).
В качестве начального этапа факторного анализа, так же как и других статистических методов, используется определение дисперсии каждого параметра xj (j = 1, 2, ..., n) по определенному числу повторностей i (i = 1, 2, ..., N), а также попарное вычисление корреляции между всеми изучаемыми параметрами.
В модели классического факторного анализа требуется наилучшим образом аппроксимировать корреляции, причем основная модель анализа может быть записана в следующем виде:
(11.7)
(i = 1, 2, ..., N; j = 1, 2, ..., n).
В этом выражении zj – общая нормированная дисперсия, F1, F2, ..., Fm – общие факторы (как правило m < n), Uj – характерный фактор, который учитывает «остаточную» (связанную с различными погрешностями) дисперсию; a1, a2, ..., am, которые являются коэффициентами при факторах, называют нагрузками. Другими словами, факторная нагрузка есть не что иное как коэффициент корреляции между фактором и исследуемой переменной.
Классификация факторов:
Фактор называется генеральным, если все его нагрузки значительно отличаются от нуля, т.е. он имеет нагрузки от всех переменных.
Фактор называется общим, если хотя бы две его нагрузки значительно отличаются от нуля (т.е. он имеет нагрузки от двух и более переменных). Число высоких нагрузок переменной на общие факторы называется ее сложностью.
Одной из особенностей факторного анализа является понятие компонентов дисперсии.
Общность параметра zj, связанная с общими факторами, представляет собой часть единичной дисперсии переменной, которую можно приписать общим факторам. Она равна квадрату коэффициента множественной корреляции между переменной и общими факторами, т.е. сумме квадратов факторных нагрузок:
(11.8)
(j = 1, 2, ..., n). По сути дела, общности представляют собой диагональные элементы матрицы корреляций между исследуемыми переменными.
Характерность представляет собой часть единичной дисперсии переменной, которая не связана с общими факторами, т. е. вклад характерного фактора Uji. Характерность показывает, насколько в общих факторах учтена суммарная дисперсия параметра. Характерность можно разбить на две составляющие – специфичность и дисперсию, обусловленную ошибкой.
Специфичность – доля характерности, которая тем или иным образом связана с действительной спецификой изучаемого параметра.
Дисперсия ошибки (ненадежность) параметра связана с несовершенством измерений.
Надежность есть разница между полной дисперсией и дисперсией ошибки, т.е. представляет собой сумму общности и специфичности. Значение надежности является верхней границей общности. Разница между надежностью и общностью является мерой специфической дисперсии, присущей только одной определенной переменной. Переменные, характеризующиеся малой надежностью, в факторный анализ включаться не должны.
В математическом выражении компоненты дисперсии выглядят следующим образом:
полная дисперсия: rj2 = hj2 + bj2 + ej2 = hj2 + dj2 = 1. (11.9)
надежность:
(11.10)
3)
общность:(11.11)
4)
характерность:
(11.12)
5)
специфичность:
(11.13)
6)
дисперсия ошибки: ej
= 1
=
.
(11.14)
Более наглядно соотношения компонентов дисперсии можно представить в виде следующей схемы (табл. 11.3):
Таблица 11.3
Полная
дисперсия | ||||||
Общность |
Характерность | |||||
|
Специфичность |
Дисперсия | ||||
|
|
|
...
|
|
|
ошибки |
|
Дисперсия | |||||
Надежность |
ошибки |
Некоторые исследователи не вводят предположения о существовании специфических факторов и даже факторов ошибки. При этом число общих факторов m может быть меньше или равным числу параметров n.
Кроме алгебраического представления факторной модели, иногда используются геометрические представления о корреляциях между изучаемыми параметрами как множестве векторов в многомерном пространстве. При этом задача факторного анализа состоит в попарном измерении расстояний между векторами и выявлении областей «сгущения» векторов, соответствующих отдельным факторам.