
- •Isbn 5-89502-310-х (мпси) isbn 5-89349-361-3 (Флинта)
- •Глава 1
- •Глава 2
- •Глава 3
- •Глава 9
- •Глава 10
- •Глава 12
- •Глава 13
- •Глава 1 понятие измерения
- •1.1. Измерительные шкалы
- •1.2. Номинативная шкала (шкала наименований)
- •Глава 1. Понятие измерения
- •1.3. Порядковая (ранговая, ординарная) шкала
- •1.3.2. Проверка правильности ранжирования
- •1.3.3. Случай одинаковых рангов
- •1.5. Шкала отношений
- •Глава 2
- •2.1. Полное исследование
- •2.2. Выборочное исследование
- •2.3. Зависимые и независимые выборки
- •2.4. Требования к выборке
- •2.5. Репрезентативность выборки
- •2.6. Формирование и объем репрезентативной выборки
- •Глава 3 формы учета результатов измерений
- •3.1. Таблицы
- •3.1. Таблицы
- •3.2. Статистические ряды
- •3.3. Понятие распределения и гистограммы
- •Глава 3. Формы учета результатов измерений
- •Глава 4
- •4.1. Мода
- •4.2. Медиана
- •4.3. Среднее арифметическое
- •4.4. Разброс выборки
- •4.5. Дисперсия
- •4.6. Степень свободы
- •4.7. Понятие нормального распределения
- •Глава 5
- •5.1. Проверка статистических гипотез
- •5.2. Нулевая и альтернативная гипотезы
- •5.3. Понятие уровня статистической значимости
- •5.4. Этапы принятия статистического решения
- •5.5, Классификация психологических задач, решаемых с помощью статистических методов
- •Глава 6 статистические критерии различий
- •6.1.1. Параметрические и непараметрические критерии
- •6.1.2. Рекомендации к выбору критерия различий
- •6.2. Непараметрические критерии для связных
- •6.2.1. Критерий знаков g
- •6.2.3. Критерий Фридмана
- •6.2.4. Критерий Пейджа
- •6.2.5. Критерий Макнамары
- •Глава 7
- •7.1. Критерий u Вилкоксона—Манна—Уитни
- •7.1.1. Первый способ расчета по критерию u
- •7.1.2. Второй способ расчета по критерию u
- •7.2. Критерий q Розенбаума
- •Глава 8
- •8.1. Критерий хи-квадрат
- •8.1.1. Сравнение эмпирического распределения с теоретическим
- •8.1.2. Сравнение двух экспериментальных распределений
- •8.1.3. Использование критерия хи-квадрат для сравнения показателей внутри одной выборки
- •8.2, Критерий Колмогорова-Смирнова
- •8.3. Критерий Фишера — φ
- •8.3.1. Сравнение двух выборок по качественно определенному признаку
- •8.3.2. Сравнение двух выборок по количественно определенному признаку
- •Глава 9
- •9.1.1. Случай несвязных выборок
- •9.1.2. Случай связных выборок
- •Глава 10 введение в дисперсионный анализ anova
- •10.1. Однофакторный дисперсионный анализ
- •10.2.1. Критерий Линка и Уоллеса
- •10.2.2. Критерий Немени
- •Глава 11 корреляционный анализ
- •11.1. Понятие корреляционной связи
- •11.2. Коэффициент корреляции Пирсона
- •11.3. Коэффициент корреляции рангов Спирмена
- •11.3.1. Случай одинаковых (равных) рангов
- •11.4. Расчет уровней значимости коэффициентов корреляции
- •11.5.1. Второй способ вычисления коэффициента «φ»
- •11.7. Бисериальный коэффициент корреляции
- •11.8. Рангово-бисериальный коэффициент корреляции
- •11.9. Корреляционное отношение Пирсона η
- •11.10. Множественная корреляция
- •11.11. Частная корреляция
- •Глава 12
- •12.1. Линейная регрессия
- •12.2. Множественная линейная регрессия
- •12.3. Оценка уровней значимости коэффициентов регрессионного уравнения
- •12.4. Нелинейная регрессия
- •Глава 13 факторный анализ
- •13.1. Основные понятия факторного анализа
- •13. Факторный анализ
- •Глава 13. Факторный анализ
- •13.1. Основные понятия факторного анализа
- •13.2. Условия применения факторного анализа
- •13.3. Приемы для определения числа факторов
- •13.5. Использование факторного анализа в психологии
- •Глава I. Теоретические основы агрессивности и тревожности личности.
13. Факторный анализ
13.1- Основные понятия факторного анализа
277
скольку она показывает, как изучаемые показатели связаны с каждым выделенным фактором. При этом факторный вес демонстрирует меру, или тесноту, этой связи.
Поскольку каждый столбец факторной матрицы (фактор) является своего рода переменной величиной, то сами факторы также могут коррелировать между собой. Здесь возможны два случая: корреляция между факторами равна нулю, в таком случае факторы являются независимыми (ортогональными). Если корреляция между факторами больше нуля, то в таком случае факторы считаются зависимыми (облическими). Подчеркнем, что ортогональные факторы в отличие от облических дают более простые варианты взаимодействий внутри факторной матрицы.
В качестве иллюстрации ортогональных факторов часто приводят задачу Л. Терстоуна, который, взяв ряд коробок разных размеров и формы, измерил в каждой из них больше 20 различных показателей и вычислил корреляции между ними. Профак-торизовав полученную матрицу интеркорреляций, он получил три фактора, корреляция между которыми была равна нулю. Этими факторами были «длина», «ширина» и «высота».
Для того чтобы лучше уловить сущность факторного анализа, разберем более подробно следующий пример.
Предположим, что психолог у случайной выборки студентов получает следующие данные:
* У1 —вес тела (в кг);
* У2 — количество посещений лекций и семинарских занятий по предмету;
* уз — длина ноги (в см);
* У4 — количество прочитанных книг по предмету;
* У5 — длина руки (в см);
* У6 — экзаменационная оценка по предмету
(V — от английского слова variable — переменная).
При анализе этих признаков не лишено оснований предположение о том, что переменные У1 У3 и У5— будут связан! между собой, поскольку чем больше человек, тем больше он ве сит и тем длиннее его конечности. Сказанное означает, что
ду этими переменными должны получиться статистически значимые коэффициенты корреляции, поскольку эти три переменные измеряют некоторое фундаментальное свойство индивидуумов в выборке, а именно: их размеры. Точно так же вероятно, что при вычислении корреляций между У2, У4 и Уь тоже будут получены достаточно высокие коэффициенты корреляции, поскольку посещение лекций и самостоятельные занятия будут способствовать получению более высоких оценок по изучаемому предмету.
Таким образом, из всего возможного массива коэффициентов, который получается путем перебора пар коррелируемых признаков У1 и У2, У1 и У3 и т.д., предположительно выделятся два блока статистически значимых корреляций. Остальная часть корреляций — между признаками, входящими в разные блоки, вряд ли будет иметь статистически значимые коэффициенты, поскольку связи между такими признаками, как размер конечности и успеваемость по предмету, имеют скорее всего случайный характер. Итак, содержательный анализ 6 наших переменных показывает, что они, по сути дела, измеряют только две обобщенные характеристики, а именно: размеры тела и степень подготовленности по предмету.
К полученной матрице интеркорреляций, т.е. вычисленным попарно коэффициентам корреляций между всеми шестью переменными у1 - У6, допустимо применить факторный анализ. Его можно проводить и вручную, с помощью калькулятора, однако процедура подобной статистической обработки очень трудоемка. По этой причине в настоящее время факторный анализ проводится на компьютерах, как правило, с помощью стандартных статистических пакетов. Во всех современных статистических пакетах есть программы для корреляционного и факторного анализов. Компьютерная программа по факторному анализу по существу пытается «объяснить» корреляции между переменными в терминах небольшого числа факторов (в нашем примере двух).
Предположим, что, используя компьютерную программу, мы получили матрицу интеркорреляций всех шести переменных и подвергли ее факторному анализу. В результате факторного анализа получилась таблица 13.J, которую называют «факторной Матрицей», или «факторной структурной матрицей».
278