- •О.Ю. Ермолаев математическая статистика для психологов Учебник
- •Глава 8 критерии согласия распределений и
- •Глава 10 введение в дисперсионный анализ anova 178
- •Глава 11 корреляционный анализ 202
- •Глава 13 факторный анализ 274
- •Введение
- •Глава 1 понятие измерения
- •1.1. Измерительные шкалы
- •1.2. Номинативная шкала (шкала наименований)
- •1.3. Порядковая (ранговая, ординарная) шкала
- •1.3.1. Правила ранжирования
- •1.3.2. Проверка правильности ранжирования
- •1.3.3. Случай одинаковых рангов
- •1.4. Шкала интервалов
- •1.5. Шкала отношений
- •Глава 2 понятие выборки
- •2.1. Полное исследование
- •2.2. Выборочное исследование
- •2.3. Зависимые и независимые выборки
- •2.4. Требования к выборке
- •2.5. Репрезентативность выборки
- •2.6. Формирование и объем репрезентативной выборки
- •Глава 3 формы учета результатов измерений
- •3.1. Таблицы
- •3.2. Статистические ряды
- •3.3. Понятие распределения и гистограммы
- •Глава 4
- •4.1. Мода
- •4.2. Медиана
- •4.3. Среднее арифметическое
- •4.4. Разброс выборки
- •4.5. Дисперсия
- •Степень свободы
- •4.7. Понятие нормального распределения
- •Стандартизация по шкалам:
- •Глава 5 общие принципы проверки статистических гипотез
- •5.1. Проверка статистических гипотез
- •5.2. Нулевая и альтернативная гипотезы
- •5.3. Понятие уровня статистической значимости
- •5.4. Этапы принятия статистического решения
- •5.5. Классификация психологических задач, решаемых с помощью статистических методов
- •Глава 6 статистические критерии различий
- •Выбор метода статистического вывода
- •Классификация методов статистического вывода
- •Методы сравнения (X— качественный, y— количественный)
- •6.1.1. Параметрические и непараметрические критерии
- •6.1.2. Рекомендации к выбору критерия различий
- •6.2. Непараметрические критерии для связных выборок
- •6.2.1. Критерий знаков g
- •6.2.2. Парный критерий т — Вилкоксона
- •6.2.3. Критерий Фридмана
- •6.2.4. Критерий Пейджа
- •6.2.5. Критерий Макнамары
- •Глава 7 непараметрические критерии для несвязных выборок
- •7.1. Критерий u Вилкоксона-Манна-Уитни
- •7.1 1. Первый способ расчета по критерию u
- •7.1.2. Второй способ расчета по критерию u
- •7.2. Критерий q Розенбаума
- •Глава 8 критерии согласия распределений и многофункциональный критерий «φ»
- •8.1. Критерий хи-квадрат
- •8.1.1. Сравнение эмпирического распределения с теоретическим
- •8.1.2. Сравнение двух экспериментальных распределений
- •8.1.3. Использование критерия хи-квадрат для сравнения показателей внутри одной выборки
- •8.2. Критерий Колмогорова-Смирнова
- •8.3. Критерий Фишера — φ
- •8.3.1. Сравнение двух выборок по качественно определенному признаку
- •8.3.2. Сравнение двух выборок по количественно определенному признаку
- •Глава 9 параметрические критерии различия
- •9.1.1. Случай несвязных выборок
- •9.1.2. Случай связных выборок
- •Глава 10 введение в дисперсионный анализ anova
- •10.1. Однофакторный дисперсионный анализ
- •10.2. «Быстрые» методы — критерии дисперсионного анализа
- •10.2.1. Критерий Линка и Уоллеса
- •10.2.2. Критерий Немени
- •Глава 11 корреляционный анализ
- •11.1. Понятие корреляционной связи
- •11.2. Коэффициент корреляции Пирсона
- •11.3. Коэффициент корреляции рангов Спирмена
- •11.3.1. Случай одинаковых (равных) рангов
- •11.4. Расчет уровней значимости коэффициентов корреляции
- •11.5. Коэффициент корреляции «φ»
- •11.5.1. Второй способ вычисления коэффициента «φ»
- •11.6. Коэффициент корреляции «τ» Кендалла
- •11.7. Бисериальный коэффициент корреляции
- •11.8. Рангово-бисериальный коэффициент корреляции
- •11.9. Корреляционное отношение Пирсона η
- •11.10. Множественная корреляция
- •11.11. Частная корреляция
- •Глава 12 регрессионный анализ
- •12.1. Линейная регрессия
- •12.2. Множественная линейная регрессия
- •12.3. Оценка уровней значимости коэффициентов регрессионного уравнения
- •12.4. Нелинейная регрессия
- •Глава 13 факторный анализ
- •13.1. Основные понятия факторного анализа
- •13.2. Условия применения факторного анализа
- •13.3. Приемы для определения числа факторов
- •13.4. Вращение факторов
- •13.5. Использование факторного анализа в психологии
- •Приложение Пример использования методов математической статистики в дипломной работе
- •Приведем оглавление диплома:
- •Глава I. Теоретические основы агрессивности и тревожности личности.
- •Глава II. Основные результаты выполненного исследования агрессивности и тревожности личности и их зависимости от уровня субъективного контроля.
- •Методика Басса—Дарки
- •Литература
Степень свободы
Число степеней свободы это число свободно варьирующих единиц в составе выборки. Так, если вся выборка состоит из п элементов и характеризуется средней X, то любой элемент этой совокупности может быть получен как разность между величиной n • X и суммой всех остальных элементов, кроме самого этого элемента.
Пример. Рассмотрим ряд 4.5: 2 4 6 8 10. Мы помним, что средняя этого ряда равна 6. В этом ряду 5 чисел, следовательно, N = 5. Предположим, что мы хотим получить последний элемент ряда 4.5 — 10, зная все предыдущие элементы и среднее этого ряда. Тогда:
5-6-2-4-6-8 = 10
Предположим, что мы хотим получить первый элемент ряда 4.5 - 2, зная все последующие элементы и среднее этого ряда. Тогда:
5-6-4-6-8- 10 = 2 и т.д.
Следовательно, один элемент выборки не имеет свободы вариации и всегда может быть выражен через другие элементы и среднее. Это означает, что число степеней свободы у выборочного ряда обозначаемое в таких случаях символом k будет определяться как k = п – 1, где п — общее число элементов ряда (выборки).
При наличии не одного, а нескольких ограничений свободы вариации, число степеней свободы, обозначаемое как ν (греческая буква ню) будет равно
ν = п - k, где k соответствует числу ограничений свободы вариации.
В общем случае для таблицы экспериментальных данных число степеней свободы будет определяться по следующей формуле:
ν = (с - 1) · (n - 1) (4.8)
где с — число столбцов, а n – число строк (число испытуемых).
Следует подчеркнуть, однако, что для ряда статистических методов расчет числа степеней свободы имеет свою специфику.
4.7. Понятие нормального распределения
Нормальное распределение играет большую роль в математической статистике, поскольку многие статистические методы предполагают, что, анализируемые с их помощью экспериментальные данные распределены нормально. График нормального распределения имеет вид колоколообразной кривой (см. рис. 2).
Его важной особенностью является то, что форма и положение графика нормального распределения определяется только двумя параметрами: средней μ. (мю) и стандартным отклонением σ (сигма). Если стандартное отклонение σ постоянно, а величина средней μ меняется, то собственно форма нормальной кривой остается неизменной, а лишь ее график смещается вправо (при увеличении μ) или влево (при уменьшении μ) по оси абсцисс — ОХ. При условии постоянства средней μ изменение сигмы влечет за собой изменение только ширины кривой: при уменьшении сигмы кривая делается более узкой, и поднимается при этом вверх, а при увеличении сигмы кривая расширяется, но опускается вниз. Однако во всех случаях нормальная кривая оказывается строго симметричной относительно средней, сохраняя правильную колоколообразную форму.
Рис. 2. Параметры μ и σ для нормального распределения
Для нормального распределения характерно также совпадение величин средней арифметической, моды и медианы. Равенство этих показателей указывает на нормальность данного распределения. Это распределение обладает еще одной важной особенностью: чем больше величина признака отклоняется от среднего значения, тем меньше будет частота встречаемости (вероятность) этого признака в распределении. «Нормальным» такое распределение было названо потому, что оно наиболее часто встречалось в естественнонаучных исследованиях и казалось «нормой» распределения случайных величин.
В психологических исследованиях нормальное распределение используется в первую очередь при разработке и применении тестов интеллекта и способностей. Так, отклонения показателей интеллекта IQ следуют закону нормального распределения, имея среднее значение равное 100 для любой конкретной возрастной группы и стандартное отклонение в подавляющем большинстве случаев равное 16.
Исходя из закона нормального распределения можно установить, насколько близко к крайним значениям распределения подходит то или иное значение IQ, а используя таблицы стандартного нормального распределения, можно вычислить, какая часть популяции имеет то или иное значение IQ.
Однако применительно к другим психологическим категориям, в первую очередь к таким, как личностная и мотивационная сферы, применение нормального распределения представляется весьма дискуссионным. Известно, что в реальных психологических экспериментах редко получаются данные, распределенные строго по нормальному закону. В большинстве случаев сырые психологические данные часто дают асимметричные, «ненормальные» распределения. Как подчеркивает Е.В. Сидоренко (30), причина этого заключается в самой специфике некоторых психологических признаков. Бывает, что от 10 до 20% испытуемых получают оценку «ноль», например, в методике Хекхаузена, когда в их рассказах не встречается ни одной словесной формулировки, которая отражала бы мотивы надежды на успех или боязни неудачи. Распределение таких оценок не может быть нормальным, как бы ни увеличивался объем выборки.
Несмотря на это, при обработке экспериментальных данных всегда целесообразно проводить оценку характера распределения. Эта оценка важна, потому что в зависимости от характера распределения решается вопрос о возможности применения того или иного статистического метода. Как будет понятно из дальнейшего изложения, при нормальном распределении экспериментальных данных применяются особые методы статистической обработки.
Рис. Стандартное нормальное распределение
Таким образом:
если xi имеет нормальное распределение со средним М и стандартным отклонением о, то z = (х—Мх)/σ характеризуется единичным нормальным распределением со средним 0 и стандартным отклонением 1;
площадь между х, и хг в нормальном распределении со средним Мх стандартным отклонением о равна площади между z1 = (х1—Мх)/σ и z2 = (x2 — Mx)/σ в единичном нормальном распределении.
Итак, наиболее важным общим свойством разных кривых нормального распределения является одинаковая доля площади под кривой между одними и теми же двумя значениями признака, выраженными в единицах стандартного отклонения.
Полезно помнить, что для любого нормального распределения существуют следующие соответствия между диапазонами значений и площадью под кривой:
М+σ соответствует «68% (точно — 68,26%) площади;
М±2σ соответствует »95% (точно — 95,44%) площади;
М+3σ соответствует =100% (точно — 99,72%) площади.
Единичное нормальное распределение устанавливает четкую взаимосвязь стандартного отклонения и относительного количества случаев в генеральной совокупности для любого нормального распределения. Например, зная свойства единичного нормального распределения, мы можем ответить на следующие вопросы. Какая доля генеральной совокупности имеет выраженность свойства от — 1σ до +1σ? Или какова вероятность того, что случайно выбранный представитель генеральной совокупности будет иметь выраженность свойства, на 3σ превышающую среднее значение? В первом случае ответом будет 68,26% всей генеральной совокупности, так как от —1 до +1 содержится 0,6826 площади единичного нормального распределения. Во втором случае ответ: (100—99,72)/2 = 0,14%.
Полезно знать, что если распределение является нормальным, то:
90% всех случаев располагается в диапазоне значений М± 1,64 σ;
95% всех случаев располагается в диапазоне значений М± 1,96 σ;
99% всех случаев располагается в диапазоне значений М± 2,58 σ.
Существует специальная таблица, позволяющая определять площадь под кривой справа от любого положительного z. Пользуясь ею, можно определить вероятность встречаемости значений признака из любого диапазона. Это широко используется при интерпретации данных тестирования.
Уточним некоторые значения.
Генеральная
совокупность,
средняя μ,
ст. ошибка среднего
Доверительные интервалы:
Доверительная вероятность (1-α) |
Границы доверительного интервала (для n>30) |
Границы доверительного интервала (для n=15) |
90% |
|
|
95% |
|
|
99% |
|
|
При n=30
Доверительный
интервал от
до
содержат μ
с вероятностью 34,13%*2.
При n<30
Доверительный
интервал рассчитывается по формуле
,
где t
– квантиль распределения Стьюдента
для соответствующей доверительной
вероятности и df
=n-1.
