- •О.Ю. Ермолаев математическая статистика для психологов Учебник
- •Глава 8 критерии согласия распределений и
- •Глава 10 введение в дисперсионный анализ anova 178
- •Глава 11 корреляционный анализ 202
- •Глава 13 факторный анализ 274
- •Введение
- •Глава 1 понятие измерения
- •1.1. Измерительные шкалы
- •1.2. Номинативная шкала (шкала наименований)
- •1.3. Порядковая (ранговая, ординарная) шкала
- •1.3.1. Правила ранжирования
- •1.3.2. Проверка правильности ранжирования
- •1.3.3. Случай одинаковых рангов
- •1.4. Шкала интервалов
- •1.5. Шкала отношений
- •Глава 2 понятие выборки
- •2.1. Полное исследование
- •2.2. Выборочное исследование
- •2.3. Зависимые и независимые выборки
- •2.4. Требования к выборке
- •2.5. Репрезентативность выборки
- •2.6. Формирование и объем репрезентативной выборки
- •Глава 3 формы учета результатов измерений
- •3.1. Таблицы
- •3.2. Статистические ряды
- •3.3. Понятие распределения и гистограммы
- •Глава 4
- •4.1. Мода
- •4.2. Медиана
- •4.3. Среднее арифметическое
- •4.4. Разброс выборки
- •4.5. Дисперсия
- •Степень свободы
- •4.7. Понятие нормального распределения
- •Стандартизация по шкалам:
- •Глава 5 общие принципы проверки статистических гипотез
- •5.1. Проверка статистических гипотез
- •5.2. Нулевая и альтернативная гипотезы
- •5.3. Понятие уровня статистической значимости
- •5.4. Этапы принятия статистического решения
- •5.5. Классификация психологических задач, решаемых с помощью статистических методов
- •Глава 6 статистические критерии различий
- •Выбор метода статистического вывода
- •Классификация методов статистического вывода
- •Методы сравнения (X— качественный, y— количественный)
- •6.1.1. Параметрические и непараметрические критерии
- •6.1.2. Рекомендации к выбору критерия различий
- •6.2. Непараметрические критерии для связных выборок
- •6.2.1. Критерий знаков g
- •6.2.2. Парный критерий т — Вилкоксона
- •6.2.3. Критерий Фридмана
- •6.2.4. Критерий Пейджа
- •6.2.5. Критерий Макнамары
- •Глава 7 непараметрические критерии для несвязных выборок
- •7.1. Критерий u Вилкоксона-Манна-Уитни
- •7.1 1. Первый способ расчета по критерию u
- •7.1.2. Второй способ расчета по критерию u
- •7.2. Критерий q Розенбаума
- •Глава 8 критерии согласия распределений и многофункциональный критерий «φ»
- •8.1. Критерий хи-квадрат
- •8.1.1. Сравнение эмпирического распределения с теоретическим
- •8.1.2. Сравнение двух экспериментальных распределений
- •8.1.3. Использование критерия хи-квадрат для сравнения показателей внутри одной выборки
- •8.2. Критерий Колмогорова-Смирнова
- •8.3. Критерий Фишера — φ
- •8.3.1. Сравнение двух выборок по качественно определенному признаку
- •8.3.2. Сравнение двух выборок по количественно определенному признаку
- •Глава 9 параметрические критерии различия
- •9.1.1. Случай несвязных выборок
- •9.1.2. Случай связных выборок
- •Глава 10 введение в дисперсионный анализ anova
- •10.1. Однофакторный дисперсионный анализ
- •10.2. «Быстрые» методы — критерии дисперсионного анализа
- •10.2.1. Критерий Линка и Уоллеса
- •10.2.2. Критерий Немени
- •Глава 11 корреляционный анализ
- •11.1. Понятие корреляционной связи
- •11.2. Коэффициент корреляции Пирсона
- •11.3. Коэффициент корреляции рангов Спирмена
- •11.3.1. Случай одинаковых (равных) рангов
- •11.4. Расчет уровней значимости коэффициентов корреляции
- •11.5. Коэффициент корреляции «φ»
- •11.5.1. Второй способ вычисления коэффициента «φ»
- •11.6. Коэффициент корреляции «τ» Кендалла
- •11.7. Бисериальный коэффициент корреляции
- •11.8. Рангово-бисериальный коэффициент корреляции
- •11.9. Корреляционное отношение Пирсона η
- •11.10. Множественная корреляция
- •11.11. Частная корреляция
- •Глава 12 регрессионный анализ
- •12.1. Линейная регрессия
- •12.2. Множественная линейная регрессия
- •12.3. Оценка уровней значимости коэффициентов регрессионного уравнения
- •12.4. Нелинейная регрессия
- •Глава 13 факторный анализ
- •13.1. Основные понятия факторного анализа
- •13.2. Условия применения факторного анализа
- •13.3. Приемы для определения числа факторов
- •13.4. Вращение факторов
- •13.5. Использование факторного анализа в психологии
- •Приложение Пример использования методов математической статистики в дипломной работе
- •Приведем оглавление диплома:
- •Глава I. Теоретические основы агрессивности и тревожности личности.
- •Глава II. Основные результаты выполненного исследования агрессивности и тревожности личности и их зависимости от уровня субъективного контроля.
- •Методика Басса—Дарки
- •Литература
4.4. Разброс выборки
Разброс (иногда эту величину называют размахом) выборки обозначается буквой R. Это самый простой показатель, который можно получить для выборки — разность между максимальной и минимальной величинами данного конкретного вариационного ряда, т.е.
R = Xтах — Хmin
Понятно, что чем сильнее варьирует измеряемый признак, тем больше величина R, и наоборот.
Однако может случиться так, что у двух выборочных рядов и средние, и размах совпадают, однако характер варьирования этих рядов будет различный. Например, даны две выборки:
X = 10 15 20 25 30 35 40 45 50 X = 30 R = 40
Y = 10 28 28 30 30 30 32 32 50 Y = 30 R = 40
При равенстве средних и разбросов для этих двух выборочных рядов характер их варьирования различен. Для того чтобы более четко представлять характер варьирования выборок, следует обратиться к их распределениям.
4.5. Дисперсия
Рассмотрим еще одну очень важную числовую характеристику выборки, называемую дисперсией. Дисперсия представляет собой наиболее часто использующуюся меру рассеяния случайной величины (переменной). Дисперсия это среднее арифметическое квадратов отклонений значений переменной от её среднего значения.
где п — объем выборки
j_— индекс суммирования
X — среднее, вычисляемое по формуле (4.1).
Вычислим дисперсию следующего ряда
2 4 6 8 10 (4.5)
Прежде всего, найдем среднее ряда (4.5). Оно равно X = 6.
Рассмотрим величины: (Xt — X) для каждого элемента ряда. Иными словами, из хаждого элемента ряда 4.5 вычтем величину среднего этого ряда. Полученные величины характеризуют то, насколько каждый элемент отклоняется от средней величины в данном ряду. Обозначим полученную совокупность разностей как множество Т. Тогда Т есть:
Т= (2 - 6 = -4; 4 — б = -2; 6 - 6 = 0; 8 - 6 = 2; 10 - 6 = 4).
Так образуется новый ряд чисел. Его особенность в том, что при сложении этих чисел обязательно получится ноль. Проверим:
(-4) + (-2) + 0 + 2 + 4 = 0.
Отметим, что сумма такого ряда Σ(Хι — X)всегда будет равна нулю.
Для того чтобы избавиться от нуля, каждое значение разности (Xt — X) возводят в квадрат, все их суммируют и затем делят на число элементов, т.е. применяют формулу 4.4. В нашем примере получится следующее:
Это и есть искомая дисперсия
Общий алгоритм вычисления дисперсии для одной выборки следующий:
Вычисляется среднее по выборке.
Для каждого элемента выборки вычисляется его отклонений от средней, т.е. получается множество Т.
Каждый элемент множества T возводят в квадрат.
Находится сумма этих квадратов.
Эта сумма, как и в случае вычисления среднего, делится на общее количество членов ряда — п. В ряде случаев, особенно когда величина выбоки мала, деление осуществляется не на величину п, а на величину п— 1.
Величина, получающаяся после пятого шага, и есть искомая дисперсия.
Расчет дисперсии для таблицы чисел осуществляется по формуле 4.6:
где хi — значения всех переменых, полученных в эксперименте, или все элементы таблицы;
индекс j меняется от 1 до р, где р число столбцов в таблице, а индекс i меняется от 1 до n, где п — число испытуемых или число строк в таблице.
X — общая средняя всех элементов таблицы, вычисленная по формуле 4.3;
Ν — общее число всех элементов в таблице (анализируемой совокупности экспериментальных данных) и в общем случае N = р ∙ п.
Дисперсию для генеральной совокупности принято обозначать как σ2, а дисперсию выборки как Sx2, причем индекс х обозначает, что дисперсия характеризует варьирование числовых значений признака вокруг их средней арифметической.
Преимущество дисперсии перед размахом в том, что дисперсию можно представить как сумму ряда чисел (согласно ее определению), т.е. разложить на составные компоненты, позволяя тем самым более подробно охарактеризовать исходную выборку. Важная характеристика дисперсии заключается также и в том, что с её помощью можно сравнивать выборки, различные по объему.
Однако сама дисперсия, как характеристика отклонения от среднего, часто неудобна для интерпретации. Так, например, предположим, что в эксперименте измерялся рост в сантиметрах, тогда размерность дисперсии будет являться характеристикой площади, а не линейного размера (поскольку при подсчете дисперсии сантиметр возводится в квадрат).
Для того чтобы приблизить размерность дисперсии к размерности измеряемого признака применяют операцию извлечения квадратного корня из дисперсии. Полученную величину называют стандартным отклонением.
Из суммы квадратов, деленных на число членов ряда извлекается квадратный корень.
Другими словами, стандартное отклонение выборки Sx представляет собой корень квадратный, извлеченный из дисперсии выборки Sx2 Стандартное отклонение для генеральной совокупности обозначают также символом σ. Подчеркнем еще раз, что размерность стандартного отклонения и размерность исходного ряда совпадают. В нашем примере
Свойства дисперсии:
Если значения измеренного признака не отличаются друг от друга (равны между собой) — дисперсия равна нулю. Это соответствует отсутствию изменчивости в данных.
Прибавление одного и того же числа к каждому значению переменной не меняет дисперсию:
Рис. 4.1. Графики распределения частот: с разной дисперсией (D1<D2, одинаковой дисперсией (D2= D3) и разными средними арифметическими (М2<М3)
Прибавление константы к каждому значению переменной сдвигает график распределения этой переменной на эту константу (меняется среднее), но изменчивость (дисперсия) при этом остается неизменной.
3. Умножение каждого значения переменной на константу с изменяет дисперсию в с2 раз:
При объединении двух выборок с одинаковой дисперсией, но с разными средними значениями дисперсия увеличивается.
Пример
Если одна группа содержит значения: 1,1,1,1,1, а другая группа —значения 3,3, 3, 3, 3, то дисперсии этих групп одинаковы и равны 0. Если же объединить эти две группы, то дисперсия будет равна не 0, а 1.
Вообще говоря, справедливо утверждение: при объединении двух групп к внутригрупповой дисперсии каждой группы добавляется дисперсия, обусловленная различием между группами (их средними). И чем больше различие между средними значениями, тем больше увеличивается дисперсия объединенных групп.
Стандартизация или z-преобразование данных — это перевод измерений в стандартную Z-шкалу (Z-scores) со средним Мг = 0 и Dz (или аг) = 1. Сначала для переменной, измеренной на выборке, вычисляют среднее Мх стандартное отклонение ах. Затем все значения переменной х, пересчитываются по формуле:
В результате преобразованные значения (z-значения) непосредственно выражаются в единицах стандартного отклонения от среднего. Если для одной выборки несколько признаков переведены в z-значения, появляется возможность сравнения уровня выраженности разных признаков у того или иного испытуемого. Для того чтобы избавиться от неизбежных отрицательных и дробных значений, можно перейти к любой другой известной шкале: IQ (среднее 100, сигма 15); Т-оценок (среднее 50, сигма 10); 10-балльной — стенов (среднее 5,5, сигма 2) и др. Перевод в новую шкалу осуществляется путем умножения каждого z-значения на заданную сигму и прибавления среднего:
Асимметрия (Skewness) — степень отклонения графика распределения частот от симметричного вида относительно среднего значения. Если исходные данные переведены в z-значения, показатель асимметрии вычисляется по формуле:
Для симметричного распределения асимметрия равна 0. Если чаще встречаются значения меньше среднего, то говорят о левосторонней, или положительной асимметрии (As > 0). Если же чаще встречаются значения больше среднего, то асимметрия — правосторонняя, или отрицательная (As<0). Чем больше отклонение от нуля, тем больше асимметрия.
Эксцесс (Kurtosis) — мера плосковершинности или остроконечности графика распределения измеренного признака. Если исходные данные переведены в z-значения, показатель эксцесса определяется формулой:
Островершинное распределение характеризуется положительным эксцессом (Ех> 0), а плосковершинное — отрицательным (-3 < Ех< 0). «Средневер-шинное» (нормальное) распределение имеет нулевой эксцесс (Ех = 0).
