
- •Министерство образования и науки Российской Федерации Автономная некоммерческая образовательная организация высшего профессионального образования «тамбовский институт социальных технологий»
- •Учебно-методический комплекс дисциплины «Математические методы психологии» Автор: к.Пс.Н. Андреева а.А.
- •Раздел 1. Организационно-педагогическое описание учебного курса «Математические методы в психологии»
- •1.1. Назначение и цели дисциплины
- •1.2. Обязательный минимум содержание дисциплины
- •1.3. Структура дисциплины
- •1.4. Общие методические рекомендации по организации самостоятельной работы при изучении дисциплины
- •1.5. Требования к знаниям студентов и уровню их подготовки по завершению изучения дисциплины
- •1.6. Критерии оценки знаний студентов
- •Раздел 2. Тематическое содержание учебной дисциплины «Математические методы в психологии»
- •2.1. Рабочая учебная программа
- •Вопросы для подготовки к зачету по курсу
- •Раздел 3. Лекционный материал
- •3.1.Содержание лекционного материала (основной информационный блок) по темам программы учебного курса.
- •1. Первичное представление экспериментальных данных. Первичные описательные статистики.
- •2. Нормальный закон распределения. Проверка нормальности распределения.
- •Проверка гипотез с помощью статистических критериев. Содержательная интерпретация статистического решения.
- •Параметрические методы сравнения двух выборок. Сравнение дисперсий. Критерий t-Стьюдента для зависимых и независимых выборок.
- •1. Случай несвязных выборок
- •Выявление различий в уровне исследуемого признака. Оценка сдвига.
- •Выявление различий в распределении признака. Применение многофункциональных критериев к решению психологических задач.
- •Корреляция метрических переменных.
- •Применение непараметрических коэффициентов корреляции.
- •1. Математико-статистические идеи метода регрессионного анализа
- •2. Множественная линейная регрессия. Нелинейная регрессия.
- •1. Назначение, общие понятия и применение anova.
- •2. Однофакторный дисперсионный анализ anova.
- •1. Математико-статистические идеи и проблемы метода.
- •2. Использование факторного анализа в психологии
- •1. Многомерное шкалирование: назначение. Суть методов многомерного шкалирования (мш).
- •2. Меры различия.
- •3. Неметрическая модель.
- •Дискриминантный анализ: назначение.
- •Математико-статистические идеи метода. Исходные данные и результаты.
- •Кластерный анализ (ка) и система классификации исследованных объектов.
- •2. Методы кластерного анализа
- •Раздел 4. Самостоятельная работа
- •4.1. Задания для самостоятельной работы по темам
- •4.2. Примерная тематика контрольных работ и методические рекомендации по их написанию
- •Примерная тематика контрольных работ
- •Раздел 5. Литература
- •5.1. Основная литература
- •5.2. Дополнительная литература
- •Раздел 6. Тезаурус (определения основных понятий, категорий).
Корреляция метрических переменных.
Корреляционный анализ - комплекс методов статистического исследования взаимозависимости между переменными, связанными корреляционными отношениями.
Корреляционный анализ выступает в качестве одного из вспомогательных методов решения теоретических задач психодиагностики и включает в себя комплекс наиболее широко применяемых статистических процедур при разработке тестовых и других психодиагностических методик, определения их надежности, валидности. Корреляционный анализ является одним из основных методов статистической обработки эмпирического материала в прикладных психодиагностических исследованиях.
Первоначальное значение термина “корреляции” - взаимная связь.
Известно большое количество мер связи между признаками. Они отличаются как объемом вычислений, так и теми аспектами связи, которые они отражают. Рассмотрим две группы связи между признаками. В первой группе используется принцип ковариации, а во второй – принцип сопряженности признаков.
Исходя из первого принципа, заключение о наличии связи между признаками делается в том случае, когда увеличение значения одной переменной сопровождается устойчивым увеличением или уменьшением значений другой. К этой группе относятся: коэффициент корреляции Пирсона (rxy), коэффициент ранговой корреляции Спирмена (rs), точечный бисериальный коэффициент корреляции (rpb), тетрахорический коэффициент корреляции (rtet) (коэффициент ассоциации Пирсона), бисериальный коэффициент корреляции (rbis), коэффициент ранговой корреляции Кендалла (τ), коэффициент бисериальной ранговой корреляции Кертена и Гласса (rrb).
Вторая группа мер связи, основанная на принципе взаимной сопряженности, направлена на выяснение следующего факта: появляются ли некоторые значения одного признака одновременно с определенными значениями другого чаще, чем это можно объяснить случайным стечением обстоятельств. В данном случае фиксируется только сам факт наличия или отсутствия интересующих значений признака независимо от их количественного выражения. К этой группе относятся: коэффициент ассоциации φ, коэффициенты взаимной сопряженности Чупрова, Крамера, коэффициент контингенции Пирсона.
Что качается проблемы выбора той или иной меры связи для решения конкретной задачи можно сказать следующее. Применение к одним и тем же данным различных мер связи нередко приводит к отличающимся результатам. Это обусловлено тем, что математики, конструировавшие коэффициенты корреляции, как правило, исследовали их свойства в предельных ситуациях около 0 или 1. Поведение же различных мер связи внутри интервала [0,1] сравнительно мало изучено. Поэтому на практике предпочтительной выбор какой-либо меры связи бывает непросто обосновать, а результаты использования разных мер связи трудно сравнивать. Во многом такой выбор определяется личными симпатиями исследователя.
В качестве рекомендации предлагаем при выборе меры связи учитывать тип исследуемых признаков.
Переменные X и Y могут быть измерены в разных шкалах, именно это определяет выбор соответствующего коэффициента корреляции. Представим соотношения между типами шкал, в которых могут быть измерены переменные X и Y и соответствующими мерами связи в виде таблицы:
Таблица 1
Тип шкалы |
Мера связи |
|
Переменная X |
Переменная Y |
|
Интервальная или отношений |
Интервальная или отношений |
Коэффициент Пирсона (rxy) |
Ранговая |
Ранговая, интервальная или отношений |
Коэффициент Спирмена (rs ) Коэффициент Кендалла |
Ранговая |
Ранговая |
Коэффициент Спирмена (rs ) Коэффициент «» Кендалла |
Дихотомическая |
Дихотомическая |
Коэффициент Пирсона (или тетрахорический коэффициент корреляции (rtet)) |
Дихотомическая |
Ранговая |
Рангово-бисериальный коэффициент корреляции Кертена и Гласса (rrbis) |
Дихотомическая |
Интервальная или отношений |
Точечный бисериальный коэффициент корреляции (rpbis) Бисериальный коэффициент корреляции (rbis) |
Интервальная |
Ранговая |
Не разработан |
Задача корреляционного анализа сводится к установлению направления (положительное или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимости полученных коэффициентов корреляции.
Коэффициент линейной корреляции Пирсона характеризует наличие только линейной связи между признаками, обозначаемыми, как правило, символами X и Y. Формула расчета коэффициента корреляции построена таким образом, что, если связь между признаками имеет линейный характер, коэффициент Пирсона точно устанавливает тесноту этой связи. Поэтому он называется также коэффициентом линейной корреляции Пирсона. Если же связь между переменными X и Y не линейна, то Пирсон предложил для оценки тесноты этой связи так называемое корреляционное отношение.
Величина коэффициента линейной корреляции Пирсона не может превышать +1 и быть меньше чем -1. Эти два числа +1 и -1 — являются границами для коэффициента корреляции. Когда при расчете получается величина большая +1 или меньшая -1 — следовательно, произошла ошибка в вычислениях.
Если коэффициент корреляции по модулю оказывается близким к 1, то это соответствует высокому уровню связи между переменными. Так, в частности, при корреляции переменной величины с самой собой величина коэффициента корреляции будет равна +1. Подобная связь характеризует прямо пропорциональную зависимость. Если же значения переменной X будут распложены в порядке возрастания, а те же значения (обозначенные теперь уже как переменная Y) будут располагаться в порядке убывания, то в этом случае корреляция между переменными X и Y будет равна точно -1. Такая величина коэффициента корреляции характеризует обратно пропорциональную зависимость.
Знак коэффициента корреляции очень важен для интерпретации полученной связи. Подчеркнем еще раз, что если знак коэффициента линейной корреляции — плюс, то связь между коррелирующими признаками такова, что большей величине одного признака (переменной) соответствует большая величина другого признака (другой переменной). Иными словами, если один показатель (переменная) увеличивается, то соответственно увеличивается и другой показатель (переменная). Такая зависимость носит название прямо пропорциональной зависимости.
Если же получен знак минус, то большей величине одного признака соответствует меньшая величина другого. Иначе говоря, при наличии знака минус, увеличению одной переменной (признака, значения) соответствует уменьшение другой переменной. Такая зависимость носит название обратно пропорциональной зависимости. При этом выбор переменной, которой приписывается характер (тенденция) возрастания — произволен. Это может быть как переменная X, так и переменная Y. Однако если психолог будет считать, что увеличивается переменная X, то переменная Y будет соответственно уменьшаться, и наоборот. Эти положения очень важно четко усвоить для правильной интерпретации полученной корреляционной зависимости.
Расчет уровней значимости коэффициентов корреляции
Не все коэффициенты корреляции, которые будут рассмотрены ниже, имеют стандартных таблиц для нахождения критических значений. В этих случаях поиск критических значений осуществляется с помощью t-критерия Стьюдента по формуле.
n - 2_
Тф = | rэмп | • √ 1 - rэмп 2 (1)
rэмп - коэффициент корреляции,
n — число коррелируемых признаков,
величина Тф проверяется на уровень значимости по таблице 1 Приложения для t-критерия Стьюдента.
Число степеней свободы в этом случае будет равно k = n — 2.
Для применения коэффициента корреляции Пирсона, необходимо соблюдать следующие условия:
1. Сравниваемые переменные должны быть получены в интервальной шкале или шкале отношений.
2. Распределения переменных X и Y должны быть близки к нормальному.
3. Число варьирующих признаков в сравниваемых переменных X и Y должно быть одинаковым.
4. Таблицы уровней значимости для коэффициента корреляции Пирсона рассчитаны от п = 5 до п = 1000. Оценка уровня значимости по таблицам осуществляется при числе степеней свободы k = п - 2.