Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Мат методы в психологии.doc
Скачиваний:
1
Добавлен:
01.04.2025
Размер:
1.37 Mб
Скачать
  1. Корреляция метрических переменных.

Корреляционный анализ - комплекс методов статистического иссле­дования взаимозависимости между пере­менными, связанными корреляционными отношениями.

Корреляционный анализ выступает в качестве одного из вспомогательных методов решения теоре­тических задач психодиагностики и вклю­чает в себя комплекс наиболее широко применяемых статистических процедур при разработке тестовых и других психо­диагностических методик, определения их надежности, валидности. Корреляционный анализ явля­ется одним из основных методов статис­тической обработки эмпирического мате­риала в прикладных психодиагностичес­ких исследованиях.

Первоначальное значение термина “корреляции” - взаимная связь.

Известно большое количество мер связи между признаками. Они отличаются как объемом вычислений, так и теми аспектами связи, которые они отражают. Рассмотрим две группы связи между признаками. В первой группе используется принцип ковариации, а во второй – принцип сопряженности признаков.

Исходя из первого принципа, заключение о наличии связи между признаками делается в том случае, когда увеличение значения одной переменной сопровождается устойчивым увеличением или уменьшением значений другой. К этой группе относятся: коэффициент корреляции Пирсона (rxy), коэффициент ранговой корреляции Спирмена (rs), точечный бисериальный коэффициент корреляции (rpb), тетрахорический коэффициент корреляции (rtet) (коэффициент ассоциации  Пирсона), бисериальный коэффициент корреляции (rbis), коэффициент ранговой корреляции Кендалла (τ), коэффициент бисериальной ранговой корреляции Кертена и Гласса (rrb).

Вторая группа мер связи, основанная на принципе взаимной сопряженности, направлена на выяснение следующего факта: появляются ли некоторые значения одного признака одновременно с определенными значениями другого чаще, чем это можно объяснить случайным стечением обстоятельств. В данном случае фиксируется только сам факт наличия или отсутствия интересующих значений признака независимо от их количественного выражения. К этой группе относятся: коэффициент ассоциации φ, коэффициенты взаимной сопряженности Чупрова, Крамера, коэффициент контингенции Пирсона.

Что качается проблемы выбора той или иной меры связи для решения конкретной задачи можно сказать следующее. Применение к одним и тем же данным различных мер связи нередко приводит к отличающимся результатам. Это обусловлено тем, что математики, конструировавшие коэффициенты корреляции, как правило, исследовали их свойства в предельных ситуациях около 0 или 1. Поведение же различных мер связи внутри интервала [0,1] сравнительно мало изучено. Поэтому на практике предпочтительной выбор какой-либо меры связи бывает непросто обосновать, а результаты использования разных мер связи трудно сравнивать. Во многом такой выбор определяется личными симпатиями исследователя.

В качестве рекомендации предлагаем при выборе меры связи учитывать тип исследуемых признаков.

Переменные X и Y могут быть измерены в разных шкалах, именно это определяет выбор соответствующего коэффициента корреляции. Представим соотношения между типами шкал, в ко­торых могут быть измерены переменные X и Y и соответствую­щими мерами связи в виде таблицы:

Таблица 1

Тип шкалы

Мера связи

Переменная X

Переменная Y

Интервальная или отношений

Интервальная или отношений

Коэффициент Пирсона (rxy)

Ранговая

Ранговая, интервальная или отношений

Коэффициент Спирмена (rs )

Коэффициент  Кендалла

Ранговая

Ранговая

Коэффициент Спирмена (rs )

Коэффициент «» Кендалла

Дихотомическая

Дихотомическая

Коэффициент  Пирсона

(или тетрахорический коэффициент корреляции (rtet))

Дихотомическая

Ранговая

Рангово-бисериальный коэффициент корреляции Кертена и Гласса (rrbis)

Дихотомическая

Интервальная или отношений

Точечный бисериальный коэффициент корреляции (rpbis)

Бисериальный коэффициент корреляции (rbis)

Интервальная

Ранговая

Не разработан

Задача корреляционного анализа сводится к установлению направления (положительное или отрицательное) и формы (ли­нейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимо­сти полученных коэффициентов корреляции.

Коэффициент линейной корреляции Пирсона характеризует наличие только линейной свя­зи между признаками, обозначаемыми, как правило, символами X и Y. Формула расчета коэффициента корреляции построена таким образом, что, если связь между признаками имеет ли­нейный характер, коэффициент Пирсона точно устанавливает тесноту этой связи. Поэтому он называется также коэффициен­том линейной корреляции Пирсона. Если же связь между пере­менными X и Y не линейна, то Пирсон предложил для оценки тесноты этой связи так называемое корреляционное отношение.

Величина коэффициента линейной корреляции Пирсона не может превышать +1 и быть меньше чем -1. Эти два числа +1 и -1 — являются границами для коэффициента корреляции. Когда при расчете получается величина большая +1 или меньшая -1 — следовательно, произошла ошибка в вычислениях.

Если коэффициент корреляции по модулю оказывается близким к 1, то это соответствует высокому уровню связи меж­ду переменными. Так, в частности, при корреляции перемен­ной величины с самой собой величина коэффициента корреля­ции будет равна +1. Подобная связь характеризует прямо про­порциональную зависимость. Если же значения переменной X будут распложены в порядке возрастания, а те же значения (обозначенные теперь уже как переменная Y) будут распола­гаться в порядке убывания, то в этом случае корреляция между переменными X и Y будет равна точно -1. Такая величина ко­эффициента корреляции характеризует обратно пропорцио­нальную зависимость.

Знак коэффициента корреляции очень важен для интерпре­тации полученной связи. Подчеркнем еще раз, что если знак ко­эффициента линейной корреляции — плюс, то связь между кор­релирующими признаками такова, что большей величине одного признака (переменной) соответствует большая величина другого признака (другой переменной). Иными словами, если один показатель (переменная) увеличивается, то соответственно уве­личивается и другой показатель (переменная). Такая зависимость носит название прямо пропорциональной зависимости.

Если же получен знак минус, то большей величине одного признака соответствует меньшая величина другого. Иначе гово­ря, при наличии знака минус, увеличению одной переменной (признака, значения) соответствует уменьшение другой пере­менной. Такая зависимость носит название обратно пропорцио­нальной зависимости. При этом выбор переменной, которой приписывается характер (тенденция) возрастания — произволен. Это может быть как переменная X, так и переменная Y. Однако если психолог будет считать, что увеличивается переменная X, то переменная Y будет соответственно уменьшаться, и наоборот. Эти положения очень важно четко усвоить для правильной ин­терпретации полученной корреляционной зависимости.

Расчет уровней значимости коэффициентов корреляции

Не все коэффициенты корреляции, которые будут рассмотрены ниже, имеют стандартных таблиц для нахождения критичес­ких значений. В этих случаях поиск критических значений осуще­ствляется с помощью t-критерия Стьюдента по формуле.

n - 2_

Тф = | rэмп | • √ 1 - rэмп 2 (1)

rэмп - коэффициент корреляции,

n — число коррелируемых признаков,

величина Тф проверяется на уровень значимости по таблице 1 Приложения для t-крите­рия Стьюдента.

Число степеней свободы в этом случае будет равно k = n 2.

Для применения коэффициента корреляции Пирсона, необхо­димо соблюдать следующие условия:

1. Сравниваемые переменные должны быть получены в интер­вальной шкале или шкале отношений.

2. Распределения переменных X и Y должны быть близки к нор­мальному.

3. Число варьирующих признаков в сравниваемых переменных X и Y должно быть одинаковым.

4. Таблицы уровней значимости для коэффициента корреляции Пирсона рассчитаны от п = 5 до п = 1000. Оценка уровня значимости по таблицам осуществ­ляется при числе степеней свободы k = п - 2.