- •Організація психологічної служби
- •1. Сучасний стан системи освіти в Україні і місце психологічної служби в ній
- •2. Методи діагностики готовності до навчання
- •3. Відповідальність психолога. Права та обов’язки шкільного психолога
- •Психологічна експертиза
- •1. Сутність експертизи як своєрідного виду психологічного дослідження
- •3. Експертиза емоційних станів
- •4. Психологічна експертиза неповнолітніх
- •Соціальна психологія
- •1. Предмет та завдання соціальної психології, причини її виникнення
- •2. Поняття про групи в соціальній психології. Великі та малі групи. Головні ознаки та параметри групи
- •3. Поняття «групова динаміка». Механізми групової динаміки, основні елементи та чинники
- •I Группы:
- •I I Группы
- •Педагогічна психологія
- •1. Предмет, завдання, структура педагогічної психології
- •2. Навчання і розвиток: співвідношення навчання і розвитку в процесі навчання
- •4. Теорія поетапного формування розумових дій і можливості її вживання в навчанні
- •5. Мотиви педагогічної діяльності
- •7. Стилі сімейного виховання та їх вплив на розвиток дитини
- •Патопсихологія
- •1. Історія розвитку патопсихології
- •2. Порушення операційної сторони сприйняття
- •3. Порушення операційної сторони мислення
- •Порушення особистості
- •Загальна психологія з практикумом
- •1. Психологія як наука, її предмет та завдання. Сучасні напрямки психології
- •2. Основні методи психології, їх характеристика
- •3. Поняття про особистість в психології.
- •4. Поняття про діяльність
- •5. Поняття про спілкування в психології
- •Історія психології
- •Математичні методи в психології
- •Реабілітаційна психологія
- •Психологія конфліктів
- •1.Типологія стратегії поведінки особистості в конфліктній ситуації
- •2.Групові конфлікти
- •Понятие групповых конфликтов, их виды и классификация.
- •3.Основи попередження конфліктів
- •4.Психологічні особливості виникнення і протікання педагогічних конфліктів
- •5.Розв’язання конфліктів
Математичні методи в психології
Основи вимірювання і кількісного опису даних в психології
Генеральна сукупність. Вибірка. Вимоги до вибірки. Репрезентативність вибірки. Прийоми формування репрезентативної вибірки. Ознаки і змінні. Поняття вимірювання. Вимірювальні шкали: номинативна, порядкова шкали, шкала інтервалів, шкала відносин.
Генеральная совокупность – совокупность элементов, удовлетворяющих неким заданным условиям; именуется также изучаемой совокупностью. Генеральная совокупность (Universe) - все множество объектов (субъектов) исследования, из которого выбираются (могут выбираться) объекты (субъекты) для обследования (опроса).
ВЫБОРКА или выборочная совокупность (Sample) — это множество объектов (субъектов), отобранных специальным образом для обследования (опроса). Любые данные, полученные на основании выборочного обследования (опроса), имеют вероятностный характер. На практике это означает, что в ходе исследования определяется не конкретное значение, а интервал, в котором определяемое значение находится.
Репрезентативная выборка — выборочная совокупность, в которой основные характеристики совпадают с характеристиками генеральной совокупности. Только для этого типа выборки результаты обследования части единиц (объектов) можно распространять на всю генеральную совокупность. Необходимое условие для построения репрезентативной выборки — наличие информации о генеральной совокупности, т.е. либо полный список единиц (субъектов) генеральной совокупности, либо информация о структуре по характеристикам, существенно влияющим на отношение к предмету исследования.
Признаки и переменные - это измеряемые психологические явления. Такими явлениями могут быть время решения задачи, количество допущенных ошибок, уровень тревожности, показатель интеллектуальной лабильности, интенсивность агрессивных реакций, угол поворота корпуса в беседе, показатель социометрического статуса и множество других переменных. Понятия признака и переменной могут использоваться как взаимозаменяемые. Они являются наиболее общими. Математическая обработка - это оперирование со значениями признака, полученными у испытуемых в психологическом исследовании. Такие индивидуальные результаты называют также "наблюдениями", "наблюдаемыми значениями", "вариантами", "датами", "индивидуальными показателями" и др. В психологии чаще всего используются термины "наблюдение" или "наблюдаемое значение".
Значения признака определяются при помощи специальных шкал измерения.
Шкалы измерения
Измерение - это приписывание числовых форм объектам или событиям в соответствии с определенными правилами (Стивене С, 1960, с.60). С.Стивенсом предложена классификация из 4 типов шкал измерения:
1) номинативная, или номинальная, или шкала наименований;
2) порядковая, или ординальная, шкала;
3) интервальная, или шкала равных интервалов;
4) шкала равных отношений.
Номинативная шкала - это шкала, классифицирующая по названию: потеп (лат.) - имя, название.
Порядковая шкала - это шкала, классифицирующая по принципу "больше - меньше".
Интервальная шкала - это шкала, классифицирующая по принципу "больше на определенное количество единиц - меньше на определенное количество единиц". Каждое из возможных значений признака отстоит от другого на равном расстоянии.
Шкала равных отношений - это шкала, классифицирующая объекты или субъектов пропорционально степени выраженности измеряемого свойства. В шкалах отношений классы обозначаются числами, которые пропорциональны друг другу: 2 так относится к 4, как 4 к 8. Это предполагает наличие абсолютной нулевой точки отсчета.
2. Статистичні гіпотези та статистичні критерії
Перевірка статистичних гіпотез. Нульова і альтернативна гіпотези. Поняття рівень статистичної значущості. Етапи ухвалення статистичного рішення. Класифікація психологічних задач, які розв’язуються за допомогою статистичних методів. Параметричні і непараметричні критерії. Нормальний розподіл. Перевірка нормальності розподілу.
Статистические гипотезы подразделяются на нулевые и альтернативные, направленные и ненаправленные.
Нулевая гипотеза - это гипотеза об отсутствии различий. Она обозначается как H0 и называется нулевой потому, что содержит число 0: X1- Х2=0, где X1, X2 - сопоставляемые значения признаков.
Нулевая гипотеза - это то, что мы хотим опровергнуть, если перед нами стоит задача доказать значимость различий.
Альтернативная гипотеза - это гипотеза о значимости различий. Она обозначается как H1. Альтернативная гипотеза - это то, что мы хотим доказать, поэтому иногда ее называют экспериментальной гипотезой. Проверка гипотез осуществляется с помощью критериев статистической оценки различий.
Статистический критерий - это решающее правило, обеспечивающее надежное поведение, то есть принятие истинной и отклонение ложной гипотезы с высокой вероятностью (Суходольский Г.В., 1972, с. 291).
Статистические критерии обозначают также метод расчета определенного числа и само это число. Критерии делятся на параметрические и непараметрические.
Параметрические критерии
Критерии, включающие в формулу расчета параметры распределения, то есть средние и дисперсии (t - критерий Стьюдента, критерий F и др.)
Непараметрические критерии
Критерии, не включающие в формулу расчета параметров распределения и основанные на оперировании частотами или рангами (критерий Q Розенбаума, критерий Т Вилкоксона и др.)
И те, и другие критерии имеют свои преимущества и недостатки.
|
ПАРАМЕТРИЧЕСКИЕ КРИТЕРИИ |
НЕПАРАМЕТРИЧЕСКИЕ КРИТЕРИИ |
||
1. Позволяют прямо оценить различи* в средних, полученных в двух выборках (t - критерий Стьюдента). |
Позволяют оценить лишь средние тенденции, например, ответить на вопрос, чаще ли в выборке А встречаются более высокие, а в выборке Б - более низкие значения признака (критерии Q, U, φ* и др.). |
|
||
2. Позволяют прямо оценить различия в дисперсиях (критерий Фишера). |
Позволяют оценить лишь различия в диапазонах вариативности признака (критерий φ*). |
|
||
3. Позволяют выявить тенденции изме-нения признака при переходе от условия к условию (дисперсионный однофакторный анализ), но лишь при условии нормального распределения признака. |
Позволяют выявить тенденции изменения признака при переходе от условия к условию при любом распределении признака (критерии тенденций L и S). |
|
||
4. Позволяют оценить взаимодействие двух и более факторов в их влиянии на изменения признака (двухфакторный дисперсионный анализ). |
Эта возможность отсутствует. |
|
||
5. Экспериментальные данные должны отвечать двум, а иногда трем, условиям: а) значения признака измерены по интервальной шкале; б) распределение признака является нормальным; в) в дисперсионном анализе должно соблюдаться требование равенства дисперсий в ячейках комплекса. |
Экспериментальные данные могут не отвечать ни одному из этих условий: а) значения призн |
|
||
Нормальное распределение
Многочисленные методы, с помощью которых обрабатываются переменные, относящиеся к интервальной шкале, исходят из гипотезы, что их значения подчиняются нормальному распределению. При таком распределении большая часть значений группируется около некоторого среднего значения, по обе стороны от которого частота наблюдений равномерно снижается.
В качестве примера рассмотрим нормальное распределение возраста, которое строится по данным исследований гипертонии (файл hyper.sav) с помощью команд меню Graphs (Графы) ► Histogramm... (Гистограмма) (см. рис. 5.1).
Рис. 5.1: Распределение возраста
На диаграмме нанесена кривая нормального распределения (Колокол Гаусса). Реальное распределение в большей или меньшей степени отклоняется от этой идеальной кривой. Выборки, строго подчиняющиеся нормальному распределению, на практике, как правило, не встречаются. Поэтому почти всегда необходимо выяснить, можно ли реальное распределение считать нормальным и насколько значительно заданное распределение отличается от нормального.
Перед применением любого метода, который предполагает существование нормального распределения, наличие последнего нужно проверять в первую очередь. Классическим примером статистического теста, который исходит из гипотезы о нормальном распределении, можно назвать t-тест Стьюдента, с помощью которого сравнивают две независимые выборки. Если же данные не подчиняются нормальному распределению, следует использовать соответствующий непараметрический тест, в случае двух независимых выборок — U-тест Манна и Уитни.
Если визуальное сравнение реальной гистограммы с кривой нормального распределения кажется недостаточным, можно применить тест Колмогорова-Смирнова, который находится в меню Analyze (анализ данных) в наборе непараметрических тестов.
В нашем примере с распределением возрастов тест Колмогорова-Смирнова не показывает значительного отклонения от нормального распределения.
Еще одну возможность проверки наличия нормального распределения дает построение графика нормального распределения (см. разделы 10.4.1, 22.12), в котором наблюдаемые значения сопоставляются с ожидаемыми при нормальном распределении.
Как правило, подчиняются нормальному распределению. Исходя из этого выбираются критерии для проверки статистических гипотез. Однако, если распределение отличается от нормального, то критерии для нормального распределения (такие, как критерий Стьюдента) применять нельзя.
Поэтому вид распределения нужно предварительно проверять. Существуют статистические критерии подчинения нормальному закону распределения.
Таблица значений Q-критерия
1) Грубые критерии. Эти критерии определяют, есть ли резко выпадающие данные (грубые ошибки, промахи, выбросы). Эти критерии не рассматривают всей совокупности данных, а только крайние значение. Примером может служить Q-критерий. Тестовая статистика Q-критерия вычисляется по формуле:
где x? - "подозрительное" значение (вероятный промах) - это максимальное или минимальное значение выборки, xближайшее - ближайшее к подозрительному значение, xмин и xмакс - максимальное и минимальное значения выборки (эта формула верна для числа измерений n = 3..7. При n = 8..10 в знаменателе должна стоять разница между подозрительным значением и ближайшем к максимальному (или минимальному)). Значение Q сравнивают с табличным значением, и если табличное значение критерия меньше тестовой статистики, то подозрительный результат является промахом и исключается из дальнейшего рассмотрения. При этом обычно доверительную вероятность берут равной 0.90, а не 0.95. В данном случае это является некоторым "ужесточением" требований: лучше выбросить значение, не являющееся промахом, чем оставить промах в выборке. Как правило, на промах проверяют минимальное и максимальное значение выборки.
Q-критерий работает для выборок, содержащих 3 - 10 значений, при больших объемах выборки он становится нечувствителен к промахам.
2) Критерии, которые определяют, подчиняется ли вся совокупность нормальному распределению. Для применения этих критериев обычно требуется большой набор данных (чем больше, тем лучше, как правило, не меньше 30 единичных измерений).
Один из наиболее простых критериев этого типа - критерий Пирсена.
Проверка гипотезы о нормальном распределении случайной величины осуществляется по следующей схеме:
Дана выборка из n значений: x1, x2 ... xn, причем n > 30
Значения упорядочиваются по возрастанию, и вся выборка разбивается на mинтервалов, m > 5, (обычно берут ), причем в каждый интервал должно попадать не менее 5 значений:
Строится гистограмма, площадь прямоугольника над отрезком должна быть пропорциональна числу точек, попавшему в отрезок (Ni):
Нужно выяснить, случайно ли отличие от нормального распределения, другими словами, случайно ли различие между экспериментальной кривой и теоретической кривой. Теоретическая кривая строится по формуле:
причем в качестве и берутся соответственно значения среднего и стандартного отклонения S, вычисленные для тестируемой выборки.
Нужно охарактеризовать различие между площадью экспериментальной гистограммы и площадью под теоретической кривой. Интеграл от функции Гаусса не выражается в элементарных функциях, но существуют таблицы интегралов для функции:
Для того, чтобы теоретическую кривую привести к такому виду, нужно произвести замену переменных:
Аналогично преобразовываются координаты отрезков:
Строится таблица:
отрезок |
исходные границы |
преобразованные границы |
интеграл от функции гаусса |
||
левая |
правая |
левая |
правая |
(вычисляется по таблице) |
|
1 |
|
a1 |
|
b1 |
I1 |
2 . . . |
a1 |
a2 |
b1 |
b2 |
I2 |
m |
am-1 |
|
bm-1 |
|
Im |
Поскольку интеграл Ii равен доле точек (сумма этих интегралов должна быть равна 1), то его нужно умножить на число точек:Вычисляется тестовая статистика:
Тестовая статистика сравнивается с табличным значением. Если тестовая статистика больше табличного значения, гипотеза о нормальном распределении отбрасывается, если меньше - данные подчиняются нормальному распределению.
Кореляційний аналіз
Поняття кореляції та кореляційного зв'язку. Функціональна залежність і кореляція. Поняття коефіцієнту кореляції, його значення. Правила прийняття альтернативної та відхилення нульової гіпотези в кореляційному аналізі. Коефіцієнт кореляції К. Пірсона. Ранговий коефіцієнт кореляції Ч.Спірмана. Ухвалення рішення про вибір коефіцієнта кореляції.
Корреляция - это понятие, которым отмечают связь между явлениями, если одно из них входит в число причин, определяющих другие, или если имеются общие причины, воздействующие на эти явления (функция является частным случаем корреляции); кореляция может быть более или менее тесной (т.е. зависимость одной величины от другой - более или менее ясно выраженной); число, показывающее степень тесноты корреляции, называется коэффициентом корреляции (это число заключено между -1 и 1). Корреляция - это взаимная связь явлений, находящихся в известной зависимости друг от друга. Рост безработицы и количество уголовных преступлений находятся в прямой корреляции друг к другу.
Коэффициент корреляции - это математическая мера корреляции двух величин. Коэффициенты корреляции могут быть положительными и отрицательными. Если при увеличении значения одной величины происходит уменьшение значений другой величины, то их коэффициент корреляции отрицательный. В случае, когда увеличение значений первого объекта наблюдения приводит к увеличениям значения второго объекта, то можно говорить о положительном коэффициенте. Возможна еще одна ситуация отсутствия статистической взаимосвязи - например, для независимых случайных величин.
К. Пирсон и Дж. Юл разработали корреляционный анализ, который по их мнению должен ответить на вопрос о том, как выбрать с учетом специфики и природы анализируемых переменных подходящий измеритель статистической связи (коэффициент корреляции, корреляционное отношение, и т.д.), решить задачу, как оценить его числовые значения по уже имеющимся выборочным данным. Корреляционный анализ поможет: найти методы проверки того, что полученное числовое значение анализируемого измерителя связи действительно свидетельствует о наличии статистической связи; определить структуру связей между исследуемыми k признаками х 1, х 2,…, сопоставив каждой паре признаков ответ («связь есть» или «связи нет»).
Парный коэффициент корреляции – основной показатель взаимозависимости двух случайных величин, служит мерой линейной статистической зависимости между двумя величинами., он соответствует своему прямому назначению, когда статистическая связь между соответствующими признаками в генеральной совокупности линейна. То же самое относится к частным и множественным коэффициентам корреляции. Парный коэффициент корреляции, характеризует тесноту связи между случайными величинами х и у, определяется по формуле:p(x,у)=p= M{(x-Mx)(у-M)}
GxGу
Если р = 0, то между величинами х и у линейная связь отсутствует и они называютсянекоррелированными .Коэффициент корреляции, определяемый по вышеуказанной формуле, относится к генеральной совокупности.
Частный коэффициент корреляции характеризует степень линейной зависимости между двумя величинами, обладает всеми свойствами парного, т.е. изменяется в пределах от -1 до +1. Если частный коэффициент корреляции равен ±1, то связь между двумя величинами функциональная, а равенство его нулю свидетельствует о линейной независимости этих величин.
Множественный коэффициент корреляции, характеризует степень линейной зависимости между величиной х 1и остальными переменными (х 2, х з), входящими в модель, изменяется в пределах от 0 до 1.
Ординальная (порядковая) переменная помогает упорядочивать статистически исследованные объекты по степени проявления в них анализируемого свойства
Ранговая корреляция – статистическая связь между порядковыми переменными (измерение статистической связи между двумя или несколькими ранжировками одного и того же конечного множества объектов О 1,О 2,…, О п.
Ранжировка – это расположение объектов в порядке убывания степени проявления в них k-го изучаемого свойства. В этом случае x(k) называют рангом i-го объекта по k-му признаку. Раж характеризует порядковое место, которое занимает объект О i, в ряду п объектов.
К. Спирмен в 1904г предложил показатель, который служил для измерения степени тесноты связи между ранжировками
у = f(x)
В последствии данный коэффициент был назван ранговым коэффициентом К. Спирмен:
E\у-f(Х)\ - min
