- •Ответы на экзамен «Математические методы в психологии».
- •Цель применения математических методов. Измерение в психологии.
- •Шкала измерения
- •Переменные.
- •Мартица.
- •Основные этапы статистического исследования
- •1 0. Описание с помощью квантилей.
- •11. Меры центральной тенденции, мода.
- •12. Интерпретация меры.
- •13. Меры вариации.
- •Асимметрия и эксцесс
- •Нормальное распределение и его роль.
- •Применение нормального распределения:
- •Функция Лапласа
- •Измерительные шкалы.
- •Поняття і суть вибіркового методу, причини і умови його застосування.
- •Сравнение средних spss
- •Переменные, относящиеся к интервальной шкале и подчиняющиеся нормальному распределению
- •Переменные, относящиеся к порядковой шкале или переменные, относящиеся к интервальной шкале, но не подчиняющиеся нормальному распределению
- •Дисперсионный анализ
- •Критерий Фишера
- •20.Коэффициент корреляции
- •Symmetric Measures (Симметричные меры)
- •21.Непараметрические показатели связи. Ранговые коэффициенты связи.
- •В spss: Ранговые коэффициенты корреляции по Спирману и Кендалу
- •Correlations (Корреляции)
- •22.Категориальная переменная
- •23.Статистические критерии для таблиц сопряженности
- •12.2.3 Таблицы сопряженности с категориальными наборами
- •Пол * Психическое состояние Таблица сопряженности
- •Критерий хи-квадрат по Пирсону
- •Критерий хи-квадрат с поправкой на правдоподобие
- •Тест Мантеля-Хэнзеля
- •24. Проверка гипотезы о независимости признаков (таблица сопряженности признаков)
- •25. Коэф-т связи в табл сопряженности: Коэффициенты корреляции
- •Symmetric Measures (Симметричные меры)
- •26.Меры (may) л. Гудмена и е. Краскала (l. Goodman, е. Kruskal)
- •28. Регрессионный анализ
- •31. Линейная регрессия (пропедевтика)
- •Графики гетероскедастичности
- •Определение гетероскедастичности
- •Пр.: Этапы кластерного анализа
- •Выбор переменных-критериев для кластеризации.
- •Формирование кластеров
- •Интерпретация результатов.
Переменные, относящиеся к интервальной шкале и подчиняющиеся нормальному распределению
Количество сравниваемых выборок |
Зависимость |
Тест |
1 |
Независимые |
t-тест Стьюдента |
1 |
Зависимые |
t-тест для зависимых выборок |
>2 |
Независимые |
Простой дисперсионный анализ |
>2 |
Зависимые |
Простой дисперсионный анализ с повторными измерениями |
Переменные, относящиеся к порядковой шкале или переменные, относящиеся к интервальной шкале, но не подчиняющиеся нормальному распределению
Количество сравниваемых выборок |
Зависимость |
Гест |
1 |
Независимые |
U-тест Манна и Уитни |
2 |
Зависимые |
тест Уилкоксона |
>2 |
Независимые |
Н-тест Крускала и Уоллиса |
>2 |
Зависимые |
тест Фридмана |
Для каждой из этих двух групп тестов в SPSS имеются отдельные пункты меню, а именно Analyze (Анализ) Compare Means (Сравнение средних) или Analyze (Анализ) Nonparametric Tests (Непараметрические тесты)
Исключение составляет простой дисперсионный анализ с повторными измерениями. Этот метод нельзя найти в разделе Compare Means. Он вызывается командой меню General Linear Model (Общая линейная модель).
Дисперсионный анализ
Дисперсионный анализ – анализ влияния качественных факторов на количественные (Пр.: влияет ли качество – уровень обслуживания на посещаемость – обращение клиентов в банк).
Результат анализа – да/нет. Т.е. влияет качественный фактор или нет.
Проверяется нулевая гипотеза: Н0: сигма1 в квадрате=сигма2 в квадрате = сигма житое в квадрате = 0!!! Если применяется эта гипотеза, то качественный фактор НЕ оказывает влияние на количественный.
Н1: сигма1 в квадрате ≠сигма2 в квадрате ≠сигма житое в квадрате ≠ 0. Значит качественный фактор оказывает влияние на количественный.
Диперсионный анализ (МОДЕЛЬ):
Фактор – качество, либо свойство, в соответствии с которым классифицируется данные. Каждый фактор имеет несколько уровней (высокий, низкий уровень обслуживания)
Уровень – общий термин, используемый для описания конкретного свойства, определяющего каждую категорию рассматриваемой классификации.
Модель факторной системы:
Модель однофакторного анализа: Уij = M + τj + ξij
Уij – значение наблюдаемое. i – номер наблюдения, j – номер класса.
M – общая средняя по выборке
τj – эффект столбца
Если не будет влияния качественного фактора, то: Уij = M + ξij
Модель двуфакторная: оценивает влияет или нет два качественных фактора. Пр.: оценить влияет ли образование (гуманит, технич,..) и опыт работы (с….; без… - это уровни фактора) на уровень зарплаты.
Уij = M +αi + βj + ξij
Yij – наблюдаемое значение.
M – средний уровень (Хср зарплаты, например)
αi – влияние iго фактора
βj – jго фактора
ξij – случайная составляющая
Модель двуфакторная с взаимодействием факторов: Уij = M +αi + βj + ϒij + ξij
ϒij – совместное влияние iго и jго фактора.
Ограничения: - мат ожидание СВ равно 0. – остаточные СВ взаимно независимые Eij. – все остаточные случайные величины имеют одинаковую дисперсию. – кажд св распределена по нормальному закону распределения.
В SPSS дисперсионный анализ выполняется так: Выберите в меню Analyze (Анализ) General Linear Model (Общая линейная модель) Univariate... (Одномерная) Откроется диалоговое окно Univariate (Одномерная), Далее выбираются зависимые и независимые переменные и т.д.
Оценка значимости уравнения регрессии в целом дается с помощью F-критерия Фишера. При этом выдвигается нулевая гипотеза, что коэффициент регрессии равен нулю, т. е. b = 0, и следовательно, фактор х не оказывает влияния на результат у. Непосредственному расчету F-критерия предшествует анализ дисперсии.
Центральное место в нем занимает разложение общей суммы квадратов отклонений переменной у от средне го значения у на две части - «объясненную» и «необъясненную»:
- общая сумма квадратов отклонений
- сумма квадратов
отклонения объясненная регрессией
- остаточная сумма квадратов отклонения.
Статистическая гипотеза – это предположение о распределении
вероятностей, которое мы хотим проверить по имеющимся данным. Статистические гипотезы подразделяются на нулевые и альтернативные.
″Статистический критерий – это решающее правило, обеспечивающее надежное поведение, то есть принятие истинной и отклонение ложной гипотезы с высокой вероятностью″ Будем придерживаться следующего правила отклонения гипотезы об отсутствии различий (Н0 – нулевая гипотеза) и принятии гипотезы о статистической достоверности различий (Н1-альтернативная).