- •1.Генеральная и выборочная совокупности
- •2.Условия,которым должна удовлетворять выборка
- •3.Зависимые и независимые выборки
- •4.Измерения и виды шкал
- •5.Номинативная и порядковая шкалы
- •6.Шкала интервалов и шкала отношений
- •7.Таблица распределения частот
- •8. Таблица сгрупированных частот для разбиения на классы
- •9.Ранжирование
- •10. Меры центральной тенденции.
- •11. Меры изменчивости
- •12. Распределение исследуемого признака.
- •13. Метод Плохинского
- •14. Метод Пустыльника
- •15. Статистические гипотезы
- •16. Уровни значимости
- •17.Ось значимости
- •22. Критерий Стьюдента.
- •23. Критерий Фишера.
- •24 Понятие корреляционной связи
- •25. Линейная регрессия
- •26. Множественная линейная регрессия
- •27. Обоснование задачи сравнения распределений исследуемого признака
- •28.Понятие критерия Пирсона
- •29. Критерий Пирсона (сравнение эмпирического распределения с теоретическим).
- •30. Критерий Пирсона (сравнение двух эмпирических распределений)
- •31. Ограничения применения критерия Пирсона
- •32. Сдвиги
- •33.Критерий знаков
- •34. Критерий Вилкоксона
- •35. Понятие дисперсионного анализа.
- •36. Факторы и результативные признаки дисперсионного анализа.
- •37. Градации фактора
- •38.Уравнение дисперсионного анализа.
- •39. Создание комплексов дисперсионного анализа
- •40.Преобразование эмпирических данных
- •41.Ода для несвязных выборок
- •42. Однофакторный дисперсионный анализ для связанных выборок.
- •43. Понятие корреляции.
- •44. Коэффициент корреляции Фехнера.
- •45. Коэффициент корреляции Пирсона.
- •46.Коэффициент корреляции Спирмена
- •47. Коэффициент ранговой корреляции Кендала
- •48. Дихотомический коэффициент корреляции.
- •49.Точечный бисериальный коэффициент корреляции.
- •50. Рангово-бисериальный коэффициент корреляции.
22. Критерий Стьюдента.
t-критерий Стьюдента позволяет выделить различия, между ср-ми значениями 2-х рядов. Крит-й явл параметрическим, поскольку требует вычисления суммы квадратов отклонений от среднего.
Преимущества кр-я:
1)Могут сравниваться ряды с различным кол-вом знач-й;
2)Могут сравниваться, как независимые, так и зависимые выборки;
3)Кол-во значений в рядах не ограничено.
Алгоритм применения:
1)Составляем стат-ю табл в которой вычисляется сумма квадратов отклонений от среднего для каждого ряда;
2)Вычисляем эмпир-е знач t-крит-я по формуле
=
Где - ср знач (1-й выборки)
– ср
зн 2-й выборки
nx- кол-во эл-тов в 1-й
ny – во 2-й
3)По таблицам кр зн t-крит находим t-кр-е для p= 0,05 и p=0,01;
4)Строим ось знач-сти и формулир-ем тат гипотезы;
5)Делаем стат вывод
tэм<tкр значит Н0
tэм≥tкр - Н1
Ограничения критерия:
1)Измерения должны быть совершены в шкале интервалов или отношений.
2)Сравниваемые выборки должны быть распределены по нормальному закону распределения.
23. Критерий Фишера.
F-критерий Фишера применяется для сравнения дисперсий двух независимых выборок.
D
=
Ср-е знач-я не показывают величину размаха выборки, поэтому используется с t-крит-м Стьюдента и F-кри-й Фишера, который выясняет статистическую значимость различия между 2-мя дисперсиями.
Алгоритм применения f-кр-я
1)Составляем статистич-е таблицы и находим дисперсии для каждого ряда;
2)Вычисляем
эмпирич-е знач-е f-кри-я
по формуле
;
D1-большая
D2-меньшая
3)По табл кр знач f-крит-я находим F-критич-е для p=0,05 и p=0,01;
4)Строим ось значимости и формулир-ем стат гипотезы;
5)Делаем
стат-й вывод
Fэ > Fкр – след-но- H1
Ограничения применения f-крит-я
1)Измерения должны быть совершены в шкале интервалов или в шкале отношений;
2)Сравниваемые выборки должны быть распределены по нормальному закону распределения.
24 Понятие корреляционной связи
Значения изучаемого психологического признака, которые представляются в выборке, удобно рассмотреть как некоторую переменную величину. Это позволяет абстрагироваться от конкретных признаков и рассматривать только зависимости между переменными.
В математике для описания связей между переменными величинами используют понятие функции F, которая каждому определённому значению независимой переменной X ставит в соответствии определённое значение зависимой переменной Y. Полученная зависимость обозначается Y = F(X). Здесь X является аргументом функции, а Y - соответствующим ему значением функции. Такие однозначные зависимости между переменными величинами называются функциональными. Функциональные зависимости могут определяться не только двумя переменными. Например, в физике широко известна формула пройдённого пути S = V · T, где V - скорость, T - время. Эта формула связывает 3 переменные.
Подобные функциональные связи между переменными далеко не всегда встречаются даже в точных науках. Например, между ростом человека и его весом существует некоторая связь: чем выше человек, тем его вес должен быть больше. И хотя из этого правила существует множество исключений, которые связаны со многими индивидуальными особенностями, эту зависимость нельзя отрицать. Такого рода зависимость между переменными называется корреляционной или корреляцией. Корреляционная связь - это согласованное изменение 2-х и более переменных, отражающее тот факт, что изменчивость одного признака находится в соответствии с изменчивостью другого (других).
Если при увеличении или уменьшении одной переменной другая переменная тоже увеличивается, то данная корреляционная связь называется линейной.
При увеличении или уменьшении одной переменной другая переменная изменяется по другим закономерностям, то такая связь называется нелинейной.
Линейная корреляция может быть количественно измеряна. Степень линейной корреляции выражается величиной, которая изменяется в диапазоне от -1 до 1.
