- •Вопросы к экзамену по курсу «Методы обработки и анализа информации в сфере молодежной политики»
- •1. Статистические закономерности в анализе социологической информации.
- •2. Моделирование социальной реальности.
- •3. Специфика математико-статистических методов применительно к социологической информации.
- •4. Задачи математики применительно к социологической информации.
- •5. Сложности использования математических методов в социологии.
- •1. Проблема соотношения выборки и генеральной совокупности
- •2. Отсутствие строгих обоснований возможности применения конкретных методов математической статистики. Эвристичность (непредсказуемость)многих алгоритмов анализа данных
- •6. Программно-аналитический комплекс «spss»: общая характеристика.
- •2. Краткая история возникновения и развития spss.
- •3. Модули программы spss
- •7. Подготовка и создание базы данных в spss: подготовка социологических данных к обработке (в т.Ч. Дихотомический и категориальный способы кодировки).
- •8. Корректировка базы данных.
- •9. Методы анализа одномерных распределений: описание и графическое представление социологических данных, построение таблиц частотного распределения для многозначных вопросов.
- •10. Модификация массива социологических данных: перекодирование с созданием новых переменных, перекодирование в старых переменных, условный отбор данных.
- •11. Меры центральной (средней) тенденции.
- •12. Шкалирование и виды шкал.
- •13. Меры разброса.
- •14. Показатели распределения признака.
- •15. Стандартизация показателей.
- •16. Таблицы сопряженности.
- •17. Коэффициенты критерия «хи-квадрат» и его вычисление в spss.
- •18. Меры связанности для переменных номинальной шкалы: симметричные и направленные меры.
- •3.1. Симметричные меры
- •3.2. Направленные меры
- •19. Меры связанности для переменных порядковой (ранговой) шкалы.
- •20. Выборка: виды, алгоритмы формирования выборки. Объем и ошибка выборки.
- •Ошибки выборки
- •Необходимый объем выборки
18. Меры связанности для переменных номинальной шкалы: симметричные и направленные меры.
Меры связанности для переменных номинальной шкалы: симметричные и направленные меры.
Критерий Х2 (хи-квадрат) Пирсона является величиной безразмерной, поэтому его необходимо нормировать. Как правило, нормировку критерия осуществляют таким образом, чтобы он изменялся либо от -1 до +1 (если имеет смысл противопоставление положительной и отрицательной направленности связи), либо от 0 до +1.
Меры связанности для номинальных признаков не могут иметь отрицательных значений, т.к. при отсутствии порядкового отношения нельзя дать ответа на вопрос о направлении зависимости.
Наиболее известными критериями, нормирующими Х2 (хи-квадрат) Пирсона, являются следующие:
Коэффициент сопряженности признаков Пирсона.
Критерий Крамера.
Критерий Пирсона (φ).
Данные коэффициенты, нормирующие Хи-квадрат Пирсона, используются также и для отражения меры связанности (силы связи) переменных номинальных шкал. Однако они не говорят о направленности связи, поэтому получили название симметричные меры. Рассмотрим их более детально.
3.1. Симметричные меры
Коэффициент сопряженности признаков Пирсона обозначается в статистике Р (по первой букве фамилии автора), в SPSS он обозначается СС и означает «Con
tingency Coefficient» (коэффициент контенгенции). Он вычисляется по следующей формуле:
СС = |
Р = |
ч2 + N
|
где Х2 (ч2)– критерий Х2 Пирсона; N – общая сумма частот в таблице сопряженности.
Поскольку N всегда больше 0, то коэффициент сопряженности признаков никогда не достигает 1. Его величина находится в пределах от 0 до почти 1.
Данный критерий имеет значительный недостаток, поскольку его максимальное значение зависит от количества строк и столбцов, т.е. от размера таблицы. Максимальное его значение достигается при равном количестве строк и столбцов. Однако и величина максимального значения изменятся вместе с изменением числа категорий. Так, если таблица сопряженности имеет 3 строки и 3 столбца, то значение коэффициента не превысит 0,8; если по 5 строк и столбцов, то максимальное значение будет равно 0,89 и т.д.
Следовательно, данный критерий нельзя применять при сравнении таблиц разного размера, поскольку возникает сложность интерпретации, в итоге Р приходится рассматривать как численный индекс, а не как меру.
Критерий Крамера в отличие от предыдущего коэффициента изменяется от 0 до 1 независимо от размера таблицы. В статистике его обозначают К (по первой букве фамилии), в SPSS – называется «Cramer's V» / V Крамера, вычисляется данный критерий следующим образом:
V = |
K = |
N (k-1)
|
где Х2 (ч2) – критерийХ2 Пирсона;
k – наименьшее из количества строк или столбцов;
N – общая сумма частот в таблице сопряженности.
Критерий Пирсона (φ) применяется не для всех номинальных признаков, а только для двух дихотомических, т.е. для таблиц размером 2х2. Он имеет название квадратный корень из среднего квадрата коэффициента сопряженности и определяется по формуле:
φ = |
ч2 . n
|
где Х2 (ч2) – критерий Х2 Пирсона; n – количество случаев.
φ – это показатель среднеквадратичной сопряженности. Значимость полученной величины может быть проверена при помощи критерия Х2 с 1 степенью свободы.
Коэффициент φ позволяет отразить степень двусторонней зависимости признаков. Таким образом, мы видим, что рассмотренные выше критерии вычисляются на основе Х2, следовательно, и их значимость равна значимости Х2.
Значения этих коэффициентов говорят не только о наличии связи, но и ее силе, тесноте, интенсивности. В статистике принята следующая интерпретация значений коэффициентов.
0,1–0,35 – слабая, незначительная связь;
0,35–0,5 – средняя связь;
0,5–1,0 – сильная связь.
Однако следует помнить, что на основе перечисленных выше симметричных коэффициентов нельзя говорить о направленности связи.

ч2
.
ч2
.