
- •Моделирование социальной реальности.
- •Специфика математико-статистических методов применительно к социологической информации.
- •Задачи математики применительно к социологической информации.
- •5. Сложности использования математических методов в социологии.
- •1)Проблема соотношения выборочной и генеральной совокупности.
- •3)Для многих методов отсутствуют разработанные способы перенесения результатов их применения с выборочной на генеральную совокупность
- •4)Методы переноса результатов с выборочной на генеральную совокупность базируется на серьёзных научных теориях.
- •II. Отсутствие строгих обоснований возможности применения конкретных методов математической статистики.
- •III. Использование шкал низких типов.
- •IV. Необходимость соотнесения модели метода с содержанием социологической задачи.
- •6. Программно-аналитический комплекс «spss»: общая характеристика.
- •2. Краткая история возникновения и развития spss.
- •3. Модули программы spss
- •7. Подготовка и создание базы данных в spss: подготовка социологических данных к обработке (в т.Ч. Дихотомический и категориальный способы кодировки).
- •1. Основы работы с электронной таблицей spss
- •Основные группы команд пакета spss, расположенные в главном меню
- •2. Подготовка социологических данных к обработке
- •3. Создание базы данных при помощи spss
- •Имя переменной (Name)
- •Тип переменной (Type)
- •(Для численной переменной)
- •Формат столбца (Width)
- •Десятичные разряды (Decimal)
- •Метка переменной (Label)
- •Метки значений (Values)
- •Отсутствующие значения (Missing Values)
- •Шкала измерения (Measure)
- •Создание переменных для многозначных вопросов и их кодировка.
- •Многозначного вопроса
- •8. Корректировка базы данных
- •«Редактор данных: просмотр данных» с метками кодовых значений
- •«В какой степени Вы удовлетворены результатами прошедших выборов?» (фрагмент приложения программы spss)
- •9. Методы анализа одномерных распределений: описание и графическое представление социологических данных, построение таблиц частотного распределения для многозначных вопросов.
- •Чувства
- •Чувства
- •Частоты для множественных ответов»
- •10. Модификация массива социологических данных: перекодирование с созданием новых переменных, перекодирование в старых переменных, условный отбор данных.
- •1.1. Перекодирование с созданием новых переменных
- •Перекодировать в другие переменные
- •1.2. Перекодирование в старых переменных.
- •Перекодировать в те же переменные»
- •11. Меры центральной (средней) тенденции.
- •1.1. Меры центральной (или средней) тенденции
- •Со средним значением по массиву (данные взяты произвольно)
- •«Какие чувства Вы испытываете, когда думаете о ближайшем будущем?» (фрагмент приложения программы spss)
- •12. Шкалирование и виды шкал.
- •13. Меры разброса.
- •Меры разброса
- •14. Показатели распределения признака.
- •15. Стандартизация показателей.
- •Сохранить стандартизированные значения в переменных
- •16. Таблицы сопряженности.
- •Функция «Статистики» Функция «Не выводить таблицы»
- •17. Коэффициенты критерия «хи-квадрат» и его вычисление в spss.
- •Программы spss)
- •18. Меры связанности для переменных номинальной шкалы: симметричные и направленные меры.
- •3.1. Симметричные меры
- •3.2. Направленные меры
- •3.3. Вычисление в spss
- •Программы spss)
- •19. Меры связанности для переменных порядковой (ранговой) шкалы.
- •20. Выборка: виды, алгоритмы формирования выборки. Объем и ошибка выборки.
- •21. Многоступенчатая выборка: алгоритм формирования.
18. Меры связанности для переменных номинальной шкалы: симметричные и направленные меры.
Критерий Х2 (хи-квадрат) Пирсона является величиной безразмерной, поэтому его необходимо нормировать. Как правило, нормировку критерия осуществляют таким образом, чтобы он изменялся либо от -1 до +1 (если имеет смысл противопоставление положительной и отрицательной направленности связи), либо от 0 до +1.
Меры связанности для номинальных признаков не могут иметь отрицательных значений, т.к. при отсутствии порядкового отношения нельзя дать ответа на вопрос о направлении зависимости.
Наиболее известными критериями, нормирующими Х2 (хи-квадрат) Пирсона, являются следующие:
Коэффициент сопряженности признаков Пирсона.
Критерий Крамера.
Критерий Пирсона (φ).
Данные коэффициенты, нормирующие Хи-квадрат Пирсона, используются также и для отражения меры связанности (силы связи) переменных номинальных шкал. Однако они не говорят о направленности связи, поэтому получили название симметричные меры. Рассмотрим их более детально.
3.1. Симметричные меры
Коэффициент сопряженности признаков Пирсона обозначается в статистике Р (по первой букве фамилии автора), в SPSS он обозначается СС и означает «Contingency Coefficient» (коэффициент контенгенции). Он вычисляется по следующей формуле:
СС = |
Р = |
ч2 + N
|
где Х2 (ч2)– критерий Х2 Пирсона; N – общая сумма частот в таблице сопряженности.
Поскольку N всегда больше 0, то коэффициент сопряженности признаков никогда не достигает 1. Его величина находится в пределах от 0 до почти 1.
Данный критерий имеет значительный недостаток, поскольку его максимальное значение зависит от количества строк и столбцов, т.е. от размера таблицы. Максимальное его значение достигается при равном количестве строк и столбцов. Однако и величина максимального значения изменятся вместе с изменением числа категорий. Так, если таблица сопряженности имеет 3 строки и 3 столбца, то значение коэффициента не превысит 0,8; если по 5 строк и столбцов, то максимальное значение будет равно 0,89 и т.д.
Следовательно, данный критерий нельзя применять при сравнении таблиц разного размера, поскольку возникает сложность интерпретации, в итоге Р приходится рассматривать как численный индекс, а не как меру.
Критерий Крамера в отличие от предыдущего коэффициента изменяется от 0 до 1 независимо от размера таблицы. В статистике его обозначают К (по первой букве фамилии), в SPSS – называется «Cramer's V» / V Крамера, вычисляется данный критерий следующим образом:
V = |
K = |
N (k-1)
|
где Х2 (ч2) – критерийХ2 Пирсона;
k – наименьшее из количества строк или столбцов;
N – общая сумма частот в таблице сопряженности.
Критерий Пирсона (φ) применяется не для всех номинальных признаков, а только для двух дихотомических, т.е. для таблиц размером 2х2. Он имеет название квадратный корень из среднего квадрата коэффициента сопряженности и определяется по формуле:
φ = |
ч2 . n
|
где Х2 (ч2) – критерий Х2 Пирсона; n – количество случаев.
φ – это показатель среднеквадратичной сопряженности. Значимость полученной величины может быть проверена при помощи критерия Х2 с 1 степенью свободы.
Коэффициент φ позволяет отразить степень двусторонней зависимости признаков. Таким образом, мы видим, что рассмотренные выше критерии вычисляются на основе Х2, следовательно, и их значимость равна значимости Х2.
Значения этих коэффициентов говорят не только о наличии связи, но и ее силе, тесноте, интенсивности. В статистике принята следующая интерпретация значений коэффициентов.
0,1–0,35 – слабая, незначительная связь;
0,35–0,5 – средняя связь;
0,5–1,0 – сильная связь.
Однако следует помнить, что на основе перечисленных выше симметричных коэффициентов нельзя говорить о направленности связи.