- •Содержание
- •1. Понятие о статистике
- •1.1. Предмет и метод статистики
- •1.2. Статистическое наблюдение
- •1.3. Сводка и группировка статистических данных
- •1.4. Формы представления статистических данных
- •1.5. Контрольные задания
- •2. Обобщающие статистические показатели
- •2.1. Абсолютные величины
- •2.2. Относительные величины
- •2.3. Средние величины
- •2.4. Контрольные задания
- •3. Вариационные ряды распределения
- •3.1. Построение ряда распределения
- •3.2. Расчет структурных характеристик ряда распределения
- •3.3. Расчет показателей размера и интенсивности вариации
- •3.4. Расчет моментов распределения и показателей его формы
- •3.5. Проверка соответствия ряда распределения нормальному
- •3.6. Проверка соответствия ряда распределения закону Пуассона
- •3.7. Контрольные задания
- •4. Статистическое изучение структуры совокупности
- •4.1. Абсолютные и относительные показатели изменения структуры
- •4.2. Ранговые показатели изменения структуры
- •4.3. Контрольные задания
- •5. Выборочное наблюдение
- •5.1. Понятие выборочного наблюдения
- •5.2. Способы формирования выборки
- •5.3. Средняя ошибка выборки
- •5.4. Предельная ошибка выборки
- •5.5. Необходимая численность выборки
- •5.6. Методические указания
- •5.7. Контрольные задания
- •6. Ряды динамики
- •6.1. Понятие о рядах динамики
- •6.2. Показатели изменения уровней ряда динамики
- •6.3. Средние показатели ряда динамики
- •6.4. Методы выявления основной тенденции (тренда) в рядах динамики
- •6.5. Оценка адекватности тренда и прогнозирование
- •6.6. Анализ сезонных колебаний
- •6.7. Методические указания
- •6.8. Контрольные задания
- •7. Статистическое изучение взаимосвязей
- •7.1. Понятие корреляционной зависимости
- •7.3. Коэффициенты корреляции рангов
- •7.4. Особенности коррелирования рядов динамики
- •7.5. Показатели тесноты связи между качественными признаками
- •7.6. Множественная корреляция
- •7.7. Контрольные задания
- •8. Индексы
- •8.1. Назначение и виды индексов
- •8.2. Индивидуальные индексы
- •8.3. Общие индексы
- •8.4. Индексы средних величин
- •8.5. Территориальные индексы
- •8.6. Контрольные задания
- •Список литературы
- •Приложения – статистические таблицы Приложение 1. Значения интеграла Лапласа
- •Приложение 2. Значенияt-критерия Стьюдента
- •Приложение 3. Значенияχ2-критерия Пирсона
- •Приложение 4. ЗначенияF-критерия Фишера
- •Приложение 5. Критические значения коэффициента автокорреляции
- •Приложение 6. Значения критерия КолмогороваP(λ)
7.5. Показатели тесноты связи между качественными признаками
Метод корреляционных таблиц применим не только к количественным, но и к описательным (качественным) признакам, взаимосвязи между которыми часто приходится изучать при проведении различных социологических исследований путем опросов или анкетирования. В этом случае такие таблицы называют таблицами сопряженности. Они могут иметь различную размерность. Простейшая размерность – 2х2 (таблица «четырех полей»), когда по альтернативному признаку («да» – «нет», «хорошо» – «плохо» и т.д.) выделяются 2 группы. В таблице 48 приведены условные данные о распределении 500 опрошенных человек по двум показателям: наличие (отсутствии) у них прививки против гриппа и факт заболевания (незаболевания) гриппом во время его эпидемии.
Таблица 48. Распределение 500 опрошенных человек
Группа лиц |
Число лиц | ||
заболевших гриппом |
не заболевших гриппом |
Итого | |
Сделавших прививку |
30 (а) |
270 (b) |
300 |
Не сделавших прививку |
120 (c) |
80 (d) |
200 |
Итого |
150 |
350 |
500 |
Нетрудно заметить, что среди сделавших прививку подавляющее большинство (270 из 300, или 90%) не заболели гриппом, а среди не сделавших большая часть заболела (120 из 200, или 60%). Таким образом, можно предположить, что прививка положительно влияет на предупреждение заболевания; другими словами, можно предположить, что распределение в таблице (a, b, c, d) не случайно и существует стохастическая зависимость между группировочными признаками. Однако выводы о зависимости, сделанные «на глаз», часто могут быть ненадежными (ошибочными), поэтому они должны подкрепляться определенными статистическими критериями, напримеркритерием Пирсона χ2. Он позволяет судить о случайности (или неслучайности) распределения в таблицах взаимной сопряженности, а следовательно, и об отсутствии или наличии зависимости между признаками группировки в таблице. Чтобы воспользоваться критерием Пирсонаχ2, в таблице взаимной сопряженности наряду с эмпирическими частотами записывают теоретические частоты, рассчитываемые исходя из предположения, что распределение внутри таблицы случайно и, следовательно, зависимость между признаками группировки отсутствует. То есть считается, что распределение частот в каждой строке (столбце) таблицы пропорционально распределению частот в итоговой строке (столбце). Поэтому теоретические частоты по строкам (столбцам) рассчитывают пропорционально распределению единиц в итоговой строке (столбце).
Так, в нашем примере в итоговой строке число заболевших 150 из 500, т.е. их доля – 30%, а доля не заболевших – 70%. Следовательно, теоретические частоты в первой строке для заболевших составят 30% от 300, т.е. 0,3*300=90, а для не заболевших – 0,7*300=210. По второй строке произведем аналогичные расчеты и их результаты занесем в таблицу в скобках.
Таблица 49. Эмпирические и теоретические частоты
Группа |
I (да) |
II (нет) |
∑ |
I (да) |
30 (90) |
270 (210) |
300 |
II (нет) |
120 (60) |
80 (140) |
200 |
∑ |
150 |
350 |
500 |
На сопоставлении эмпирических и теоретических частот и основан критерий Пирсона χ2, рассчитываемый по формуле (2):
.
Рассчитанное (фактическое) значение χ2сопоставляют с табличным (критическом), определяемым по таблице Приложения 3 для заданного уровня значимостиαи числа степеней свободы, гдеk1иk2– число групп по одному и второму признакам группировки (число строк и число столбцов в таблице).
В рассматриваемом примере ν=(2-1)(2-1)=1, а приняв уровень значимостиα=0,01, по таблице Приложения 3 находим χ2табл=6,63. Поскольку рассчитанное значение χ2> χ2табл, значит существует стохастическая зависимость между рассматриваемыми показателями. При независимости признаков частоты теоретического и эмпирического распределений совпадают, а значит χ2=0. Чем больше различия между теоретическими и эмпирическими частотами, тем больше значение χ2и вероятность того, что оно превысит критическое табличное значение, допустимое для случайных расхождений. Аналогично рассчитываются теоретические частоты и χ2в таблицах большей размерности.
В корреляционном анализе недостаточно лишь выявить тем или иным методом наличие связи между исследуемыми показателями. Теснота такой связи может быть различной, поэтому весьма важно ее измерить, т.е. определить меру связи в каждом конкретном случае. В статистике для этой цели разработан ряд показателей (коэффициентов), используемых как для количественных, так и для качественных признаков.
Для измерения тесноты связи между группировочными признаками в таблицах взаимной сопряженности могут быть использованы такие показатели, как коэффициент ассоциации и контингенции (для «четырехклеточных таблиц»), а также коэффициенты взаимной сопряженности Пирсона и Чупрова (для таблиц любой размерности).
Применительно к таблице «четырех полей»,частоты которых можно обозначить черезa, b, c, d,коэффициент ассоциации(Д. Юла) выражается формулой (2):
.(2)
Его существенный недостаток: если в одной из четырех клеток отсутствует частота (т.е. равна 0), то 1, и тем самым преувеличена мера действительной связи.
Чтобы этого избежать, предлагается (К. Пирсоном) другой показатель – коэффициент контингенции53:
.(2)
Рассчитаем коэффициенты (2) и (2) для нашего примера (таблица 48):
;
Связь считается достаточно значительной и подтвержденной, если >0,5 или>0,3.
Поэтому в нашем примере оба коэффициента характеризуют достаточно большую обратную зависимость между исследуемыми признаками.
Теснота связи между 2 и более признаками измеряется с помощью коэффициентов взаимной сопряженности Пирсона(2) илиЧупрова(2), рассчитываемых на основе показателя χ2:
,(2) (2)
В нашем примере . Рассчитывать коэффициент Чупрова для таблицы «четырех полей» не рекомендуется, так как при числе степеней свободыν=(2-1)(2-1)=1 он будет больше коэффициента Пирсона (в нашем примере КЧ=0,54). Для таблиц же большей размерности всегда КЧ<КП.