Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
МТСИ.doc
Скачиваний:
10
Добавлен:
19.05.2015
Размер:
286.21 Кб
Скачать

Анализ взаимосвязи признаков.

Служит для того, чтобы понять, сущ-ет связь м/д этими признаками, влияет один признак на другой, можно ли по значению одного из них сделать вывод относительно другого. Возможно изучить совместное поведение признаков. Часто для выявления взаимосвязи используют корреляционную таблицу или табл. сопряжённости. Пересечения столбцов и строк образуют ячейки., где содержаться значения различных показателей. Сумма по строкам и столбцам образует сумму маргинальных частот. С помощью этих показателей можно анализировать поведение одного признака относительно другого. Благодаря этому можно выяснить структуру взаимоотношений (удовлетворённости) по каждой группе (половой, возрастной). Одинаковое поведение несколько групп образуют типологическую группу по стр-ре удовлетворённости. Признаки делятся на зависимый (целевой) и независимый – один признак изменяется под влиянием другого. Объективные показатели (пол, возраст), обычно принимаются за независимые.

Когда статистическая связь между феноменами не наблюдается, значит эти признаки статистически независимы. Иногда имеет место влияние многих других, иногда случайных факторов на изменение этого признака. Учёт случайных факторов осуществляется посредством расчёта ошибки корреляции. Если два фактора связаны между собой, то наблюдается сильная статистическая зависимость. Степень взаимосвязи признака может определятся как сильная и слабая. Её можно рассчитать с помощью различных мер связи (коэффициентов связи).

Связь бывает функциональной и корреляционной. 1)Функциональная – связь, при которой одному значению одного признака соответствует одно или несколько значений другого признака (пример функции любой аналитический индекс).

2) Корреляционная связь – это когда одному и тому же значению признака соответствует целое распределение значений другого. Она может быть сильной и слабой. Метрический уровень измерения - с ростом значений одного признака растёт значение другого. Здесь может присутствовать как линейная, так и нелинейная связь. Связь делится на локальную (связь отдельных значений признаков) и глобальную (связь двух признаков в целом). Связь также бывает прямой и обратной.

Меры связи, основанные на понятии «статистическая зависимость».

Для номинального уровня измерения. Каж­дая мера связи вводится таким образом, чтобы его значения изменялись либо от нуля до единицы, либо от минус единицы до единицы. Из всей совокупности призна­ков, связи между которыми интересуют социолога, выделяется ка­кой-то важный, главный, зависимый, целевой признак, и рассматри­ваются его парные связи с остальными. Вычисляются значения коэф­фициента и по этим значениям проводится процедура ранжирова­ния всех независимых признаков по степени их влияния на целевой. Выбираются наиболее тесно связанные признаки. В другом случае вычисляются значения ко­эффициента связи для всевозможных пар признаков. С помощью задания некоторого порога (значения коэффициента) отсекаются все связи со значением коэффициента, который меньше этого порога.

Локальные меры связи. Таблицы сопряжённости (2х2). Возьмём в пример по одному свойству каждого признака (политологи - удовлетворённые). Остальных обозначим как остальную массу. Обозначим полит. – удовлетв = а, неполит – удовл = с, политологов-остальных = d, а остальных-остальных = b. На этой разности и основан коэффициент Юла, кото­рый имеет следующий вид: Изменяется от -1 (обратная) до 1 (прямая). Коэффициент равен нулюв случае стати­стической независимости наших изучаемых свойств.

Меры связи, основанные на 2 (хи-квадрат) Составляем таблицу сопряжённости, выводим теоретическую частоту (). Вычисляется по формуле: Основание расчёта 2 служит разность между практическими и теоретическими частотами Самой этой величиной как мерой свя­зи неудобно пользоваться, ибо ее значение может быть каким угод­но большим и зависит от размера таблицы сопряженности. Одним из час­то используемых коэффициентов является коэффициент взаимной сопряженности Пирсона. Он имеет следующий вид: N  общее число объектов. Если значение коэффициента получится близким к нулю или равным нулю, то это означает статистическую независимость при­знаков. Случай близости значения к единице будет говорить о ста­тистической зависимости.