Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ФинишВзаимосвязь.doc
Скачиваний:
19
Добавлен:
17.12.2018
Размер:
3.48 Mб
Скачать

Рассмотрим использование коэффициентов взаимной сопряженности

Измерение тесноты связи между номинальными переменными производят с помощью коэффициентов взаимной сопряженности. Все они основаны на нормировании : погашении зависимости от числа наблюдений и размерности таблицы. Все эти меры связи изменяются в интервале [0,1].

Коэффициент взаимной сопряженности К. Пирсона:

(39)

где .

Этот коэффициент не принимает во внимание число категорий для переменных х и у. Более совершенным является коэффициент сопряженности А.А. Чупрова

. (40)

Этот коэффициент, если таблица не квадратная, никогда не достигает 1.

Модификацией этого коэффициента является коэффициент взаимной сопряженности Г. Крамера

, (41)

т.е. в знаменателе подкоренного выражения берется минимальная из величин: число строк без единицы либо число столбцов без единицы.

Для квадратных таблиц Т=С.

По данным табл. 10

, .

Тогда Р=0,147; Т=С=0,147. Если таблица сопряженности не является четырехклеточной, то Р>(Т, С).

Для таблиц 22 разработаны специальные меры связи. Основные из них – это коэффициент ассоциации и коэффициент контингенции. Коэффициент ассоциации рассчитывается по формуле

. (42)

По данным табл. 10 получаем

.

Коэффициент контингенции вычисляется по следующей формуле:

(43)

По данным табл. 10 получаем

Коэффициент ассоциации дал значительно более высокую оценку тесноты связи. Недостаток использования этого коэффициента в том, что если хотя бы одна из клеточных частот равна нулю, то коэффициент ассоциации становится равным единице.

Таким образом, коэффициент контингенции – более надежная мера связи, нежели коэффициент ассоциации [3].

РЕЗЮМЕ

Особенность связей в экономике и социальной сфере состоит в том, что их закономерный характер проявляется лишь в массе явлений – в среднем по совокупности.

При статистической связи разным значениям одной переменной (фактора, х) соответствуют разные распределения другой переменной (результата, у).

Корреляционная связь – частный случай статистической связи, при которой разным значениям переменной соответствуют разные средние значения другой переменной.

Возможность измерения связей во многом зависит от уровня измерения переменных. Основные типы шкал: номинальная шкала, порядковая, интервальная.

Поле корреляции – это поле точек, на котором каждая точка соответствует единице совокупности; ее координаты определяются значениями признаков х и у.

Применяются различные зависимости для вычисления коэффициента корреляции как меры тесноты линейной связи. Он может быть определён на основе ковариации, коэффициента регрессии, правила разложения дисперсии.

Коэффициент парной корреляции изменяется от -1 (случай полной обратной связи) до 1 (случай полной прямой связи), по абсолютной величине от 0 до 1.

Частная корреляция – это измерение связи между двумя переменными при элиминировании прочих переменных. Различают частные корреляции разных порядков, которые могут быть определены на основе рекуррентной формулы.

Множественная корреляция – это измерение связи между несколькими переменными.

В этой главе приведено:

  • Общее понятие о корреляционном анализе и задачах, решаемых при его проведении.

  • Методы изучения корреляционной связи

    • Методики измерения основных параметров, характеризующих корреляционные связи.

  • Описание разновидностей моделей (однофакторных и многофакторных), используемых в практике корреляционного анализа.