Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Статистика_5.doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
206.85 Кб
Скачать

Лекция 5: Статистика изучения связей между явлениями

5.1. Понятие корреляционной зависимости

Исследуя явления в самых различных областях, статистика сталкивается с зависимостями как между количественными, так и между качественными показателями, признаками. Ее задача обнаружить (выявить) такие зависимости и дать их количественную характеристику. Среди взаимосвязанных признаков одни могут рассматриваться как определенные факторы, влияющие на изменение других, а вторые – как следствие, результат влияния первых. Соответственно, первые, т.е., влияющие на изменение других, называют факторными, а вторые – результативными.

Различают два вида взаимосвязи между отдельными признаками: функциональную и стохастическую (статистическую). Функциональной называют такую связь, при которой определенному значению факторного признака соответствует одно и только одно значение результативного признака. Если причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем при большом числе наблюдений, то такая связь называется стохастической. Частным случаем стохастической связи является корреляционная связь, при которой изменение среднего значения результативного признака обусловлено изменением факторных признаков.

Связь средней величины результативного показателя y с одним признаком-фактором x называется парной корреляцией, а если факторных признаков два и более – множественной.

“Корреляционно-регрессионный анализ” подразумевает всесторонне исследование корреляционных связей, в том числе нахождение уравнений регрессии, измерение тесноты и направления связи, а также определение возможных ошибок как параметров уравнений регрессии, так и показателей тесноты связи.

5.2. Методы выявления корреляционной связи

Для выявления наличия и характера связи между признаками в статистике применяется ряд методов: графический метод, метод параллельных рядов, метод аналитических группировок и корреляционных таблиц, расчет коэффициентов корреляции. Так, метод параллельных рядов применяется при небольшом числе наблюдений и заключается в параллельном сравнении значений факторного признака х со значениями результативного признака y, расположенных по возрастанию.

Метод параллельных рядов обычно сопровождается расчетом того или иного показателя, используемого для измерения тесноты связи, например коэффициента Фехнера, основанного на сравнении отклонений индивидуальных значений каждого признака (x и y) от своей средней величины. При этом во внимание принимаются не сами величины отклонений, а их знаки (“+” или “ - ”). Определив знаки отклонений от средней величины в каждом ряду, рассматривают все пары знаков и подсчитывают число их совпадений и несовпадений, подставляя полученные значения в формулу:

,

где - число совпадений;

- число несовпадений.

Если все знаки всех отклонений по каждому признаку совпадут, то = 0 и тогда Кф = 1. Это характеризует наличие прямой связи. Если все знаки не совпадут, то = 0 и тогда Кф = - 1 (обратная связь). Если же = , то Кф = 0. Таким образом, коэффициент Фехнера может принимать значения от 0 до + 1, при этом чем ближе значение к 1, тем сильнее теснота зависимости между x и y.

Следует иметь в виду, что поскольку Кф зависит только от знаков и не учитывает величину самих отклонений x и y от их средних величин, то он практически характеризует не столько тесноту связи, сколько ее наличие и направление.

При большом числе наблюдений для выявления корреляционной связи между двумя количественными показателями x и y удобнее использовать метод группировок. Если в таблице оба признака, по которым дано распределение единиц совокупности, количественные, то такая таблица называется корреляционной.

5.3. Нахождение уравнений регрессии

Измерить корреляционную связь между признаками x и y и найти форму этой связи, ее аналитическое выражение – две важные, неразрывные и дополняющие друг друга задачи корреляционно-регрессионного анализа. Найти уравнение регрессии – значит математически описать изменения взаимно коррелируемых величин.

Уравнение регрессии должно определить, каким будет среднее значение результативного признака y при том или ином значении факторного признака, если остальные факторы, влияющие на y и не связанные с х, не учитывать. Для аналитической связи между x и y могут использоваться следующие простые виды уравнений:

а) (прямая);

б) (парабола второго порядка);

в) (гипербола);

г) (логарифмическая функция) и др.

Зависимость, выражаемую уравнением прямой, называют линейной, а все остальные – криволинейными. После выбора типа функции (основываясь, например, на построенном на оси координат графике), по эмпирическим данным определяют параметры уравнения, используя, например, метод наименьших квадратов (МНК). Его суть заключается в следующем требовании: искомые теоретические значения результативного признака должны быть такими, при которых бы обеспечивалась минимальная сумма квадратов их отклонений от эмпирических значений, т.е.

,

(минимизируются квадраты отклонений, поскольку ). Если данное требование соблюдается, то легко определить, при каких значениях а0, а1, и т.д. для каждой аналитической кривой эта сумма квадратов отклонений будет минимальной.

Линейная зависимость – наиболее часто используемая форма связи между двумя коррелируемыми признаками: . Параметры а0 и а1 отыскиваются по МНК через системы нормальных уравнений:

Таблица 5.1