Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
КЛ_ОТС для всех спец.doc
Скачиваний:
1
Добавлен:
30.08.2019
Размер:
229.38 Кб
Скачать
  1. Методы анализа статистических связей.

2.1.Простейшие методы.

Для изучения функциональных связей применяются балансовый и индексный методы.

Для исследования стохастических связей широко используется метод сопоставления параллельных рядов, метод аналитических группировок, корреляционный анализ, регрессионный анализ и непараметрические методы.

Установить наличие стохастической связи, а также получить представление о ее характере и направление можно с помощью сопоставления двух параллельных рядов статистических величин. Для этого факторный признак, располагают в ранжированном порядке, а затем прослеживают изменение результативного признака. До исследования методом параллельных рядов (априори) необходимо провести анализ сопоставляемых явлений и установить наличие между ними причинных связей (а не простого сопутствия). Недостатком этого метода является невозможность определения количественной меры связи между изучаемыми признаками.

Стохастическая связь будет проявляться отчетливее, если использовать для ее изучения метод аналитических группировок, для этого необходимо провести группировку единиц совокупности по факторному признаку и для каждой группы вычислить среднее или относительное значение результативного признака. Сопоставляя изменения результативного признака по мере изменения факторного, можно установить направление, характер и тесноту связи между ними. Однако метод группировок не позволяет определить форму (аналитическое выражение) влияния факторных признаков на результативный.

2.2.Корреляционно-регрессионный анализ

В общем виде задача статистики в области изучения взаимосвязей состоит не только в количественной оценке их наличия, направления и силы связи, но и в определении формы (аналитического выражения) влияния факторных признаков на результативный. Для ее решения применяют методы корреляционного и регрессионного анализа.

Задачи корреляционного анализа сводятся к измерению тесноты известной связи между варьирующими признаками, определению неизвестных причинных связей и оценке факторов, оказывающих наибольшее влияние на результативный признак.

Задачами регрессионного анализа является выбор типа модели (формы связи), установление степени влияния независимых переменных на зависимую и определение расчетных значений зависимой переменной (функции регрессии).

Решение всех этих задач приводит к комплексному использованию этих методов.

Наиболее разработанной в теории статистики является методология так называемой парной корреляции, рассматривающая влияние вариации факторного признака на результативный признак и представляющая собой однофакторный корреляционный и регрессионный анализ. Важнейшим этапом построения регрессионной модели (уравнения регрессии) является установление в анализе исходной информации математической функции. Выбор типа функции может опираться на теоретические знания об изучаемом явлении, опыт предыдущих аналогичных исследований, или осуществляться эмпирически – перебором и оценкой функций разных типов и т.п.

Уравнение парной линейной корреляционной связи имеет вид:

yt = a0 + a1x,

где yt теоретические значения результативного признака, полученные по уравнению регрессии; a0 , a1 - параметры (коэффициенты) уравнения регрессии.

Поскольку a0 является средним значением y в точке x = 0, его экономическая интерпретация часто затруднена или вообще невозможна.

Коэффициент парной линейной регрессии a1 имеет смысл показателя силы связи между вариацией факторного признака и вариацией результативного признака. Уравнение показывает среднее значение изменения результативного признака при изменении факторного признака на одну единицу его измерения, т.е. вариацию y , приходящуюся на единицу вариации x. Знак a1 указывает направление этого измерения. Параметры уравнения a0 и a1 находят методом наименьших квадратов (метод решения систем уравнений, при котором в качестве решения принимается точка минимума суммы квадратов отклонений), т.е. в основу этого метода положено требование минимальности сумм квадратов отклонений эмпирических данных y от выравненных yt. Определив параметры a0 и a1 и подставив их в уравнение связи, находим значения yt , зависящие только от заданного значения х.

Построение регрессионной модели может быть дополнено корреляционным анализом. Для этого необходимо определить тесноту корреляционной связи между переменными. Самым простым показателем тесноты связи является коэффициент Фехнера, который учитывает совпадение или несовпадение знаков отклонений от средних уровней. Значение этого коэффициента по абсолютной величине не превышает 1. Отрицательное значение свидетельствует об обратной связи. Однако по коэффициенту Фехнера ничего нельзя сказать о форме связи, кроме того он характеризует только несовпадение знаков отклонений, а не их величину.

Теснота связи может быть измерена эмпирическим корреляционным отношением на основе аналитической группировки, а также теоретическим корреляционным отношением, которое представляет собой относительную величину, получающуюся в результате сравнения среднего квадратического отклонения выравненных значений результативного признака, т.е. рассчитанных по уравнению регрессии, со средним квадратическим отношением эмпирических (фактических) значений результативного признака. Подкоренное выражение корреляционного отношения представляет собой коэффициент детерминации (меры причинности, определенности), который показывает долю вариации результативного признака под влиянием вариации факторного признака.

Теоретическое корреляционное отношение применяется для измерения тесноты связи при линейной и криволинейной зависимостях между результативным и факторным признаком. При криволинейных связях теоретическое корреляционное отношение часто называют индексом корреляции. Корреляционное отношение может находиться в пределах от 0 до 1. Ем ближе корреляционное отношение к 1, тем связь между признаками теснее.

Кроме того при линейной форме уравнения применяется другой показатель тесноты связи – линейный коэффициент корреляции. Значение линейного коэффициента корреляции важно для исследования социально-экономических явлений и процессов, распределение которых близко к нормальному. Он принимает значения в интервале от –1 до +1. Отрицательные значения указывают на обратную связь, положительные – на прямую. Чем ближе коэффициент корреляции по абсолютному значению к 1, тем теснее связь между признаками, при его равенстве 1 связь – функциональная. Квадрат линейного коэффициента корреляции называется линейным коэффициентом детерминации.

Совпадение и несовпадение значений теоретического корреляционного отношения и линейного коэффициента корреляции используется для оценки формы связи.

Если заменить исходные значения признаков их рангами, то линейный коэффициент корреляции примет форму коэффициента корреляции рангов Спирмэна. Если между признаками предполагается нелинейная зависимость, то оценку тесноты связи можно получить посредством коэффициента Кендэла.

Преимуществом ранговых коэффициентов связи является то, что с их помощью можно измерить степень взаимосвязи между признаками, которые не имеют строгих количественных измерителей, но значения которых определенным образом упорядочены исходя из содержания задачи.