
- •Построение модели парной регрессии
- •Теоретический аспект построения модели
- •2.2. Линейная модель парной регрессии. Определение параметров
- •2.3. Коэффициент корреляции
- •2.4. Особенности построения модели нелинейной регрессии. Индекс корреляции
- •2.4. Оценка значимости уравнения регрессии
- •2.5. Расчет доверительных интервалов и прогнозов для линейного уравнения регрессии
- •Для степенной функции и формула f – критерия примет тот же вид, что и при линейной зависимости:
2.3. Коэффициент корреляции
Простейшей системой корреляционной связи, как мы уже сказали, является линейная связь между двумя признаками - парная линейная корреляция.
Тесноту парной линейной корреляционной связи при линейной форме уравнения измеряет коэффициент корреляции rxy. Этот показатель представляет собой стандартизованный коэффициент регрессии, т. е. коэффициент, выраженный не в абсолютных единицах измерения признаков, а в долях среднего квадратического отклонения результативного признака:
Коэффициент корреляции был предложен английским статистиком и философом Карлом Пирсоном (1857 – 1936 гг.). Его интерпретация такова: отклонение признака-фактора от его среднего значения на величину своего среднего квадратического отклонения в среднем по совокупности приводит к отклонению признака-результата от своего среднего значения на rxy его среднего квадратического отклонения.
В отличие от коэффициента регрессии b коэффициент корреляции не зависит от принятых единиц измерения признаков, а стало быть, он сравним для любых признаков.
Выборочный коэффициент корреляции rxy (при достаточно большом объеме выборки n) обладает следующими свойствами:
1. Коэффициент корреляции принимает значения на отрезке [-1,1], т. е. -1 < rxy <1. Чем ближе |rxy| к единице, тем теснее связь.
2. При rxy = ±1 корреляционная связь представляет линейную функциональную зависимость. При этом все наблюдаемые значения располагаются на прямой линии.
3. При rxy = 0 линейная корреляционная связь отсутствует. При этом линия регрессии параллельна оси Ох.
Причем, если rxy > 0, то корреляционная связь между переменными называется прямой, если rxy < 0, — обратной. При прямой (обратной) связи увеличение одной из переменных ведет к увеличению (уменьшению) условной (групповой) средней другой.
Обычно считают связь сильной, если rxy >= 0,7; средней тесноты, при 0,5 <= rxy < 0,7; слабой при rxy < 0,5. Не следует, особенно работая с ЭВМ, гнаться за большим числом знаков коэффициента корреляции. Во-первых, исходная информация редко имеет более трех значащих точных цифр, во-вторых, оценка тесноты связи не требует более двух значащих цифр.
Квадрат коэффициента корреляции в случае парной линейной регрессионной модели называется коэффициентом детерминации:
.
Поскольку
,
имеем
.
Коэффициент детерминации является одной из эффективных оценок адекватности регрессионной модели, мерой качества уравнения регрессии и характеризует долю дисперсии результативного признака у, объясняемую регрессией, в общей дисперсии результативного признака.
Величина 1– r2xy характеризует долю дисперсии у, вызванную влиянием остальных не учтенных в модели факторов.
Вычислим, используя приведенные выше формулы, коэффициент корреляции rxy в нашем примере:
rxy= 0,9184, т.е. связь между показателями прямая и достаточно тесная.
Коэффициент детерминации r2xy= 0,844, это означает, что вариация зависимой переменной y на 84% объясняется изменчивостью переменной x, на долю же прочих факторов приходится 16% дисперсии результативного признака.