
1.Регрессия и корреляция
ПАРНАЯ РЕГРЕССИЯ И КОРРЕЛЯЦИЯ
Методические указания
Регрессионный и корреляционный анализ позволяет установить и оценить зависимость изучаемой случайной величины Y от одной или нескольких других величин X, и делать прогнозы значений Y. Параметр Y, значение которого нужно предсказывать, является зависимой переменной.
Параметр X, значения которого нам известны заранее и который влияет на значения Y, называется независимой переменной.
В зависимости от количества факторов, включенных в уравнение регрессии, принято различать простую (парную) и множественную регрессии.
Парная регрессия – уравнение связи двух переменных y и x:
y = f(x),
где y – зависимая переменная (результативный признак), х – независимая, объясняющая переменная (признак-фактор).
Различают линейные и нелинейные регрессии.
Линейная регрессия: y = a + bx + ε.
Нелинейные регрессии делятся на два класса:
– регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;
– регрессии, нелинейные по оцениваемым параметрам.
Построение
уравнения регрессии сводится к оценке
ее параметров. Для оценки параметров
регрессий, линейных по параметрам,
используют метод
наименьших квадратов (МНК),
который позволяет получить такие оценки
параметров a
и
b,
при которых сумма квадратов отклонений
фактических значений результативного
признака y
от
теоретических
минимальна:
Знак «^» означает, что между переменными x и y нет строгой функциональной зависимости, поэтому практически в каждом отдельном случае величина y складывается из двух слагаемых:
где y – фактическое значение результативного признака; _
– теоретическое
значение результативного признака,
найденное исходя из уравнения регрессии;
ε – случайная величина, характеризующая отклонения реального значения результативного признака от теоретического, найденного по уравнению регрессии.
К ошибкам спецификации относятся неправильный выбор той или иной математической функции для и недоучет в уравнении регрессии какого-либо существенного фактора, т. е. использование парной регрессии вместо множественной.
Рассеяние данных возле линии регрессии должно быть одинаково при всех значениях параметра X. В случае, показанном на рис. 1 данные распределяются вдоль линии регрессии неравномерно, поэтому метод наименьших квадратов в этом случае неприменим.
Рис. 1. Неравномерное распределение исходных точек вдоль линии регрессии
Для линейных и нелинейных уравнений, приводимых к линейным, решается следующая система относительно a и b:
Можно воспользоваться готовыми формулами, которые вытекают из этой системы:
Тесноту связи изучаемых явлений оценивает линейный коэффициент парной корреляции rxy и индекс корреляции ρxy. Для линейной регрессии (−1≤ rxy ≤1), причем, если коэффициент регрессии b > 0, то 0 ≤ rxy ≤1, и, наоборот, при b < 0 −1≤ rxy ≤ 0
Индекс корреляции ρxy – для нелинейной регрессии0 ≤ ρxy ≤1, причем, чем ближе к единице, тем теснее связь рассматриваемых признаков, тем более надежно найденное уравнение регрессии:
Оценку качества построенной модели дает коэффициент детерминации, а также средняя ошибка аппроксимации.
Коэффициент детерминации (квадрат линейного коэффициента корреляции r2xy ) характеризует долю дисперсии результативного признака y, объясняемую регрессией, в общей дисперсии результативного признака:
Средняя
ошибка аппроксимации – среднее отклонение
расчетных значений от фактических.
Фактические значения результативного
признака отличаются от теоретических,
рассчитанных по уравнению регрессии,
т. е. y
и
.
Чем
меньше это отличие, тем ближе теоретические
значения подходят к эмпирическим данным,
лучше качество модели. Величина отклонений
фактических и расчетных значений
результативного признака
по каждому наблюдению представляет
собой ошибку аппроксимации
Допустимый предел значений A – не более 8–10% (это свидетельствует о хорошем подборе модели к исходным данным).
Анализ дисперсии:
2. МНОЖЕСТВЕННАЯ РЕГРЕССИЯ И КОРРЕЛЯЦИЯ