30. Регрессионный анализ.
Регрессионный анализ – это метод изучения статистической взаимосвязи между одной зависимой количественной зависимой переменной от одной или нескольких независимых количественных переменных. Зависимая переменная в регрессионном анализе называется результирующей, а переменные факторы – предикторами или объясняющими переменными.
Взаимосвязь между средним значением результирующей переменной и средними значениями предикторов выражается в виде уравнения регрессии. Уравнение регрессии – математическая функция, которая подбирается на основе исходных статистических данных зависимой и объясняющих переменных. Чаще всего используется линейная функция. В этом случае говорят о линейном регрессионном анализе.
Как и корреляционный анализ, регрессионный анализ отражает только количественные зависимости между переменными. Причинно-следственные зависимости регрессионный анализ не отражает. Гипотезы о причинно-следственной связи переменных должны формулироваться и обосновываться исходя из теоретического анализа содержания изучаемого явления.
Цели регрессионного анализа
Определение степени детерминированности вариации зависимой переменной независимыми переменными.
Предсказание значения зависимой переменной с помощью независимой(-ых)
Определение вклада отдельных независимых переменных в вариацию зависимой
Регрессионный анализ нельзя использовать для определения наличия связи между переменными, поскольку наличие такой связи и есть предпосылка для применения анализа.
Регрессия - это односторонняя стохастическая зависимость, когда одна из переменных служит причиной для изменения другой.
Виды регрессии классифицируются по следующим признакам:
а) по числу переменных, учитываемых в регрессии:
простая регрессия (парная – рассматриваются две переменных);
множественная, или частная регрессия (рассматривается более двух переменных);
б) по форме зависимости между факторными и результирующими признаками:
линейная регрессия (признаки связаны линейной зависимостью);
нелинейная регрессия (признаки связаны нелинейной зависимостью);
в) по характеру регрессии (имеет смысл только для простой линейной регрессии):
положительная регрессия;
отрицательная регрессия;
г) по типу связи факторных и результирующих признаков:
непосредственная регрессия - причина прямо воздействует на следствие;
косвенная регрессия, Y и X не состоят в прямой зависимости, а определяются общей для них причиной через третью переменную;
нонсенс-регрессия (абсурдная).
Задачи регрессионного анализа:
а) устанавливает форму зависимости (для случая парной регрессии – убывающая или возрастающая);
б) определяет вид функции регрессии;
в) оценивает неизвестные значения зависимой переменной Y (можно воспроизвести значение Y при заданных значениях X внутри рассматриваемого интервала (интерполяция) и вне интервала (экстраполяция)).
Задачи регрессионного анализа
1. Определение вида функциональной зависимости (вида регрессионной модели).
Различают следующие виды регрессионных моделей:
Модель линейная относительно параметров регрессии
а) парная линейная модель
б) парная криволинейная модель
в) множественная линейная модель
г) множественная нелинейная модель
д) ортогональная полиномиальная модель.
Модель нелинейная относительно параметров регрессии.
2. Вычисление коэффициентов регрессионной модели.
3. Проверка адекватности полученной модели.
