Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпоры исследования.docx
Скачиваний:
2
Добавлен:
01.07.2025
Размер:
25.43 Кб
Скачать

30. Регрессионный анализ.

Регрессионный анализ – это метод изучения статистической взаимосвязи между одной зависимой количественной зависимой переменной от одной или нескольких независимых количественных переменных. Зависимая переменная в регрессионном анализе называется результирующей, а переменные факторы – предикторами или объясняющими переменными.

Взаимосвязь между средним значением результирующей переменной и средними значениями предикторов выражается в виде уравнения регрессии. Уравнение регрессии – математическая функция, которая подбирается на основе исходных статистических данных зависимой и объясняющих переменных.  Чаще всего используется линейная функция. В этом случае говорят о линейном регрессионном анализе.

Как и корреляционный анализ, регрессионный анализ отражает только количественные зависимости между переменными.  Причинно-следственные зависимости регрессионный анализ не отражает. Гипотезы о причинно-следственной связи переменных должны формулироваться и обосновываться исходя из теоретического анализа содержания изучаемого явления.

Цели регрессионного анализа

  1. Определение степени детерминированности вариации зависимой переменной независимыми переменными.

  2. Предсказание значения зависимой переменной с помощью независимой(-ых)

  3. Определение вклада отдельных независимых переменных в вариацию зависимой

Регрессионный анализ нельзя использовать для определения наличия связи между переменными, поскольку наличие такой связи и есть предпосылка для применения анализа.

Регрессия - это односторонняя стохастическая зависимость, когда одна из переменных служит причиной для изменения другой.

Виды регрессии классифицируются по следующим признакам:

а) по числу переменных, учитываемых в регрессии:

        простая регрессия (парная – рассматриваются две переменных);

        множественная, или частная регрессия (рассматривается более двух переменных);

б) по форме зависимости между факторными и результирующими признаками:

        линейная регрессия (признаки связаны линейной зависимостью);

        нелинейная регрессия (признаки связаны нелинейной зависимостью);

в) по характеру регрессии (имеет смысл только для простой линейной регрессии):

        положительная регрессия;

        отрицательная регрессия;

г) по типу связи факторных и результирующих признаков:

        непосредственная регрессия - причина прямо воздействует на следствие;

        косвенная регрессия, Y и X не состоят в прямой зависимости, а определяются общей для них причиной через третью перемен­ную;

        нонсенс-регрессия (абсурдная).

Задачи регрессионного анализа:

а) устанавливает форму зависимости (для случая парной регрессии – убывающая или возрастающая);

б) определяет вид функции регрессии;

в) оценивает неизвестные значения зависимой переменной Y (можно воспроизвести значение Y при заданных значениях X внутри рассматриваемого интерва­ла (интерполяция) и вне интервала (экстраполяция)).

Задачи регрессионного анализа

1.  Определение вида функциональной зависимости (вида регрессионной модели).

Различают следующие виды регрессионных моделей:

        Модель линейная относительно параметров регрессии

а) парная линейная модель

б) парная криволинейная модель

в) множественная линейная модель

г) множественная нелинейная модель

д) ортогональная полиномиальная модель.

 Модель нелинейная относительно параметров регрессии.

2.  Вычисление коэффициентов регрессионной модели.

3.   Проверка адекватности полученной модели.