Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ekonometrika_Teoria.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
4.14 Mб
Скачать
  1. Парная линейная регрессия. Взаимосвязи экономических переменных.

В модели парной линейной регрессии одна из величин Х выделяется как независимая (объясняющая), а другая Y как зависимая (объясняемая). Например, рост дохода ведет к увеличению потребления; рост цены ведет к снижению спроса; снижение процентной ставки ведет к увеличению инвестиций.

Независимая переменная Х называется также входной, экзогенной, предикторной (предсказывающей), фактором, регрессом, факторной переменной.

Зависимая переменная Y называется также выходной, результирующей, эндогенной, результативным признаком, функцией отклика.

Определение: Зависимость среднего значения переменной Y, т.е. условного математического ожидания Y при данном значении Х = х

𝑀 (𝑌/𝑋 = 𝑥) = 𝑓(𝑥),

называется функцией парной регрессии Y на Х.

Реальные значения Y могут быть различными при одном и том же значении Х = х, поэтому фактическая зависимость имеет вид:

Y = M(Y│x) +ε,

где величина ε называется случайным отклонением.

  1. Суть регрессионного анализа.

Регрессионный анализ заключается в определении аналитической формы связи, в которой изменение результативного признака обусловлено влиянием одного или нескольких факторных признаков, а множество всех прочих факторов, также оказывающих влияние на результативный признак, принимается за постоянные и средние значения.

Целью регрессионного анализа является оценка функциональной зависимости условного среднего значения результативного признака от факторных признаков.

Уравнение регрессии или модель связи социально-экономических явлений выражается функцией. Различают парную (y=f(x)) и множественную (Ŷ=f( , ,… ) ) регрессии.

Парная регрессий описывает связь между двумя признаками (результативным и факторным). Множественная регрессия описывает связь между результативным признаком и двумя и более факторными признаками.

  1. Классическая линейная регрессионная модель.

Если функция регрессии линейна: M(Y│x) = 𝛽0 + 𝛽1𝑥, то регрессия называется линейной.

Теоретическая модель парной линейной регрессии (зависимость между переменными в генеральной совокупности) имеет вид: 𝑌 = 𝛽0 + 𝛽1𝑋 + 𝜀, где Х рассматривается как неслучайная переменная, а Y и ε как случайные величины; 𝛽0 и 𝛽1 - теоретические коэффициенты (параметры) регрессии.

Индивидуальные значения yi выражаются: yi = 𝑏0 + 𝑏1 xi + ε. Для определения 𝛽0 и β необходимо знать и использовать все значения переменных Х и Y генеральной совокупности, что практически невозможно. Методами регрессионного анализа возможно лишь получить их оценки на основании выборочных данных: b0 𝛽0 b1 𝛽1

  1. Предпосылки метода наименьших квадратов.

Условия Гаусса-Маркова:

  1. Математическое ожидание случайных отклонений 𝜀𝑖 равно нулю:

𝑀 (𝜀𝑖) = 0 для всех наблюдений. Это означает, что случайное отклонение не должно иметь систематического смещения.

2) Дисперсия случайных отклонений постоянна для всех наблюдений:

𝐷 (𝜀𝑖)= 𝑀 ( ) = , 𝑖 = 1, 2,…,𝑛. Выполнимость данной предпосылки называется гомоскедастичностью, а невыполнимость ее называется гетероскедастичнстью.

3) Случайные отклонения 𝜀𝑖 и 𝜀j (𝑖 ≠ j) не коррелируют (отсутствует автокорреляция): 𝑀(𝜀𝑖,𝜀j) =0, 𝑖 ≠ j.

4) Случайные отклонения должны быть статистически независимы (некоррелированы) от объясняющих переменных.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]