Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ekonometrika (2).docx
Скачиваний:
1
Добавлен:
01.03.2025
Размер:
1.37 Mб
Скачать
  1. Классическая парная регрессионная модель. Спецификация модели. Теорема Гаусса – Маркова.

Зависимость между экономическими переменными типа Y=f(X)+ε (где f(X) – часть эндогенной (зависимой) переменной, полностью объясняемая значением экзогенной (независимой) переменной Х и называемая уравнением регрессии; ε – случайное возмущение – часть зависимой переменной, которая не может быть объяснена значением Х) называется регрессионной зависимостью, эконометрические модели со спецификацией вида: Y=f(X)+ε - регрессионноыми моделями. Регрессионная зависимость является обобщением функциональной зависимости между переменными и при ε=0 сводится к ней.

Независимые переменные в регрессионных моделях называются регрессорами. В зависимости от типа уравнения регрессии регрессионные модели подразделяются на линейные и нелинейные. В зависимости от количества регрессоров, входящих в спецификацию, регрессионные модели подразделяются на модели парной (простой, двумерной) регрессии и модели множественной (многомерной) регрессии. В парной регрессионной модели эндогенная переменная зависит только от одного регрессора.

Спецификация парной линейной регрессионной модели имеет вид Y=a+bX+ε, где а и b – параметры модели, Х – экзогенная переменная (независимая) – регрессор, У – эндогенная переменная (зависимая) – отклик (случайная величина), ε – случайное возмущение (случайная величина), характеризующее отклонение от уравнения регрессии f(X)=a+bX.

Уравнения для отдельных наблюдений зависимой переменной У записываются в виде (схема Гаусса-Маркова) Yt=a+bXtt , где Yt, Xt, t=1,..,n – выборочные данные (наблюдения), n – объем выборки (количество наблюдений).

Относительно возмущений εt, t=1,…,n, в регрессионных моделях принимаются следующие предположения (условия Гаусса-Маркова):

  1. математическое ожидание случайных возмущений равно нулю (Е{εt}=0, t=1,…,n)

  2. дисперсия возмущений постоянна и не зависит от номера (момента) наблюдений t:Var{ εt}=constt=сигма2

  3. возмущения для различных наблюдений некоррелированы: Cov{ εt, εs}=0 при t неравно s

Регрессионная модель Y=a+bX+ε с учетом условий Гаусса-Маркова называется классической регрессионной моделью.

  1. Ковариация, коэффициент корреляции и индекс детерминации

Ковариация в теории вероятностей и математической статистике мера линейной зависимости двух случайных величин.

Корреляция - статистическая взаимосвязь двух или нескольких случайных величин.

Коэффициент детерминации (R2)— это доля дисперсии отклонений зависимой переменной от её среднего значения, объясняемая рассматриваемой моделью связи. Модель связи обычно задается как явная функция от объясняющих переменных. Общая формула для вычисления коэффициента детерминации:

где yi — наблюдаемое значение зависимой переменной, а fi — значение зависимой переменной предсказанное по уравнению регрессии -среднее арифметическое зависимой переменной.

Коэффициент детерминации является случайной переменной.

  1. Количественные характеристики взаимосвязи пары случайных переменных.

Переменная величина x с множеством возможных значений Ax называется случайной, если ее возможные значения ti появляются в некотором опыте со случайными элементарными исходами ui вида: ui: x= ti, где ti.

Для описания случайных величин часто используются их числовые характеристики – числа, в сжатой форме выражающие наиболее существенные черты распределения СВ. Наиболее важными из них являются математическое ожидание, дисперсия, среднее квадратическое отклонение и др.

  • Математическим ожиданием, или средним значением, М(Х) дискретной случайной величины Х называется сумма произведений всех её значений на соответствующие им вероятности:

Для мат. ожидания используют также обозначения: E(X),

При n→∞ мат. ожидание представляет сумму ряда , если он абсолютно сходится.

Свойства мат. ожидания:

1) M(C)=C, где C – постоянная величина;

2) M(kX)=kM(X);

3)M(X±Y)=M(X)±M(Y);

4) M(XY)=M(X)•M(Y), где X,Y – независимые случайные величины;

5) M(X±C)=M(X)±C

6) M(X-a)=0, где a=M(X).

  • Дисперсией D(X) случайной величины Х называется математическое ожидание квадрата её отклонения от математического ожидания: D(X)=M[X-M(X)]2 или D(X)=M(X-a)2 (3), где a=M(X).

(Для дисперсии СВ Х используется также обозначение Var(X).)

Дисперсия характеризует отклонение (разброс, рассеяние, вариацию) значений СВ относительно среднего значения.

Если СВ Х – дискретная с конечным числом значений, то . (4)

Дисперсия D(X) имеет размерность квадрата СВ, что не всегда удобно. Поэтому в качестве показателя рассеяния используют также величину .

  • Средним квадратическим отклонением (стандартным отклонением или стандартом) σх случайной величины Х называется арифметическое значение корня квадратного из её дисперсии: . (5)

Свойства дисперсии СВ:

1) D(C)=0, где C – постоянная величина;

2) D(kX)=k2D(X);

3) D(X)=M(X2)-a2 где a=M(X);

4)D(X+Y)=D(X-Y)=D(X)+D(Y), где X и Y – независимые случайные величины.

  • ковариация двух случайных переменных

По определению ковариацией двух случайных переменных X и Yесть:

COV(x,y)=M((x-M(x))(y-M(y))) (4.6)

Значение ковариации отражает наличие связи между двумя случайными переменными

Если COV(x,y)>0, связь между X и Y полож-ая

Если COV(x,y)<0, связь между X и Y отриц-ная

Если COV(x,y)=0, X и Y независ переменные

Обл-ть возмож знач-й ков-ции – вся числ-ая ось

Свойства ковариаций

Cov(x,y) = Cov(y,x)

Cov(c1x1 + c2x2)=c1c2Cov(x1,x2)

Cov(cx) 0

Cov(x+c,y) = Cov(x,y)

Cov(x+y,z) = Cov(x,z) + Cov(y,z)

Cov(x,x) = σ2(x)

  • коэффициент корреляции 2х случ переменных

Недостатки ковариации в том, что ее значения зависят от масштаба измерения переменных и наличии размерности

Недостатки устраняется путем деления значения ковариации на значения стандартных отклонений переменных:

(4.7)

Выражение (4.7) называют коэффициентом корреляции двух случайных переменных

Коэффициент корреляции изменяется в пределах [-1;1] и является безразмерной величиной

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]