Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
diplom25 / 12233.docx
Скачиваний:
27
Добавлен:
24.03.2015
Размер:
1.55 Mб
Скачать
  1. Глава 2 Нарушениегипотезосновной линейноймодели

  2. 2.1. Обобщенныйметоднаименьшихквадратов (взвешеннаярегрессия)

  3. Пусть нарушена гипотеза g4 и матрица ковариации ошибок по наблюдениям равна не σ2IN, а σ2Ω, где Ω — вещественная симметричная положительно полуопределенная матрица (см. Приложение A.1.2), т.е. ошибки могут быть коррелированы по наблюдениям и иметь разную дисперсию. В этом случае обычные МНК-оценки параметров регрессии (1.26) остаются несмещенными и состоятельными, но перестают быть эффективными в классе линейных несмещенных оценок. Ковариационная матрица оценок МНК в этом случае приобретает вид

  4. Действительно, a E(a) = a α = (Z"Z)−1 Z"ε, поэтому

  5. (Ср. с выводом формулы (1.28), где Ω = σ2I.)

  6. Обычная оценка ковариационной матрицы s2e (Z!Z)−1 при этом является смещенной и несостоятельной. Как следствие, смещенными и несостоятельными оказываются оценки стандартных ошибок оценок параметров (1.35): чаще всего они преуменьшаются (т.к. ошибки по наблюдениям обычно коррелированы положительно), и заключения о качестве построенной регрессии оказываются неоправданно оптимистичными.

  7. По этим причинам желательно применятьобобщенный МНК (ОМНК), заключающийся в минимизации обобщенной остаточной дисперсии

  8. В обобщенной остаточной дисперсии остатки взвешиваются в соответствии со структурой ковариационной матрицы ошибок. Минимизация приводит к получению следующего оператора ОМНК-оценивания (ср. с (1.13), где Ω = IN):

  9. (2.1)

  10. Для обоснования ОМНК проводится преобразование в пространстве наблюдений с помощью невырожденной матрицы D размерности N × N, такой, что (такое представление допускает любая вещественная симметричная положительно определенная матрица:

  11. DX = DZα + Dε. (2.2)

  12. Такое преобразование возвращает модельв «штатную» ситуацию, поскольку новые остатки удовлетворяют гипотезе g4:

  13. Остаточная дисперсия теперь записывается как , а оператор оценивания — как

  14. Что и требовалось доказать, поскольку .

  15. Обычно ни дисперсии, ни тем более ковариации ошибок по наблюдениям не известны. В классической эконометрии рассматриваются два частных случая.

  16. 2.2. Гетероскедастичностьошибок

  17. Пусть ошибки не коррелированы по наблюдениям, и матрица Ω (а вслед за ней и матрица D) диагональна. Если эта матрица единична, т.е. дисперсии ошибок одинаковы по наблюдениям (гипотеза g4 не нарушена), то имеет место гомоскедастичность или однородность ошибок по дисперсии — «штатная» ситуация. В противном случае констатируют гетероскедастичность ошибок или их неоднородность по дисперсии.

  18. Пусть var(εi) = σi2 — дисперсия ошибки i-го наблюдения. Гомоскедастичность означает, что все числа σi2 одинаковы, а гетероскедастичность — что среди них есть несовпадающие.

  19. Факт неоднородности остатков по дисперсии мало сказывается на качестве оценок регрессии, если эти дисперсии не коррелированы с независимыми факторами. Это — случай гетероскедастичности «без негативных последствий».

  20. Данное утверждение можно проиллюстрировать в случае, когда в матрице

  21. Z всего один столбец, т.е. n = 1 и свободный член отсутствует. Тогда формула (1.33) приобретает вид:

  22. .

  23. Еслиситуацияштатнаяи σi2 = σ2,то правая часть этой формулы преобразуется к виду оказывается несмещенной оценкойσ2, как и было показано впараграфе 1.2. Если σi и zi не коррелированы, то, обозначив, можно утверждать, что

  24. т.е. ситуация остается прежней. И только если σi и zi положительно (или отрицательно) коррелированы, факт гетероскедастичности имеет негативные последствия.

  25. Действительно, в случае положительной корреляции и, следовательно,. Обычная «несмещенная» оценка остаточной дисперсии оказывается по математическому ожиданию меньше действительного значения остаточной дисперсии, т.е. она (оценка остаточной дисперсии) дает основания для неоправданно оптимистичных заключений о качестве полученной оценки модели.

  26. Следует заметить, что факт зависимости дисперсий ошибок от независимых фактороввэкономикевесьмараспространен.В экономике одинаковыми по дисперсии скорее являются относительные (ε"z), а не абсолютные (ε) ошибки. Поэтому, когда оценивается модель на основе данных по предприятиям, которые могут иметь и, как правило, имеют различные масштабы, гетероскедастичности с негативными последствиями просто не может не быть.

  27. Если имеет место гетероскедастичность, то, как правило, дисперсия ошибки связана с одной или несколькими переменными, в первую очередь — с факторами регрессии. Пусть, например, дисперсия может зависеть от некоторой переменной yi, которая не является константой:

  28. Как правило, в качестве переменной yi берется один из независимых факторов или математическое ожидание изучаемой переменной, т.е. x0 = (в качестве его оценки используют расчетные значения изучаемой переменной Za).В этой ситуации желательно решить две задачи: во-первых, определить, имеет лиместопредполагаемаязависимость,аво-вторых,еслизависимость обнаружена, получить оценки с ее учетом. При этом могут использоваться три группы методов. Методы первой группы позволяют работать с гетероскедастичностью, которая задается произвольной непрерывной функцией σ2(·). Для методов второй группы2(·) функция σ2(·) должна быть монотонной. В методах третьей группы функция σ предполагается известной с точностью до конечного числа параметров.

  29. Примером метода из первой группы является критерий Бартлетта, который заключается в следующем.

  30. Пусть модель оценена и найдены остатки ei, i = 1, ..., N. Для расчета bc — статистики, лежащей в основе применения этого критерия, все множество наблюдений делится по какому-либо принципу на k непересекающихся подмножеств. В частности, если требуется выявить, имеется ли зависимость от некоторой переменной yi, то все наблюдения упорядочиваются по возрастанию yi, а затем в соответствии с этим порядком делятся на подмножества. Пусть

  31. Nl — количество элементов в l-м подмножестве,

  32. s2l — оценка дисперсии остатков в l-м подмножестве, найденная на основе

  33. остатков ei;

  34. - отношение средней арифметической дисперсий к средней геометрической; это отношение в соответствии со свойством мажорантности средних больше или равно единице, и чем сильнее различаются дисперсии по подмножествам, тем оно выше.

  35. Тогда статистика Бартлетта равна

  36. .

  37. При однородности наблюдений по дисперсии (нулевая гипотеза) эта статистика распределена как χ2k1. Проверка нулевой гипотезы проводится по обычному алгоритму..

  38. Если нулевую гипотезу отвергнуть не удалось, т.е. ситуация гомоскедастична, то исходная оценка модели удовлетворительна. Если же нулевая гипотеза отвергнута, то ситуация гетероскедастична.

  39. Принцип построения статистики Бартлетта иллюстрирует рисунок 2.1.

  40. Классическийметод второйгруппызаключаетсявследующем.Всенаблюдения упорядочиваются по возрастанию некоторой переменной yi. Затем оцениваются две вспомогательные регрессии: по K «малым» и по K «большим»наблюдениям

  41. (не участвуютс целью повышения мощности критерия средние, а K можно, например, выбрать равным приблизительно третиN − 2K наблюдения в расчетеN).

  42. Пусть s21 — остаточная дисперсия в первой из этих регрессий, а s22 — во второй. Вслучаегомоскедастичностиошибок(нулеваягипотеза)отношениедвухдисперсий распределено как

  43. .

  44. Здесь следует применять обычный F-критерий. Нулевая гипотеза о гомоскедастичности принимается, если рассчитанная статистика превышает 95%-ный квантиль F-распределения.

  45. Рис. 2.2

  46. Такой подход применяется, если ожидается, что дисперсия может быть только положительно коррелирована с переменной yi. Если неизвестно, положительно или отрицательно коррелирована дисперсия с рассматриваемым фактором, то следует отклонять нулевую гипотезу как при больших, так и при малых значениях статистики s22"s21. Можно применить следующий прием: рассчитать статистику как отношение максимальной из дисперсий s21 и s22 к минимальной. Такая статистика будет иметь усеченное F-распределение, где усечение происходит на уровне медианы, и берется правая половина распределения. Отсюда следует, что для достижения, например, 5%-го уровня ошибки, следует взять табличную критическуюграницу,соответствующую, 2.5%-муправомухвостуобычного(неусеченного) F-распределения. Если указанная статистика превышает данную границу, то нулевая гипотеза о гомоскедастичности отвергается.

  47. Данный метод известен под названием метода Голдфельда—Квандта. Можно применять упрощенный вариант этого критерия, когда дисперсии s22 и s22 считаются на основе остатков из проверяемой регрессии. При этом s21 и s22 не будут независимы, и их отношение будет иметь F-распределение только приближенно. Этот метод иллюстрирует рисунок 2.2.

  48. Для того чтобы можно было применять методы третьей группы, требуется обладать конкретной информацией о том, какой именно вид имеет гетероскедастичность.

  49. Так, например, если остатки прямо пропорциональны значениям фактора (n = 1):

  50. x = + β + zε,

  51. и ε удовлетворяет необходимым гипотезам, то делением обеих частей уравнения на z ситуация возвращается в «штатную»:

  52. ,

  53. Рис. 2.3

  54. в которой, правда, угловой коэффициент и свободный член меняются местами. Тем самым применяется преобразование в пространстве наблюдений такое, что диагональные элементы матрицы D равны 1"zi .

  55. Если зависимость дисперсии от других переменных известна не точно, а только с точностью до некоторых неизвестных параметров, то для проверки гомоскедастичности следует использовать вспомогательные регрессии.

  56. Так называемый метод Глейзера состоит в следующем. Строится регрессия модулей остатков |ei| на константу и те переменные, которые могут быть коррелированными с дисперсией (например, это может быть все множество независимых факторов или какое-то их подмножество). Если регрессия оказывается статистически значимой, то гипотеза гомоскедастичности отвергается.

  57. Построение вспомогательной регрессии от некоторой переменной yi показано на рисунке 2.3.

  58. Другой метод (критерий Годфрея) использует аналогичную вспомогательную регрессию, в которой в качестве зависимой переменной используются квадраты остатков e2i .

  59. Если с помощью какого-либо из перечисленных критериев (или других аналогичных критериев) проверены различные варианты возможной зависимости и нулевая гипотеза во всех случаях не была отвергнута, то делается вывод, что ситуация гомоскедастична или гетероскедастична без негативных последствий и что для оценки параметров модели можно использовать обычный МНК. Если же нулевая гипотеза отвергнута и поэтому, возможно, имеет место гетероскедастичность с негативными последствиями, то желательно получить более точные оценки, учитывающие гетероскедастичность.

  60. Это можно сделать, используя для оценивания обобщенный МНК (см. уравнение (2.2)). Соответствующее преобразование в пространстве наблюдений состоит

  61. в том, чтобы каждое наблюдение умножить на di, т.е. требуется оценить обычным методом наименьших квадратов преобразованную регрессию с переменными diXi и diZi. При этом не следует забывать, что если матрица факторов Z содержит свободный член, то его тоже нужно умножить на di, поэтому вместо свободного члена в регрессии появится переменная вида (d1, ..., dN). Это приводит к тому, что стандартные статистические пакеты выдают неверные значения коэффициента детерминации и F-статистики. Чтобы этого не происходило, требуется пользоваться специализированными процедурами для расчета взвешенной регрессии. Описанный методполучил названиевзвешенногоМНК, посколькуон равнозначен

  62. N минимизации взвешенной суммы квадратов остатков % d2i e2i .

  63. i=1

  64. Чтобы это можно было осуществить, необходимо каким-то образом получить оценкуматрицы D,используемойдляпреобразованиявпространственаблюдений. Перечисленные в этом параграфе методы дают возможность не только проверить гипотезу об отсутствии гетероскедастичности, но и получить определенные оценки матрицы D (возможно, не очень хорошие).

  65. Если S2 — оценка матрицы σ2Ω , где S2 — диагональная матрица, составленная из оценок дисперсий, то S1 (матрица, обратная к ее квадратному корню) — оценка матрицы σD.

  66. Так, после проверки гомоскедастичности методом Глейзера в качестве диагональных элементов матрицы| | S1 можно взять 1"|ei|c , где |ei|c — расчетные значения ei . Если используются критерии Бартлетта или Голдфельда—Квандта, то наблюдения разбиваются на группы, для каждой из которых есть оценка дисперсии, s2l . Тогда для этой группы наблюдений в качестве диагональных элементов матрицы S1 можно взять 1"sl .

  67. В методе Голдфельда—Квандта требуется дополнительно получить оценку дисперсии для пропущенной средней части наблюдений. Эту оценку можно получить непосредственнопоостаткампропущенныхналюденийиликаксреднее (s21+s22)/2.

  68. Если точный вид гетероскедастичности неизвестен, и, как следствие, взвешенный МНК неприменим, то, по крайней мере, следует скорректировать оценку ковариационной матрицы оценок параметров, оцененных обычным МНК, прежде чем проверять гипотезы о значимости коэффициентов. (Хотя при использовании обычного МНКоценки будутменее точными, нокакужеупоминалось, онибудут несмещенными и состоятельными.) Простейший метод коррекции состоит в замене неизвестной ковариационной матрицы ошибок σ2Ω на ее оценку S2, где S2 — диагональная матрица стипичнымэлементом e2i (т.е.квадратыостатковиспользуютсякакоценки дисперсий). Тогда получается следующая скорректированная оценка ковариационной матрицы a (оценкаУайта или устойчиваякгетероскедастичностиоценка):

  69. (Z"Z)−1 Z"S2Z (Z"Z)−1 .

  70. 2.3. Автокорреляцияошибок

  71. Если матрица ковариаций ошибок не является диагональной, то говорят об автокорреляции ошибок. Обычно при этом предполагают, что наблюдения однородны по дисперсии, и их последовательность имеет определенный смысл и жестко фиксирована. Как правило, такая ситуация имеет место, если наблюдения проводятся в последовательные моменты времени. В этом случае можно говорить о зависимостях ошибок по наблюдениям, отстоящим друг от друга на 1, 2, 3 и т.д. моментавремени.Обычнорассматриваетсячастныйслучайавтокорреляции,когда коэффициенты ковариации ошибок зависят только от расстояния во времени между наблюдениями; тогда возникает матрица ковариаций, в которой все элементы каждой диагонали (не только главной) одинаковы1.

  72. Поскольку действие причин, обуславливающих возникновение ошибок, достаточноустойчивововремени,автокорреляцииошибок,какправило,положительны. Это ведет к тому, что значения остаточной дисперсии, полученные по стандартным («штатным») формулам, оказываются ниже их действительных значений. Что, как отмечалось и в предыдущем пункте, чревато ошибочными выводами о качестве получаемых моделей.

  73. Это утверждение иллюстрируется рисунком 2.4 (n = 1).

  74. На этом рисунке:

  75. a — линия истинной регрессии. Если в первый момент времени истинная ошибка отрицательна, то в силу положительной автокорреляции ошибок все облако наблюдений сместится вниз, и линия оцененной регрессии займет положение b. Есливпервыймоментвремениистиннаяошибкаположительна, топотемжепричинам линия оцененной регрессии сместится вверх и займет положение c. Поскольку

  76. 1В теории временных рядов это называется слабой стационарностью.

  77. Рис. 2.4

  78. ошибки случайны и в первый момент времени они примерно с равной вероятностью могут оказаться положительными или отрицательными, то становится ясно, насколько увеличивается разброс оценок регрессии вокруг истинных по сравнению с ситуацией без (положительной) автокорреляции ошибок.

  79. Типичный случай автокорреляции ошибок, рассматриваемый в классической эконометрии, — это линейная авторегрессия ошибок первого порядка AR(1):

  80. εi = ρεi−1 + ηi,

  81. где η — остатки, удовлетворяющие обычным гипотезам; ρ — коэффициент авторегрессии первого порядка.

  82. Коэффициент ρ вляется также коэффициентом автокорреляции (первого порядка).

  83. Действительно, по определению, коэффициент авторегрессии равен (как МНКоценка):

  84. cov(εi,εi−1), ρ =

  85. var(εi1)

  86. но, в силу гомоскедастичности, var(εi1) = Zvar(εi)var(εi1) и, следовательно, ρ, также по определению, является коэффициентом автокорреляции.

  87. Если ρ = 0, то εi = ηi и получаем «штатную» ситуацию. Таким образом, проверку того, что автокорреляция отсутствует, можно проводить как проверку нулевой гипотезы H0: ρ = 0 для процесса авторегрессии 1-го порядка в ошибках.

  88. Для проверки этой гипотезы можно использовать критерий Дарбина— Уотсона или DW-критерий. Проверяется нулевая гипотеза о том, что автокорреляция ошибок первого порядка отсутствует. (При автокорреляции второго и более высоких порядков его мощность может быть мала, и применение данного критерия становится ненадежным.)

  89. Пусть была оценена модель регрессии и найдены остатки ei, i = 1, ..., N. Значение статистики Дарбина—Уотсона (отношения фон Неймана), или DW-статистики, рассчитывается следующим образом:

  90. . (2.3)

  91. Оно лежит в интервале от 0 до 4, в случае отсутствия автокорреляции ошибок приблизительно равно 2, при положительной автокорреляции смещается в мень-

  92. dL dU 4&dU 4&dL

  93. Рис. 2.5

  94. шую сторону, при отрицательной — в большую сторону. Эти факты подтверждаются тем, что при больших N справедливо следующее соотношение:

  95. dc ≈ 2(1 − r), (2.4)

  96. где r — оценка коэффициента авторегрессии.

  97. Минимального значения величина dc достигает, если коэффициент авторегрессии равен +1. В этом случае ei = e, i = 1, ..., N, и dc = 0. Если коэффициент авторегрессии равен −1 и ei = (−1)ie, i = 1, ..., N, то величинаdc достигает значения (можно достичь и более высокого значения подбором остатков), которое с ростомN стремится к 4. Формула (2.4) следует непосредственно из (2.3) после элементарных преобразований:

  98. ,

  99. поскольку первое и третье слагаемые при больших N близки к единице, а второе слагаемое является оценкой коэффициента автокорреляции (умноженной на −2).

  100. Известно распределение величины d, если ρ = 0 (это распределение близко к нормальному), но параметры этого распределения зависят не только от N и n, как для t- и F-статистик при нулевых гипотезах. Положение «колокола» функции плотности распределения этой величины зависит от характера Z. Тем не менее, ДарбиниУотсонпоказали,чтоэтоположениеимеетдвекрайниепозиции(рис.2.5).

  101. Поэтому существует по два значения для каждого (двустороннего) квантиля, соответствующего определенным N и n: его нижняя dL и верхняя dU границы. Нулевая гипотеза H0: ρ = 0 принимается, если dU ! dc ! 4−dU ; она отвергается в пользу гипотезы о положительной автокорреляции, если dc < dL, и в пользу гипотезы об отрицательной автокорреляции, если. Если dL ! dc < dU

  102. DWили-4критерия−dU < d).c ! 4−dL,вопросостаетсяоткрытым зонанеопределенности

  103. Пусть нулевая гипотеза отвергнута. Тогда необходимо дать оценку матрицы Ω.

  104. Оценка r параметра авторегрессии ρ может определяться из приближенного равенства, следующего из (2.4):

  105. ,

  106. или рассчитываться непосредственно из регрессии e на него самого со сдвигом на одно наблюдение с принятием «круговой» гипотезы, которая заключается в том, что eN+1 = e1.

  107. Оценкой матрицы Ω является

  108. ,

  109. а матрица D преобразований в пространстве наблюдений равна

  110. .

  111. Для преобразования в пространстве наблюдений, называемом в данном случае авторегрессионным, используют обычно указанную матрицу без 1-й строки, что ведет к сокращению количества наблюдений на одно. В результате такого преобразования из каждого наблюдения, начиная со 2-го, вычитается предыдущее, умноженное на r, теоретическими остатками становятся η , которые, по предположению, удовлетворяют гипотезе g4.

  112. После этого преобразования снова оцениваются параметры регрессии. Если новое значение DW-статистики неудовлетворительно, то можно провести следующее авторегрессионное преобразование.

  113. Обобщает процедуру последовательных авторегрессионных преобразований метод Кочрена—Оркатта, который заключается в следующем.

  114. Для одновременной оценки r, a и b используется критерий ОМНК (в обозначениях исходной формы уравнения регрессии):

  115. ,

  116. где zi n-вектор-строка значений независимых факторов в i-м наблюдении (i-строка матрицы Z).

  117. Поскольку производные функционала по искомым величинам нелинейны относительно них, применяется итеративная процедура, на каждом шаге которой сначала оцениваются a и b при фиксированном значении r предыдущего шага (на первом шаге обычно r = 0), а затем — r при полученных значениях a и b. Процесс, как правило, сходится.

  118. Как и в случае гетероскедастичности, можно не использовать модифицированные методы оценивания (тем более, что точный вид автокорреляции может быть неизвестен), а использовать обычный МНК и скорректировать оценку ковариационной матрицы параметров. Наиболее часто используемая оценкаНьюи—Уэста (устойчивая к гетероскедастичности и автокорреляции) имеет следующий вид:

  119. (Z"Z)−1 Q(Z"Z)−1 ,

  120. где

  121. ,

  122. а λk — понижающие коэффициенты, которые Ньюи и Уэст предложили рассчитывать по формуле . Приk > L понижающие коэффициенты становятся равными нулю, т.е. более дальние корреляции не учитываются Обоснование этой оценки достаточно сложно1. Заметим только, что если заменить попарные произведения остатков соответствующими ковариациями и убрать понижающие коэффициенты, то получится формула ковариационной матрицы оценок МНК.

  123. Приведенная оценка зависит от выбора параметра отсечения L. В настоящее время не существует простых теоретически обоснованных методов для такого выбора. На практике можно ориентироваться на грубое правило L = <4(T"100)2/9=.

  124. 2.4. Ошибкиизмеренияфакторов

  125. Пусть теперь нарушается гипотеза g2, и независимые факторы наблюдаются с ошибками. Предполагается, что изучаемая переменная зависит от истинных значений факторов (далее в этом пункте используется сокращенная форма уравнения регрессии), zˆ0, а именно:

  126. xˆ = zˆ0α + ε,

  127. но истинные значения неизвестны, а вместо этого имеются наблюдения над некоторыми связанными с zˆ0 переменными zˆ:

  128. zˆ = zˆ0 + εz,

  129. где εz — вектор-строка длиной n ошибок наблюдений.

  130. В разрезе наблюдений:

  131. Xˆ = Zˆ0α + ε, Zˆ = Zˆ0 + εz,

  132. где Zˆ0 и εz — соответствующие N × n-матрицы значений этих величин по на, εz обозначает вектор или матрицублюдениям ., в зависимости от контекста ошибок).

  133. Предполагается, что ошибки факторов по математическому ожиданию равны нулю,истинныезначениярегрессоровиошибкинезависимыдруготдруга(покрайней мере не коррелированы друг с другом) и известны матрицы ковариации:

  134. E(εz) = 0, E,

  135. (2.5)

  136. E.

  137. Важно отметить, что эти матрицы и вектора ковариации одинаковы во всех наблюдениях, а ошибки в разных наблюдениях не зависят друг от друга, т.е. речь, фактически,идет о «матричной» гомоскедастичности и отсутствии автокорреляции ошибок.

  138. Через наблюдаемые переменные xˆ и zˆ уравнение регрессии записывается в следующей форме:

  139. xˆ = zˆα + ε εzα. (2.6)

  140. В такой записи видно, что «новые» остатки не могут быть независимыми от факторов-регрессоров zˆ, т.е. гипотезы основной модели регрессии нарушены. В рамках

  141. можно доказать, что приближенно

  142. E(a) ≈ (M0 + Ω)−1(M0α + ω) = α + (M0 + Ω)−1(ω − Ωα), (2.7) т.е. МНК-оценки теряют в такой ситуации свойства состоятельности и несмещенности2, еслиω =! Ωα (в частности, когда ошибки регрессии и ошибки факторов не коррелированны, т.е. когда ω = 0, а Ω и α отличны от нуля).

  143. Для обоснования (2.7) перейдем к теоретическому аналогу системы нормальных уравнений, для чего обе части соотношения (2.6) умножаются на транспонированную матрицу факторов:

  144. E(zˆ"xˆ) = E(zˆ"zˆ)α + E(zˆ"ε) − E(zˆ"εz)α.

  145. Здесь, как несложно показать, пользуясь сделанными предположениями,

  146. E(zˆ"zˆ) = M0 + Ω,

  147. E(zˆ"ε) = ω,

  148. E(zˆ"εz) = Ω,

  149. Поэтому

  150. E(zˆ"xˆ) = E(zˆ"zˆ)α + ω − Ωα

  151. или

  152. E(zˆ"zˆ)−1E(zˆ"xˆ) = α + 0M0 + Ω1−1 (ω − Ωα).

  153. Левая часть приближенно равна E(a).

  154. Действительно, a = M1m, где M = N1 Zˆ"Zˆ и m = N1 Zˆ"xˆ. Выборочные ковариационные матрицы M и m по закону больших чисел с ростом числа наблюдений сходятся по вероятности к своим теоретическим аналогам:

  155. p и m −→E(zˆ"xˆ).

  156. Посвойствамсходимостиповероятностипределфункцииравенфункцииотпредела, если функция непрерывна. Поэтому

  157. .

  158. Существуют разные подходы к оценке параметров регрессии в случае наличия ошибок измерения независимых факторов. Здесь приводятся два из них.

  159. а) Простая регрессия. Если имеется оценка W ковариационной матрицы Ω и w — ковариационного вектора ω , то можно использовать следующий оператор оценивания:

  160. a = (M W)−1(m w),

  161. который обеспечивает состоятельность оценок и делает их менее смещенными.

  162. Это формула следует из

  163. E(zˆ"xˆ) = E(zˆ"zˆ)α + ω − Ωα

  164. заменой теоретических моментов на их оценки.

  165. Обычно предполагается, что W — диагональная матрица, а w = 0.

  166. б) Ортогональная регрессия. Поскольку z теперь такие же случайные переменные,наблюдаемыесошибками,каки x,имеетсмыслвернутьсякобозначениям 6-го раздела, где через x обозначался n-мерный вектор-строка всех переменных. Пусть ε — вектор их ошибок наблюдения, а x0 — вектор их истинных значений, то есть

  167. x = x0 + ε, X = X0 + ε.

  168. Предположения (2.5) записываются следующим образом:

  169. E.

  170. Теперь через M0 обозначается матрица, которую в обозначениях, используемых в этом пункте выше, можно записать следующим образом:

  171. ,

  172. а через σ2Ω матрица

  173. .

  174. Поскольку речь идет о линейной регрессии, предполагается, что между истинными значениями переменных существует линейная зависимость:

  175. x0α = 0.

  176. Это означает, что

  177. M0α = 0.

  178. Рассуждаятакже,какпридоказательствесоотношения(2.7),легкоустановить, что

  179. E(M) = M0 + σ2,

  180. (M — фактическая матрица ковариации X) т.е.

  181. (E(M) − σ2Ω)α = 0.

  182. Таким образом, если считать, что Ω известна, а σ2 — минимизируемый параметр

  183. (в соответствии с логикой МНК), то решение задачи

  184. (M σ2Ω)a = 0, σ2 → min!

  185. даст несмещенную оценку вектора α . А это, как было показано в пункте 6.4, есть задача регрессии в метрике Ω−1 (см. (6.37)). Преобразованием в пространстве переменных она сводится к «обычной» ортогональной регрессии.

  186. Т.е. если для устранения последствий нарушения гипотезы g4 используется преобразование в пространстве наблюдений, то при нарушении гипотезы g2 надо «работать» с преобразованием в пространстве переменных.

  187. Несмотря на то, что методы ортогональной регрессии и регрессии в метрике Ω−1 внаибольшейстепенисоответствуютреалиямэкономики(ошибкиестьвовсех переменных, стоящих как в левой, так и в правой частях уравнения регрессии), они мало используются в прикладных исследованиях. Основная причина этого заключается в том, что в большинстве случаев невозможно получить надежные оценки матрицы Ω. Кроме того, ортогональная регрессия гораздо сложнее простой с вычислительной точки зрения,и стеоретической точки зренияона существенно менее изящна и прозрачна.

  188. Вследующемпараграфеизлагаетсяещеодинметод,которыйпозволяетрешить проблему ошибок в переменных (и в целом может использоваться при любых нарушениях гипотезы g2).

  189. 2.5. Методинструментальныхпеременных

  190. Предполагаем, что в регрессии x = + ε переменные-факторы z являются случайными,инарушенагипотезаg2вобобщеннойформулировке:ошибка ε зависит от факторов z, так что корреляция между z и ошибкой ε не равна нулю. Такую регрессию можно оценить, имея набор вспомогательных переменных y, называемых инструментальными переменными. Часто инструментальные переменные называют просто инструментами.

  191. Для того, чтобы переменные y можно было использовать в качестве инструментальных, нужно, чтобы они удовлетворяли следующим требованиям:

  1. Инструменты y некоррелированы с ошибкой ε. (В противном случае метод даст несостоятельные оценки, как и МНК.) Если это условие не выполнено, то такие переменные называют негодными инструментами4.

  2. Инструменты y достаточно сильно коррелированы с факторами z. Если данное условие не выполнено, то это так называемые «слабые» инструменты. Если инструменты слабые, то оценки по методу будут неточными и при малом количестве наблюдений сильно смещенными.

  1. Обычно z и y содержатобщиепеременные,т.е.частьфакторовиспользуетсяв качествеинструментов.Например,типичнаситуация,когда z содержитконстанту; тогда в y тоже следует включить константу.

  2. Пусть имеются N наблюдений, и X, Z и Y — соответствующие данные в матричном виде. Оценки по методу инструментальных переменных (сокращенно IV от англ. instrumental variables) вычисляются по следующей формуле:

  3. aIV = (Z!Y 0Y !Y 1−1 Y !Z)−1 Z!Y 0Y !Y 1−1 Y !X. (2.8)

  4. В случае, если количество инструментальных переменных в точности равно количеству факторов, (rankY = n + 1) получаем собственно классический метод инструментальных переменных. При этом матрица Y !Z квадратная и оценки вычисляются как

  5. aIV = 0Y !Z1−1 Y !Y 0Z!Y 1−1 Z!Y 0Y !Y 1−1 Y !X.

  6. Средняя часть формулы сокращается, поэтому

  7. aIV = 0Y !Z1−1 Y !X. (2.9)

  8. Рассмотрим вывод классического метода инструментальных переменных,

  9. т.е. случай точной идентификации (ср. с (6.15) в главе 6):

  10. Умножим уравнение регрессии x = + ε слева на инструменты y (с транспонированием). Получим следующее уравнение:

  11. y!x = y!+ y!ε.

  12. исходном уравнении4В модели ошибок в переменных ошибка регрессии имеет вид, а εz — ошибка измерения факторов z. Чтобы переменныеεεzα, где εy —можно былоошибка в использовать в качестве инструментов, достаточно, чтобы y были некоррелированы с ε и εz.

  13. Если взять от обеих частей математическое ожидание, то получится

  14. E(y!x) = E(y!),

  15. где мы учли, что инструменты некоррелированы с ошибкой, E(y!ε) = 0.

  16. Заменяятеоретическиемоментынавыборочные,получимследующиенормальные уравнения, задающие оценки a:

  17. Myx = Myza,

  18. где Myx = N1 Y !X и Myz = N1 Y !Z. Очевидно, что эти оценки совпадут с (2.9). Фактически, мы применяем здесь метод моментов.

  19. Метод инструментальных переменных можно рассматривать как так называемый двухшаговый метод наименьших квадратов. (О нем речь еще пойдет ниже в пункте 10.3.)

  20. 1-й шаг. Строим регрессию каждого фактора Zj на Y . Получим в этой регрессии расчетный значения Zjc. По формуле расчетных значений в регрессии Zjc = Y (Y !Y )−1 Y !Z. Заметим, что если Zj входит в число инструментов, то по этой формуле получим . эта переменная останется без изменений. Поэтому данную процедуру достаточно применять только к тем факторам, которые не являются инструментами (т.е. могут быть коррелированы с ошибкой). В целом для всей матрицы факторов можем записатьZc = Y (Y !Y )−1 Y !Z.

  21. 2-й шаг. В исходной регрессии используются Zc вместо Z. Смысл состоит в том, чтобы использовать факторы «очищенные от ошибок».

  22. Получаем следующие оценки: a2M = 0Zc!Zc1−1 Zc!x =

  23. = (Z!Y 0Y !Y 1−1 Y !Y 0Y !Y 1−1 Y !Z)−1 Z!Y 0Y !Y 1−1 Y !x =

  24. = (Z!Y 0Y !Y 1−1 Y !Z)−1 Z!Y 0Y !Y 1−1 Y !x = aIV .

  25. Видим, что оценки совпадают.

  26. Если записать оценки в виде aIV = (Zc!Z)−1 Zc!x, то видно, что обобщенный метод инструментальных переменных можно рассматривать как простой метод инструментальных переменных с матрицей инструментов Zc.

  27. Такая запись позволяет обосновать обобщенный метод инструментальных переменных. Если исходных инструментов Y больше, чем факторов Z, и мы хотим построить на их основе меньшее количество инструментов, то имеет смысл сопоставить каждому фактору Zj вкачестве инструмента такуюлинейную комбинацию исходных инструментов, которая была бы наиболее сильно коррелирована с Zj. Этому требованию как раз и удовлетворяют расчетные значения Zjc.

  28. Другое обоснование обобщенного метода инструментальных переменных состоит, как и выше для классического метода, в использовании уравнений E(y!x) = = E(y!). Заменой теоретических моментов выборочными получим уравнения Myx = Myza, число которыхбольшечисла неизвестных. Идея состоит втом, чтобы невязки Myx Myza были как можно меньшими. Это достигается минимизацией следующей квадратичной формы от невязок:

  29. (Myx Myza)!Myy−1(Myx Myza),

  30. где Myy = N1 Y !Y . Минимум достигается при

  31. a = (MzyMyy−1Myz)−1 MzyMyy−1Myx.

  32. Видим, что эта формула совпадает с (2.8). Эти рассуждения представляют собой применение так называемого обобщенного метода моментов, в котором количество условий на моменты может превышать количество неизвестных параметров.

  33. Чтобы можно было использовать метод инструментальных переменных на практике, нужна оценка ковариационной матрицы, с помощью которой можно было бы вычислить стандартные ошибки коэффициентов и t-статистики. Такая оценка имеет вид

  34. MaIV = s20Zc!Zc1−1 .

  35. Здесь s2 — оценка дисперсии ошибок σ2, например s2 = e!e/N или s2 =

  36. = e!e/(N − 1). Остатки рассчитываются по обычной формуле, что остатки, получаемые на втором шаге тут не годятe = x ZaIV-.

  37. (Здесь следует помнить

  38. ся, поскольку они равны x ZcaIV . Если использовать их для расчета оценкиу дисперсии и ковариационной матрицы. дисперсии, то получим заниженную оценк

  39. Отсюда следует, что из регрессии второго шага можно использовать только оценки коэффициентов. Стандартные ошибки и t-статистики требуется пересчитывать.) Обсудим теперь более подробно проблему идентификации3.

  40. Чтобы можно было вычислить оценки (2.8), нужно, чтобы выполнялись следующие условия:

  1. Матрица инструментов должна иметь полный ранг по столбцам, иначе (Y !Y )−1 не существует.

  2. Z!Y (Y !Y )−1 Y !Z должна быть невырожденной.

Соседние файлы в папке diplom25