
- •Билет 1
- •1. Назовите возможные способы построения систем уравнений. В чем их отличия?
- •2. В чем состоит спецификация модели множественной регрессии?
- •3. Вычисление коэффициента эластичности для разных функций.
- •4. Дайте определение эконометрики. Какие вопросы она решает и как связана с другими науками.
- •Билет 2
- •1. Как связаны между собой структурная и приведенная форма модели.
- •2. Составьте матрицу парных коэффициентов корреляции и межфакторной корреляции для регрессионной модели с 4-мя факторами.
- •3. Корреляция для нелинейной регрессии.
- •4. Парная линейная регрессия. Мнк и другие методы оценки параметров регрессии.
- •Билет 3
- •1. В чем состоит проблема идентификации модели, и какие условия идентификации (необходимое и достаточное) вы знаете.
- •2. Матрица парных коэффициентов корреляции линейного уравнения множественной регрессии.
- •3. Нелинейная регрессия, ее виды.
- •4. Дисперсионный анализ и составление таблицы дисперсионного анализа для парной регрессии.
- •Билет 4
- •4. Для чего вводится вспомогательная величина коэффициента ?
- •3. Прогнозное значение у. Интервалы прогноза по линейному уравнению регрессии.
- •4. Связь критериев Стьюдента и Фишера для парной регрессии.
- •3.Математическое моделирование в эконометрике.
- •4.Дисперсионный анализ для парной регрессии
- •2.Содержание предпосылок мнк
- •1.Трехшаговй мнк
- •1.Понятие идентификации
- •3.Регрессия нелинейная по оцениваемым параметрам
Билет 4
1. Для каких систем уравнений используется косвенный метод наименьших квадратов. В чем его суть.
Косвенный МНК применяется только для идентифицированных уравнений.
Алгоритм косвенного метода наименьших квадратов:
• Структурная модель преобразовывается в приведенную форму модели.
• Для каждого уравнения приведенной формы модели обычным МНК оцениваются приведенные коэффициенты.
• Коэффициенты приведенной формы модели трансформируются в параметры структурной формы модели.
2. Что такое частный критерий Фишера и чем он отличается от последовательного критерия Фишера.
F-тестом или критерием Фишера (F-критерием, φ*-критерием) — называют любой статистический критерий, тестовая статистика которого при выполнении нулевой гипотезы имеет распределение Фишера. С помощью частного F-критерия Фишера можно проверить значимость всех коэффициентов регрессии в предположении, что каждый соответствующий фактор xi вводился в уравнение множественной регрессии последним.
3. Корреляция для регрессии, нелинейной по переменным.
Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам, например
–
полиномы различных
степеней –
–
равносторонняя
гипербола –
–полулогарифмическая
функция –
.
4. Стандартная ошибка коэффициентов регрессии. Доверительный интервал для коэффициентов регрессии.
Стандартная ошибка коэффициента регрессии определяется по формуле:
Билет 5
1. Для каких систем уравнений используется двухшаговый МНК? В чем особенность его применения?
ДМНК применяется для сверхидентифицированной модели.
Двухшаговый метод наименьших квадратов состоит в том, что оценивают параметры отдельного уравнения системы, а не рассматривают систему в целом. Двухшаговый метод наименьших квадратов (ДМНК) использует следующую центральную идею: на основе приведенной формы модели получают для сверхидентифицируемого уравнения теоретические значения эндогенных переменных, содержащихся в правой части уравнения. Затем они подставляются вместо фактических значений и применяют обычный МНК к структурной форме сверхидентифицируемого уравнения. В свою очередь, сверхидентифицируемая структурная модель может быть двух типов: либо все уравнения системы сверхидентифицируемы, либо же система содержит наряду со сверхидентифицируемыми и точно идентифицируемые уравнения. В первом случае, если все уравнения системы сверхидентифицируемые, для оценки структурных коэффициентов каждого уравнения используется ДМНК. Если в системе есть точно идентифицируемые уравнения, то структурные коэффициенты по ним находятся из системы приведенных уравнений.
2. Предпосылки МНК.
Исследования остатков ei предполагают проверку наличия следующих пяти предпосылок МНК:
1. случайный характер остатков;
2. нулевая средняя величина остатков, не зависящая от xi;
3. гомоскедастичность – дисперсия каждого отклонения ei, одинакова для всех значений x;
4. отсутствие автокорреляции остатков – значения остатков ei распределены независимо друг от друга;
5. остатки подчиняются нормальному распределению.
Если распределение случайных остатков ei не соответствует некоторым предпосылкам МНК, то следует корректировать модель.
3. Понятие числа степеней свободы и его определение для факторной и остаточной сумм квадратов.
4. Критерий Фишера-Снедекора.
Обратная или конкурирующая гипотеза вида H0:r2yx≠0, утверждает, что парный коэффициент детерминации является значимым, и, следовательно, модель регрессии в целом также является значимой.
Проверка выдвинутых гипотез осуществляется с помощью F-критерия Фишера-Снедекора.
Наблюдаемое значение F-критерия (вычисленное на основе выборочных данных) сравнивают с критическим значением F-критерия, которое определяется по таблице распределения Стьюдента.
Критическое значение F-критерия определяется по таблице распределения Фишера-Снедекора в зависимости от: уровня значимости а и числа степеней свободы k1=h-1 и k2=n-h, где n – это объём выборочной совокупности, а h – число оцениваемых по данной выборке параметров.
При проверке гипотезы о значимости модели парной регрессии в целом критическое значение F-критерия определяется как Fкрит(а;n-2).
При проверке основных гипотез о незначимости модели парной регрессии в целом наблюдаемое значение F-критерия рассчитывается по формуле:
При проверке основной гипотезы возможны следующие ситуации:
Если наблюдаемое значение F-критерия (вычисленное по выборочным данным) больше критического значения F-критерия (определённого по таблице распределения Фишера-Снедекора), т. е. Fнабл›Fкрит, то с вероятностью а основная гипотеза о незначимости коэффициентов модели регрессии или парного коэффициента детерминации отвергается, и, следовательно, модель регрессии в целом признаётся значимой.
Если наблюдаемое значение F-критерия (вычисленное по выборочным данным) меньше или равно критического значения F-критерия (определённого по таблице распределения Фишера-Снедекора), т. е. Fнабл>Fкрит, то с вероятностью а основная гипотеза о незначимости коэффициентов модели регрессии или парного коэффициента детерминации отвергается, и, следовательно, модель регрессии в целом признаётся значимой.
Если наблюдаемое значение F-критерия (вычисленное по выборочным данным) меньше или равно критического значения F-критерия (определённого по таблице распределения Фишера-Снедекора), т.е. Fнабл<Fкрит, то с вероятностью (1-а) основная гипотеза о незначимости коэффициентов модели регрессии или парного коэффициента детерминации принимается, и, следовательно, модель регрессии в целом признаётся незначимой.
Коэффициент детерминации может быть рассчитан не только как квадрат линейного коэффициента парной корреляции или через теорему о разложении общей дисперсии результативной переменной на составляющие, но и через теорему о разложении сумм квадратов результативной переменной.
Билет 6
1. Особенности исп-ния двухшагового и трехшагового МНК.
Двухшаговый метод наименьших квадратов состоит в том, что оценивают параметры отдельного уравнения системы, а не рассматривают систему в целом. Двухшаговый метод наименьших квадратов (ДМНК) использует следующую центральную идею: на основе приведенной формы модели получают для сверхидентифицируемого уравнения теоретические значения эндогенных переменных, содержащихся в правой части уравнения. Затем они подставляются вместо фактических значений и применяют обычный МНК к структурной форме сверхидентифицируемого уравнения. В свою очередь, сверхидентифицируемая структурная модель может быть двух типов: либо все уравнения системы сверхидентифицируемы, либо же система содержит наряду со сверхидентифицируемыми и точно идентифицируемые уравнения. В первом случае, если все уравнения системы сверхидентифицируемые, для оценки структурных коэффициентов каждого уравнения используется ДМНК. Если в системе есть точно идентифицируемые уравнения, то структурные коэффициенты по ним находятся из системы приведенных уравнений.
Трехшаговый метод наименьших квадратов
трехшаговый метод наименьших квадратов применяется для оценки параметров системы одновременных уравнений в целом. Сначала к каждому уравнению применяется двухшаговый метод с целью оценить коэффициенты и погрешности каждого уравнения, а затем построить оценку для ковариационной матрицы погрешностей, После этого для оценивания коэффициентов всей системы применяется обобщенный метод наименьших квадратов.
2. Мультиколлинеарность фактора при множ. регрессии. К каким трудностям приводит мультиколлинеарность факторов, включенных в модель? Пути преодоления. Проблемы коллинеарности и мультиколлинеарности
Коллинеарность -это Два вектора называются коллинеа́рными, если они лежат на параллельных прямых или на одной прямой. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой, и нельзя оценить воздействие каждого фактора в отдельности. Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов (МНК). Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий:1.затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл;2оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений.
Включение в модель мультиколлинеарных факторов нежелательно по нескольким причинам:
1) основная гипотеза о незначимости коэффициентов множественной регрессии может подтвердиться, но сама модель регрессии при проверке с помощью F-критерия оказывается значимой, что говорит о завышенной величине коэффициента множественной корреляции;
2) полученные оценки коэффициентов модели множественной регрессии могут быть неоправданно завышены или иметь неправильные знаки;
3) добавление или исключение из исходных данных одного-двух наблюдений оказывает сильное влияние на оценки коэффициентов модели;
4) мультиколлинеарные факторы, включённые в модель множественной регрессии, способны сделать её непригодной для дальнейшего применения.
Конкретных методов обнаружения мультиколлинеарности не существует, а принято применять ряд эмпирических приёмов. В большинстве случаев множественный регрессионный анализ начинается с рассмотрения корреляционной матрицы факторных переменных R или матрицы (ХТХ).
К основным способам устранения мультиколлинеарности в модели множественной регрессии относятся:
1) один из наиболее простых способов устранения мультиколлинеарности состоит в получении дополнительных данных. Однако на практике в некоторых случаях реализация данного метода может быть весьма затруднительна;
2) способ преобразования переменных, например, вместо значений всех переменных, участвующих в модели (и результативной в том числе) можно взять их логарифмы:
lny=β0+β1lnx1+β2lnx2+ε.
Однако данный способ также не способен гарантировать полного устранения мультиколлинеарности факторов;
Если рассмотренные способы не помогли устранить мультиколлинеарность факторов, то переходят к использованию смещённых методов оценки неизвестных параметров модели регрессии, или методов исключения переменных из модели множественной регрессии.
Если ни одну из факторных переменных, включённых в модель множественной регрессии, исключить нельзя, то применяют один из основных смещённых методов оценки коэффициентов модели регрессии – гребневую регрессию или ридж (ridge).
3. Нелинейная регрессия относительно включенных переменных, но линейная по параметрам.
Примером нелинейной регрессии по включаемым в нее объясняющим переменным могут служить следующие функции:
1. полиномы разных степеней –у = а +bх + с2 + ε,
у =а + bх +сх +dx3+ ε,
равносторонняя
гипербола
4. Точность модели, средняя ошибка аппроксимации.
Фактическое
значение результативного признака y
отличается от теоретических значений
,
рассчитанных по уравнению регрессии.
Чем меньше это отличие, тем ближе
теоретические значения подходят к
эмпирическим, и лучше качество модели.
Величина
отклонений фактических и расчетных
значений результативного признака
по каждому наблюдению представляет
собой ошибку аппроксимации.
Поскольку может быть как величиной положительной, так и отрицательной, то ошибки аппроксимации для каждого наблюдения принято определять в процентах по модулю.
Отклонения
можно рассматривать как абсолютную
ошибку аппроксимации, а
- как относительную ошибку аппроксимации.
Чтобы
иметь общее суждение о качестве модели
из относительных отклонений по каждому
наблюдению определяют среднюю ошибку
аппроксимации:
Если А<=10-12%, то можно говорить о хорошем качестве модели.
Билет 7
1. Проблема идентификации в системах эконометрических уравнений.
При переходе от приведенной формы модели к структурной эконометрист сталкивается с проблемой идентификации. Идентификация – это единственность соответствия между приведенной и структурной формами модели.
Чтобы получить единственно возможное решение для структурной модели, необходимо предположить, что некоторые из структурных коэффициентов модели ввиду слабой взаимосвязи признаков с эндогенной переменной из левой части системы равны нулю. Тем самым уменьшится число структурных коэффициентов модели. Уменьшение числа структурных коэффициентов модели возможно и другим путем: например, путем приравнивания некоторых коэффициентов друг к другу, т.е. путем предположений, что их воздействие на формируемую эндогенную переменную одинаково.
С позиции идентифицируемости структурные модели можно подразделить на три вида: 1) идентифицируемые; 2) неидентифицируемые; 3) сверхидентифицируемые.
Модель идентифицируема, если все структурные ее коэффициенты определяются однозначно, единственным образом по коэффициентам приведенной формы модели, т. е. если число параметров структурной модели равно числу параметров приведенной формы модели. В этом случае структурные коэффициенты модели оцениваются через параметры приведенной формы модели и модель идентифицируема.
Модель неидентифицируема, если число приведенных коэффициентов меньше числа структурных коэффициентов, и в результате структурные коэффициенты не могут быть оценены через коэффициенты приведенной формы модели.
Модель сверхидентифицируема, если число приведенных коэффициентов больше числа структурных коэффициентов. В этом случае на основе коэффициентов приведенной формы можно получить два или более значений одного структурного коэффициента. В этой модели число структурных коэффициентов меньше числа коэффициентов приведенной формы. Сверхидентифицируемая модель в отличие от неидентифицируемой модели практически решаема, но требует для этого специальных методов исчисления параметров.
Структурная модель всегда представляет собой систему совместных уравнений, каждое из которых требуется проверять на идентификацию.
Если хотя бы одно из уравнений системы неидентифицируемо, то и вся модель считается неидентифицируемой.
Модель считается идентифицируемой, если каждое уравнение системы идентифицируемо. Сверхидентифицируемая модель содержит хотя бы одно сверхидентифицируемое уравнение.
Выполнение условия идентифицируемости модели проверяется для каждого уравнения системы. Если обозначить число эндогенных переменных в i-м уравнении системы через H, а число экзогенных (предопределенных) переменных, которые содержатся в системе, но не входят в данное уравнение, — через D, то необходимое условие идентифицируемости модели может быть записано в виде:
D+1<H уравнение неидентифицируемо
D+1=H уравнение идентифицируемо
D+1>H уравнение сверхидентифицируемо
Для оценки параметров структурной модели система должна быть идентифицируема или сверхидентифицируема.
Более точно условия идентификации определяются, если накладывать ограничения на коэффициенты матриц параметров структурной модели. Уравнение идентифицируемо, если по отсутствующим в нем переменным (эндогенным и экзогенным) можно из коэффициентов при них в других уравнениях системы получить матрицу, определитель которой не равен нулю, а ранг матрицы не меньше, чем число эндогенных переменных в системе без одного.
Целесообразность проверки условия идентификации модели через определитель матрицы коэффициентов, отсутствующих в данном уравнении, но присутствующих в других, объясняется тем, что возможна ситуация, когда для каждого уравнения системы выполнено необходимое условие идентифицируемости модели, а определитель матрицы названных коэффициентов равен нулю. В этом случае соблюдается лишь необходимое, но недостаточное условие идентификации.
В эконометрических моделях часто наряду с уравнениями, параметры которых должны быть статистически оценены, используются балансовые тождества переменных, коэффициенты при которых равны ±1. В этом случае, хотя само тождество и не требует проверки на идентификацию, ибо коэффициенты при переменных в тождестве известны, в проверке на идентификацию собственно структурных уравнений системы тождества участвуют.
2. Как связаны между собой критерий Стьюдента для оценки значимости параметров b и частные F-критерии.
Связь между
F-критерием
Фишера (при
)
и t-критерием
Стьюдента выражается равенством
.
Если t
табл<t
факт, то Но отклоняется, т.е. a,b,
r
не случайно отличаются от нуля и
сформировались под влиянием систематически
действующего фактора х. Если t
табл>t
факт, то гипотеза Но не отклоняется и
признается случайная природа формирования
a,
b,
r.
3.Регрессия нелинейная по оцениваемым параметрам.
Степенная
,
показательная
,
экспоненциальная
.
Более сложной проблемой явл. нелинейность
модели по параметрам, так как
непосредственные переменные метода
наименьших квадратов для их оценивания
невозможно. К числу таких моделей можно
отнести, например, мультипликативную(степенную)
модель.
К нелинейным регрессиям по оцениваемым параметрам относятся функции:
степенная — y = axbε
показательная – у = аbх ε
экспоненциальная – y=ea+bxε
4. Коэффициент детерминации для линейной модели.
Коэффициент детерминации (rxy2) – характеризует долю дисперсии результативного признака y, объясняемую дисперсией, в общей дисперсии результативного признака. Чем ближе rxy2 к 1, тем качественнее регрессионная модель, то есть исходная модель хорошо аппроксимирует исходные данные.
Коэффициент детерминации (R2)— это квадрат множественного коэффициента корреляции. Он показывает, какая доля дисперсии результативного признака объясняется влиянием независимых переменных.
Формула для
вычисления коэффициента детерминации:
где
yi — выборочные данные, а fi — соответствующие
им значения модели.
Иногда показателям тесноты связи можно дать качественную оценку (шкала Чеддока): Количественная мера тесноты связи Качественная характеристика силы связи
0,1 - 0,3 Слабая
0,3 - 0,5 Умеренная
0,5 - 0,7 Заметная
0,7 - 0,9 Высокая
0,9 - 0,99 Весьма высокая
Функциональная связь возникает при значении равном 1, а отсутствие связи — 0. При значениях показателей тесноты связи меньше 0,7 величина коэффициента детерминации всегда будет ниже 50 %. Это означает, что на долю вариации факторных признаков приходится меньшая часть по сравнению с остальными неучтенными в модели факторами, влияющими на изменение результативного показателя. Построенные при таких условиях регрессионные модели имеют низкое практическое значение.
Билет 8
1. Необходимые и достаточные условия идентификации систем уравнений.
Необходимое условие идентификации – выполнение счетного правила:
D+1=H –уравнение идентифицируемо;
D+1<H – уравнение неидентифицируемо;
D+1>H – уравнение сверхидентифицируемо.
Где Н – число эндогенных переменных в уравнении, D – число предопределенных переменных, отсутствующих в уравнении, но присутствующих в системе.
Достаточное условие идентификации- определитель матрицы, составленной из коэффициентов при переменных, отсутствующих в исследуемом уравнении на равен нулю и ранг этой матрицы не менее эндогенных переменных без единицы. Для решения идентифицируемого уравнения применяется КМНК, для решения сверхидентифицируемых - двухшаговый МНК.
2. Скорректированный коэф. множественной регрессии. От чего зависит величина скорректированного индекса множественной регрессии.
Скорректированный
индекс множественной корреляции содержит
поправку на число степеней свободы, а
именно остаточная сумма квадратов
делится на число степеней свободы
остаточной вариации (n-m-1), а общая сумма
квадратов отклонения
- на число степеней свободы в целом по
совокупности
(n-1)
Поскольку
=1-R2,
то
3. МНК для нелинейной регрессии.
Нелинейная регрессия по включенным переменным не таит каких-либо сложностей в оценке ее параметров. Она определяется, как и в линейной регрессии, методом наименьших квадратов (МНК), ибо эти функции линейны по параметрам. Так, в параболе второй степени y=a0+a1x+a2x2+ε заменяя переменные x=x1,x2=x2, получим двухфакторное уравнение линейной регрессии: у=а0+а1х1+а2х2+ ε
Парабола второй
степени целесообразна к применению,
если для определенного интервала
значений фактора меняется характер
связи рассматриваемых признаков: прямая
связь меняется на обратную или обратная
на прямую. В этом случае определяется
значение фактора, при котором достигается
максимальное (или минимальное), значение
результативного признака: приравниваем
к нулю первую производную параболы
второй степени:
, т.е. b+2cx=0 и x=-b/2c
Применение МНК для
оценки параметров параболы второй
степени приводит к следующей системе
нормальных уравнений:
Решение ее возможно методом определителей:
,
,
.
В
моделях, нелинейных по оцениваемым
параметрам, но приводимых к линейному
виду, МНК применяется к преобразованным
уравнениям. Если в линейной модели и
моделях, нелинейных по переменным, при
оценке параметров исходят из критерия
min,
то в моделях, нелинейных по оцениваемым
параметрам, требование МНК применяется
не к исходным данным результативного
признака, а к их преобразованным
величинам, т. е.ln y, 1/y. Так, в степенной
функции
МНК применяется к преобразованному
уравнению lny = lnα + β ln x ln ε. Это значит,
что оценка параметров основывается на
минимизации суммы квадратов отклонений
в логарифмах.
Соответственно если в линейных моделях
,
то в моделях, нелинейных по оцениваемым
параметрам,
. Вследствие этого оценка параметров
оказываются несколько смещенной.