- •Методические указания и задания по выполнению
- •Калининград, 2004 Содержание
- •Варианты и номера теоретических вопросов
- •2. Перечень теоретических вопросов к контрольной работе
- •3. Задачи к контрольной работе Задача №1. Линейная парная регрессия
- •Задача №2. Множественный регрессионный анализ
- •Задача №3. Временные ряды и прогнозирование
- •Исходные данные для задач 1, 2, 3
- •Исходные дополнительные данные для задачи 2
- •4. Примеры решения задач Задача №1
- •Задача №2
- •Задача №3
- •5. Тесты по курсу "Эконометрика"
- •6. Рекомендуемая литература
- •Редактор э.С. Круглова
5. Тесты по курсу "Эконометрика"
Сокращения:
МНК – метод наименьших квадратов,
НЗР – нормальный закон распределения,
СВ – случайная величина,
СКО – среднеквадратическое отклонение.
1. Регрессионная зависимость Мх(Y) = f(x) - это:
зависимость, при которой каждому значению переменной Х соответствует определенное условное математическое ожидание (среднее значение) СВ Y;
зависимость между СВ Х и СВ Y;
функциональная зависимость Y от СВ Х;
статистическая зависимость между СВ Х и СВ Y.
2. Поле корреляции - это:
регрессионная зависимость;
функциональная зависимость;
графическое представление статистической зависимости;
графическое представление регрессионной зависимости.
3. Критерий оптимальности метода наименьших квадратов:
минимум отклонений наблюденных значений от теоретических;
максимум отклонений наблюденных значений от теоретических;
минимум отклонений модулей наблюденных значений от теоретических;
минимум квадратов отклонений наблюденных значений от теоретических.
4. Доверительный интервал прогноза тем меньше, чем:
больше выборка;
больше значения результирующей переменной;
больше уровень значимости ;
больше дисперсия возмущений.
5. Несмещенной называется оценка, у которой:
минимальная дисперсия параметра;
максимальное математическое ожидание параметра;
максимальная дисперсия параметра;
математическое ожидание равно оцениваемому параметру.
6. Состоятельной называется оценка, для которой:
математическое ожидание равно оцениваемому параметру;
выполняется закон больших чисел: оценка сходится по вероятности к оцениваемому параметру;
дисперсия минимальна;
дисперсия максимальна.
7. Оценка называется эффективной, если:
ее дисперсия минимальна;
ее математическое ожидание равно нулю;
она несмещенная и имеет минимальную дисперсию;
она несмещенная и удовлетворяет закону больших чисел.
8. Коэффициент b регрессии Y по X показывает:
как влияет Y на Х;
как влияет Х на Y;
на сколько процентов изменится при изменении Х на 1%;
на сколько изменится при изменении Х на 1.
9. Коэффициент корреляции изменяется :
от 4 до 0;
от 0 до 1;
от –1 до +1;
от –1 до 0.
10. Модель yi=o+1xi +i называется классической нормальной, если:
yi есть СВ, а xi - не СВ; M(i)=0; D(i)=2; M(i; j)=0; i – СВ с НЗР;
yi не СВ, а xi - СВ; M(i)=0; D(i)=2; M(i; j)=0; i) – СВ с НЗР;
yi есть СВ, а xi - не СВ; M(i)0; D(i)=2; M(i; j)=0; i) – СВ с НЗР;
yi есть СВ, а xi - не СВ; M(i)=0; D(i)2; M(i; j)=0; i) – СВ с НЗР.
11. Теорема Гаусса-Маркова утверждает, что для классической регрессионной модели:
оценки b0 и b1 наиболее несмещенные;
оценки b0 и b1 наиболее достоверные;
оценки b0 и b1 несмещенные и наиболее достоверные;
оценки b0 и b1 несмещенные и имеют наименьшую дисперсию.
12. Значимость уравнения регрессии означает:
важность решаемой задачи;
факт соответствия математической модели экспериментальным данным;
соответствие уравнения регрессии критерию Фишера;
соответствие уравнения регрессии критерию Стьюдента.
13. Множественный регрессионный анализ изучает модели:
классические нормальные линейные;
с одной объясняющей переменной;
с одной и более объясняющих переменных;
с несколькими объясняющими переменными.
14. Значения коэффициентов уравнения множественной регрессии находятся по формуле:
b=(XX’)-1XY’;
b=(X’X)-1X’Y;
yi=o+1xi;
y=bo+b1x1+b2x2.
15. Коэффициент эластичности показывает:
на сколько изменится Y, если Х увеличится на 1;
на сколько изменится Y, если Х увеличится на 1%;
на сколько процентов изменится Y, если Х увеличится на 1;
на сколько процентов изменится Y, если Х увеличится на 1%.
16. Значимость коэффициента регрессии означает:
его важность для прогноза;
его отличие от 0 c заданной вероятностью;
наличие большого доверительного интервала;
выполнение требования несмещенности.
17. Коэффициент детерминации характеризует:
степень детерминированности переменных;
размах доверительного интервала;
долю вариации зависимой переменной, обусловленную изменчивостью объясняющих переменных;
долю вариации независимой переменной, обусловленную изменчивостью зависимой переменной.
18. Мультиколлинеарность есть:
высокая коррелированность объясняющих переменных с зависимой переменной;
высокая коррелированность объясняющих переменных между собой;
низкая коррелированность объясняющих переменных с зависимой переменной;
низкая коррелированность объясняющих переменных между собой.
19. Признаком линейной регрессионной модели с переменной структурой является:
наличие в уравнении лаговых переменных;
наличие в уравнении качественных переменных;
наличие в уравнении фиктивных переменных;
наличие в уравнении атрибутивных переменных.
20. Критерий Чоу используется для проверки гипотезы о:
высокой мультиколлинеарности объясняющих переменных;
значимости уравнения регрессии по критерию Фишера;
возможности объединить две регрессионные модели в одну с объемом n=n1+n2;
целесообразности включения очередного фактора в модель.
21. Модель регрессии нелинейна, если:
она включает в себя нелинейные функции от результирующих переменных;
она включает в себя нелинейные функции от объясняющих переменных и/или от параметров;
она включает в себя линейные функции от параметров модели;
линейная модель незначима.
22. Производственная функция Кобба-Дугласа имеет вид:
Y=AKLM;
Y=AKLM;
Y=AKL;
Y=AKLM.
23. Выборочный частный коэффициент корреляции измеряет:
тесноту связи между двумя и более переменными;
степень влияния одной из переменных на остаточную дисперсию регрессии;
тесноту связи между парой объясняющих переменных;
тесноту связи между парой переменных при элиминировании влияния других переменных.
24. Полный набор возможных компонент временного ряда:
нестационарная, трендовая и случайная;
стационарная, трендовая, сезонная и случайная;
трендовая, сезонная, циклическая и случайная;
нестационарная, сезонная, циклическая и случайная.
25. Временной ряд называется стационарным (в широком смысле), если:
он не содержит случайной составляющей;
он не содержит циклической и случайной составляющих;
уровень ряда равномерно меняется во времени;
математическое ожидание и СКО не меняются во времени.
26. Коэффициент автокорреляции r (=1) есть:
обычный парный коэффициент корреляции между смежными значениями уровня ряда;
парный коэффициент корреляции между смежными значениями уровней двух рядов;
парный коэффициент корреляции между смежными объясняющими переменными;
обычный парный коэффициент корреляции между объясняющей и результирующей переменными.
27. Автокорреляционная функция является:
пространственной выборкой;
временным рядом;
нелинейной функцией;
линейной функцией.
28. Авторегрессионная модель р-го порядка – это:
нелинейная регрессионная модель с нулевой автокорреляционной функцией и с р объясняющими переменными: х1, х2 …хр;
линейная регрессионная модель с нулевой автокорреляционной функцией;
нелинейная регрессионная модель с ненулевой автокорреляционной функцией;
линейная или нелинейная регрессионная модель с р лаговыми объясняющими переменными: у1, у2 …ур.
29. У ковариационной матрицы nxn возмущений =М(’) классической нормальной множественной регрессии:
ковариации M(ij) и дисперсии M(ii) могут быть произвольными;
ковариации M(ij) и дисперсии M(ii) равны между собой соответственно;
ковариации M(ij) и дисперсии M(ii) равны одной и той же величине;
ковариации M(ij)=0, а дисперсии M(ii) равны между собой.
30. У ковариационной матрицы nxn возмущений =М(’) обобщенной множественной регрессии:
ковариации M(ij) и дисперсии M(ii) могут быть произвольными;
ковариации M(ij) и дисперсии M(ii) равны между собой соответственно;
ковариации M(ij) и дисперсии M(ii) равны одной и той же величине;
ковариации M(ij)=0, а дисперсии M(ii) равны между собой.
31. Обобщенная модель отличается от классической только тем, что:
она нелинейна;
она содержит более одной объясняющей переменной;
ковариации и дисперсии объясняющих переменных могут быть произвольными;
ковариации объясняющих переменных должны быть нулевыми, а дисперсии – равными между собой.
32. Обычный метод наименьших квадратов в обобщенной линейной регрессионной модели дает оценку для вектора b:
смещенную;
несостоятельную;
смещенную и несостоятельную;
неэффективную.
33. Обычный метод наименьших квадратов в обобщенной линейной регрессионной модели дает оценку для ковариационной матрицы b вектора b:
смещенную;
несостоятельную;
смещенную и несостоятельную;
неэффективную.
34. Гетероскедастичность есть:
равенство между собой дисперсий возмущений (ошибок) регрессии;
нарушение равенства между собой всех дисперсий возмущений (ошибок) регрессии;
неизменность во времени математического ожидания временного ряда;
наличие в регрессионной модели более одной объясняющей переменной.
35. Гомоскедастичность есть:
равенство между собой дисперсий возмущений (ошибок) регрессии;
нарушение равенства между собой дисперсий возмущений (ошибок) регрессии;
неизменность во времени математического ожидания временного ряда;
наличие в регрессионной модели более одной объясняющей переменной.
36. Степень гетероскедастичности по тесту Спирмена оценивается по коэффициенту ранговой корреляции между значениями:
остатков еi и значениями регрессора хi;
регрессоров хi и хj;
остатков еi и значениями результирующего фактора уi;
регрессора хi и значениями результирующего фактора уi.
37. Степень гетероскедастичности по тесту Уайта оценивается по значению статистики Фишера при проверке на значимость:
коэффициента регрессии b1;
коэффициентов регрессии b0 и b1;
уравнения регрессии для модели: ei2=f(xi)+ui;
дисперсии остатков 2.
38. Устранение гетероскедастичности взвешенным методом наименьших квадратов состоит в применении критерия:
S=( i-yi)2 /i2. min;
S=( i-yi)2 . min;
S=( i-yi)2 /i. min;
S=( i-yi)2 /2. min.
39. Тест Дарбина-Уотсона определяет, существует ли автокорреляция:
между объясняющими переменными;
между смежными парами значений объясняющей переменной;
между результирующей и одной из объясняющих переменных;
между смежными парами ошибок регрессии.
40. Идентификацией временного ряда с целью устранения автокорреляции называется:
определение наличия или отсутствия мультиколлинеарности факторов х1 и х2 временного ряда;
построение для ряда остатков регрессии-1 такой регрессии-2, что остатки-2 суть белый шум, а все регрессоры-2 значимы;
проверка на значимость корреляции между соседними наблюдениями фактора временного ряда;
подбор подходящей функции регрессии.
41. Регрессионной динамической моделью называется регрессия, у которой:
каждый регрессор образует временной ряд;
каждый регрессор образует стационарный временной ряд;
каждый регрессор является случайной величиной;
не один, а несколько регрессоров.
42. Метод инструментальных переменных состоит в том, чтобы:
отразить в регрессии атрибутивные факторы;
ввести в регрессию лаговые переменные;
подобрать новые переменные, которые бы не коррелировали с прежними, но коррелировали бы с ошибкой ;
подобрать новые переменные, которые бы тесно коррелировали с прежними и не коррелировали бы с ошибкой .
43. Авторегрессионной моделью с распределенными лагами порядков р=1 и q=1 называется модель вида:
yt=+0xt+1xt-1+1yt-1;
yt=+0xt+1xt-1+1yt-1+t;
t=+0xt+1xt-1+1yt-1+t;
yt=+0xt+1xt-1+0+ 1yt-1+t.
44. Оценивание модели с распределенными лагами порядка (0;1) yt=+xt+yt-1+t обычным МНК корректно при условии:
выборок большого объема;
выборок небольшого объема;
: коэффициент авторегрессионного уравнения t=t-1+t много меньше коэффициента авторегрессии ;
>>: коэффициент авторегрессионного уравнения t=t-1+t много больше коэффициента авторегрессии .
45. Эндогенные и экзогенные переменные формируются как:
объясняющие и результирующие переменные соответственно;
внутренние и внешние переменные соответственно;
результирующие и лаговые переменные соответственно;
объясняющие и лаговые переменные соответственно.
46. В системах одновременных уравнений в качестве объясняемых переменных выступают:
объясняющие переменные;
лаговые переменные;
фиктивные переменные;
инструментальные переменные.
47. Модель спроса и предложения как система одновременных уравнений имеет вид:
Qd=1+2P+3I+1; Qs=4+5P+2; Qd Qs;
Qd=1+2P+3I+1; Qs=4+5P+2;
Qs=4+5P+2; Qd=1+2P+3I+1;
Qd=1+2P+3I+1; Qs=4+5P+2; Qd =Qs.
48. Главное отличие между экзогенными и эндогенными переменными с математической точки зрения:
между экзогенными в отличие от эндогенных практически отсутствует корреляция;
между эндогенными в отличие от экзогенных практически отсутствует корреляция;
эндогенные не коррелируют с ошибками регрессии, а экзогенные – коррелируют;
экзогенные не коррелируют с ошибками регрессии, а эндогенные – коррелируют.
49. Косвенный метод наименьших квадратов состоит в:
разделении ролей между переменными и применении обычного МНК;
в предварительном дифференцировании уравнений и применении обычного МНК;
разрешении уравнений относительно эндогенных переменных и применении обычного МНК;
разрешении уравнений относительно экзогенных переменных и применении обычного МНК.
50. Параметры приведенной формы системы уравнений оцениваются:
косвенным МНК;
обычным МНК;
обобщенным МНК;
двухшаговым МНК.
