Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
МУ к кнт.раб.ЭКНМТР-БИЭФ-2004.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
465.3 Кб
Скачать

5. Тесты по курсу "Эконометрика"

Сокращения:

МНК – метод наименьших квадратов,

НЗР – нормальный закон распределения,

СВ – случайная величина,

СКО – среднеквадратическое отклонение.

1. Регрессионная зависимость Мх(Y) = f(x) - это:

  1. зависимость, при которой каждому значению переменной Х соответствует определенное условное математическое ожидание (среднее значение) СВ Y;

  2. зависимость между СВ Х и СВ Y;

  3. функциональная зависимость Y от СВ Х;

  4. статистическая зависимость между СВ Х и СВ Y.

2. Поле корреляции - это:

  1. регрессионная зависимость;

  2. функциональная зависимость;

  3. графическое представление статистической зависимости;

  4. графическое представление регрессионной зависимости.

3. Критерий оптимальности метода наименьших квадратов:

  1. минимум отклонений наблюденных значений от теоретических;

  2. максимум отклонений наблюденных значений от теоретических;

  3. минимум отклонений модулей наблюденных значений от теоретических;

  4. минимум квадратов отклонений наблюденных значений от теоретических.

4. Доверительный интервал прогноза тем меньше, чем:

  1. больше выборка;

  2. больше значения результирующей переменной;

  3. больше уровень значимости ;

  4. больше дисперсия возмущений.

5. Несмещенной называется оценка, у которой:

  1. минимальная дисперсия параметра;

  2. максимальное математическое ожидание параметра;

  3. максимальная дисперсия параметра;

  4. математическое ожидание равно оцениваемому параметру.

6. Состоятельной называется оценка, для которой:

  1. математическое ожидание равно оцениваемому параметру;

  2. выполняется закон больших чисел: оценка сходится по вероятности к оцениваемому параметру;

  3. дисперсия минимальна;

  4. дисперсия максимальна.

7. Оценка называется эффективной, если:

  1. ее дисперсия минимальна;

  2. ее математическое ожидание равно нулю;

  3. она несмещенная и имеет минимальную дисперсию;

  4. она несмещенная и удовлетворяет закону больших чисел.

8. Коэффициент b регрессии Y по X показывает:

  1. как влияет Y на Х;

  2. как влияет Х на Y;

  3. на сколько процентов изменится при изменении Х на 1%;

  4. на сколько изменится при изменении Х на 1.

9. Коэффициент корреляции изменяется :

  1. от 4 до 0;

  2. от 0 до 1;

  3. от –1 до +1;

  4. от –1 до 0.

10. Модель yi=o+1xi +i называется классической нормальной, если:

  1. yi есть СВ, а xi - не СВ; M(i)=0; D(i)=2; M(i; j)=0; i – СВ с НЗР;

  2. yi не СВ, а xi - СВ; M(i)=0; D(i)=2; M(i; j)=0; i) – СВ с НЗР;

  3. yi есть СВ, а xi - не СВ; M(i)0; D(i)=2; M(i; j)=0; i) – СВ с НЗР;

  4. yi есть СВ, а xi - не СВ; M(i)=0; D(i)2; M(i; j)=0; i) – СВ с НЗР.

11. Теорема Гаусса-Маркова утверждает, что для классической регрессионной модели:

  1. оценки b0 и b1 наиболее несмещенные;

  2. оценки b0 и b1 наиболее достоверные;

  3. оценки b0 и b1 несмещенные и наиболее достоверные;

  4. оценки b0 и b1 несмещенные и имеют наименьшую дисперсию.

12. Значимость уравнения регрессии означает:

  1. важность решаемой задачи;

  2. факт соответствия математической модели экспериментальным данным;

  3. соответствие уравнения регрессии критерию Фишера;

  4. соответствие уравнения регрессии критерию Стьюдента.

13. Множественный регрессионный анализ изучает модели:

  1. классические нормальные линейные;

  2. с одной объясняющей переменной;

  3. с одной и более объясняющих переменных;

  4. с несколькими объясняющими переменными.

14. Значения коэффициентов уравнения множественной регрессии находятся по формуле:

  1. b=(XX’)-1XY’;

  2. b=(X’X)-1X’Y;

  3. yi=o+1xi;

  4. y=bo+b1x1+b2x2.

15. Коэффициент эластичности показывает:

  1. на сколько изменится Y, если Х увеличится на 1;

  2. на сколько изменится Y, если Х увеличится на 1%;

  3. на сколько процентов изменится Y, если Х увеличится на 1;

  4. на сколько процентов изменится Y, если Х увеличится на 1%.

16. Значимость коэффициента регрессии означает:

  1. его важность для прогноза;

  2. его отличие от 0 c заданной вероятностью;

  3. наличие большого доверительного интервала;

  4. выполнение требования несмещенности.

17. Коэффициент детерминации характеризует:

  1. степень детерминированности переменных;

  2. размах доверительного интервала;

  3. долю вариации зависимой переменной, обусловленную изменчивостью объясняющих переменных;

  4. долю вариации независимой переменной, обусловленную изменчивостью зависимой переменной.

18. Мультиколлинеарность есть:

  1. высокая коррелированность объясняющих переменных с зависимой переменной;

  2. высокая коррелированность объясняющих переменных между собой;

  3. низкая коррелированность объясняющих переменных с зависимой переменной;

  4. низкая коррелированность объясняющих переменных между собой.

19. Признаком линейной регрессионной модели с переменной структурой является:

  1. наличие в уравнении лаговых переменных;

  2. наличие в уравнении качественных переменных;

  3. наличие в уравнении фиктивных переменных;

  4. наличие в уравнении атрибутивных переменных.

20. Критерий Чоу используется для проверки гипотезы о:

  1. высокой мультиколлинеарности объясняющих переменных;

  2. значимости уравнения регрессии по критерию Фишера;

  3. возможности объединить две регрессионные модели в одну с объемом n=n1+n2;

  4. целесообразности включения очередного фактора в модель.

21. Модель регрессии нелинейна, если:

  1. она включает в себя нелинейные функции от результирующих переменных;

  2. она включает в себя нелинейные функции от объясняющих переменных и/или от параметров;

  3. она включает в себя линейные функции от параметров модели;

  4. линейная модель незначима.

22. Производственная функция Кобба-Дугласа имеет вид:

  1. Y=AKLM;

  2. Y=AKLM;

  3. Y=AKL;

  4. Y=AKLM.

23. Выборочный частный коэффициент корреляции измеряет:

  1. тесноту связи между двумя и более переменными;

  2. степень влияния одной из переменных на остаточную дисперсию регрессии;

  3. тесноту связи между парой объясняющих переменных;

  4. тесноту связи между парой переменных при элиминировании влияния других переменных.

24. Полный набор возможных компонент временного ряда:

  1. нестационарная, трендовая и случайная;

  2. стационарная, трендовая, сезонная и случайная;

  3. трендовая, сезонная, циклическая и случайная;

  4. нестационарная, сезонная, циклическая и случайная.

25. Временной ряд называется стационарным (в широком смысле), если:

  1. он не содержит случайной составляющей;

  2. он не содержит циклической и случайной составляющих;

  3. уровень ряда равномерно меняется во времени;

  4. математическое ожидание и СКО не меняются во времени.

26. Коэффициент автокорреляции r (=1) есть:

  1. обычный парный коэффициент корреляции между смежными значениями уровня ряда;

  2. парный коэффициент корреляции между смежными значениями уровней двух рядов;

  3. парный коэффициент корреляции между смежными объясняющими переменными;

  4. обычный парный коэффициент корреляции между объясняющей и результирующей переменными.

27. Автокорреляционная функция является:

  1. пространственной выборкой;

  2. временным рядом;

  3. нелинейной функцией;

  4. линейной функцией.

28. Авторегрессионная модель р-го порядка – это:

  1. нелинейная регрессионная модель с нулевой автокорреляционной функцией и с р объясняющими переменными: х1, х2 …хр;

  2. линейная регрессионная модель с нулевой автокорреляционной функцией;

  3. нелинейная регрессионная модель с ненулевой автокорреляционной функцией;

  4. линейная или нелинейная регрессионная модель с р лаговыми объясняющими переменными: у1, у2 …ур.

29. У ковариационной матрицы nxn возмущений =М(’) классической нормальной множественной регрессии:

  1. ковариации M(ij) и дисперсии M(ii) могут быть произвольными;

  2. ковариации M(ij) и дисперсии M(ii) равны между собой соответственно;

  3. ковариации M(ij) и дисперсии M(ii) равны одной и той же величине;

  4. ковариации M(ij)=0, а дисперсии M(ii) равны между собой.

30. У ковариационной матрицы nxn возмущений =М(’) обобщенной множественной регрессии:

  1. ковариации M(ij) и дисперсии M(ii) могут быть произвольными;

  2. ковариации M(ij) и дисперсии M(ii) равны между собой соответственно;

  3. ковариации M(ij) и дисперсии M(ii) равны одной и той же величине;

  4. ковариации M(ij)=0, а дисперсии M(ii) равны между собой.

31. Обобщенная модель отличается от классической только тем, что:

  1. она нелинейна;

  2. она содержит более одной объясняющей переменной;

  3. ковариации и дисперсии объясняющих переменных могут быть произвольными;

  4. ковариации объясняющих переменных должны быть нулевыми, а дисперсии – равными между собой.

32. Обычный метод наименьших квадратов в обобщенной линейной регрессионной модели дает оценку для вектора b:

  1. смещенную;

  2. несостоятельную;

  3. смещенную и несостоятельную;

  4. неэффективную.

33. Обычный метод наименьших квадратов в обобщенной линейной регрессионной модели дает оценку для ковариационной матрицы b вектора b:

  1. смещенную;

  2. несостоятельную;

  3. смещенную и несостоятельную;

  4. неэффективную.

34. Гетероскедастичность есть:

  1. равенство между собой дисперсий возмущений (ошибок) регрессии;

  2. нарушение равенства между собой всех дисперсий возмущений (ошибок) регрессии;

  3. неизменность во времени математического ожидания временного ряда;

  4. наличие в регрессионной модели более одной объясняющей переменной.

35. Гомоскедастичность есть:

  1. равенство между собой дисперсий возмущений (ошибок) регрессии;

  2. нарушение равенства между собой дисперсий возмущений (ошибок) регрессии;

  3. неизменность во времени математического ожидания временного ряда;

  4. наличие в регрессионной модели более одной объясняющей переменной.

36. Степень гетероскедастичности по тесту Спирмена оценивается по коэффициенту ранговой корреляции между значениями:

  1. остатков еi и значениями регрессора хi;

  2. регрессоров хi и хj;

  3. остатков еi и значениями результирующего фактора уi;

  4. регрессора хi и значениями результирующего фактора уi.

37. Степень гетероскедастичности по тесту Уайта оценивается по значению статистики Фишера при проверке на значимость:

  1. коэффициента регрессии b1;

  2. коэффициентов регрессии b0 и b1;

  3. уравнения регрессии для модели: ei2=f(xi)+ui;

  4. дисперсии остатков 2.

38. Устранение гетероскедастичности взвешенным методом наименьших квадратов состоит в применении критерия:

  1. S=( i-yi)2 /i2. min;

  2. S=( i-yi)2 . min;

  3. S=( i-yi)2 /i. min;

  4. S=( i-yi)2 /2. min.

39. Тест Дарбина-Уотсона определяет, существует ли автокорреляция:

  1. между объясняющими переменными;

  2. между смежными парами значений объясняющей переменной;

  3. между результирующей и одной из объясняющих переменных;

  4. между смежными парами ошибок регрессии.

40. Идентификацией временного ряда с целью устранения автокорреляции называется:

  1. определение наличия или отсутствия мультиколлинеарности факторов х1 и х2 временного ряда;

  2. построение для ряда остатков регрессии-1 такой регрессии-2, что остатки-2 суть белый шум, а все регрессоры-2 значимы;

  3. проверка на значимость корреляции между соседними наблюдениями фактора временного ряда;

  4. подбор подходящей функции регрессии.

41. Регрессионной динамической моделью называется регрессия, у которой:

  1. каждый регрессор образует временной ряд;

  2. каждый регрессор образует стационарный временной ряд;

  3. каждый регрессор является случайной величиной;

  4. не один, а несколько регрессоров.

42. Метод инструментальных переменных состоит в том, чтобы:

  1. отразить в регрессии атрибутивные факторы;

  2. ввести в регрессию лаговые переменные;

  3. подобрать новые переменные, которые бы не коррелировали с прежними, но коррелировали бы с ошибкой ;

  4. подобрать новые переменные, которые бы тесно коррелировали с прежними и не коррелировали бы с ошибкой .

43. Авторегрессионной моделью с распределенными лагами порядков р=1 и q=1 называется модель вида:

  1. yt=+0xt+1xt-1+1yt-1;

  2. yt=+0xt+1xt-1+1yt-1+t;

  3. t=+0xt+1xt-1+1yt-1+t;

  4. yt=+0xt+1xt-1+0+ 1yt-1+t.

44. Оценивание модели с распределенными лагами порядка (0;1) yt=+xt+yt-1+t обычным МНК корректно при условии:

  1. выборок большого объема;

  2. выборок небольшого объема;

  3. : коэффициент  авторегрессионного уравнения t=t-1+t много меньше коэффициента авторегрессии ;

  4. >>: коэффициент  авторегрессионного уравнения t=t-1+t много больше коэффициента авторегрессии .

45. Эндогенные и экзогенные переменные формируются как:

  1. объясняющие и результирующие переменные соответственно;

  2. внутренние и внешние переменные соответственно;

  3. результирующие и лаговые переменные соответственно;

  4. объясняющие и лаговые переменные соответственно.

46. В системах одновременных уравнений в качестве объясняемых переменных выступают:

  1. объясняющие переменные;

  2. лаговые переменные;

  3. фиктивные переменные;

  4. инструментальные переменные.

47. Модель спроса и предложения как система одновременных уравнений имеет вид:

  1. Qd=1+2P+3I+1; Qs=4+5P+2; Qd Qs;

  2. Qd=1+2P+3I+1; Qs=4+5P+2;

  3. Qs=4+5P+2; Qd=1+2P+3I+1;

  4. Qd=1+2P+3I+1; Qs=4+5P+2; Qd =Qs.

48. Главное отличие между экзогенными и эндогенными переменными с математической точки зрения:

  1. между экзогенными в отличие от эндогенных практически отсутствует корреляция;

  2. между эндогенными в отличие от экзогенных практически отсутствует корреляция;

  3. эндогенные не коррелируют с ошибками регрессии, а экзогенные – коррелируют;

  4. экзогенные не коррелируют с ошибками регрессии, а эндогенные – коррелируют.

49. Косвенный метод наименьших квадратов состоит в:

  1. разделении ролей между переменными и применении обычного МНК;

  2. в предварительном дифференцировании уравнений и применении обычного МНК;

  3. разрешении уравнений относительно эндогенных переменных и применении обычного МНК;

  4. разрешении уравнений относительно экзогенных переменных и применении обычного МНК.

50. Параметры приведенной формы системы уравнений оцениваются:

  1. косвенным МНК;

  2. обычным МНК;

  3. обобщенным МНК;

  4. двухшаговым МНК.