- •1.Метод наименьших квадратов: алгоритм метода; условия применения.
- •2.Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •3. Статистические свойства оценок параметров парной регрессионной модели
- •4. Этапы построения эконометрических моделей.
- •5.Порядок оценивания линейной эконометрической модели из изолированного уравнения в Excel. Смысл выходной статистической информации сервиса Регрессия. (10) стр 41
- •6.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам. (30) стр.24-25,
- •7. Классическая парная регресионная модель. Спецификация модели. Теорема Гаусса-Маркова.
- •8. Метод наименьших квадратов: алгоритм метода, условия применения.
- •9.Идентификация отдельных уравнений системы одновременных уравнений: порядковое условие. (30)
- •Необходимое условие идентифицируемости
- •10.Оценка параметров парной регрессионной модели методом наименьших квадратов. (10)
- •11.Фиктивные переменные: определение, назначение, типы.
- •12.Автокорреляция случайного возмущения. Причины. Последствия.
- •13.Алгоритм проверки значимости регрессора в парной регрессионной модели.
- •14.Интервальная оценка ожидаемого значения зависимой переменной в парной регрессионной модели.
- •15. Тест Чоу на наличие структурных изменений в регрессионной модели. (20) стр. 59,60
- •16. Алгоритм проверки адекватности парной регрессионной модели. (20) стр. 37, 79
- •17. Коэффициент детерминации в парной регрессионной модели.
- •18. Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •20. Гетероскедастичность случайного возмущения. Причины. Последствия. Тест gq(20)
- •21.Фиктивная переменная наклона: назначение; спецификация регрессионной модели с фиктивной переменной наклона; значение параметра при фиктивной переменной. (20) стр.65
- •22..Алгоритм теста Дарбина-Уотсона на наличие (отсутствие) автокорреляции случайных возмущений. (20) стр 33
- •23. Структурная и приведённая формы спецификации эконометрических моделей.
- •24. Гетероскедастичность случайного возмущения. Причины. Последствия. Алгоритм теста Голдфельда-Квандта на наличие или отсутствие гетероскедастичности случайных возмущений.
- •Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •25. Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам.
- •26. Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов
- •27.Проблема мультиколлинеарности в моделях множественной регрессии.Признаки мультиколлениарности.
- •28.Что такое логит,тобит,пробит.
- •29. Что такое Метод наибольшего правдоподобия стр. 62.
- •30. Что такое стационарный процесс?
- •31.Свойства временных рядов.
- •32.Модели ar и var .
- •33. Идентифицируемость системы.
- •34. Настройка модели с системой одновременных уравнений.
- •35.Что такое метод Монте-Карло стр 53
- •36.Оценить качество модели по f, gq, dw (линейнные).Стр.33, 28-29
- •37. Оценка погрешностей параметров эконометрической модели методом Монте-Карло .
- •38. Отражение в модели влияния неучтённых факторов. Предпосылки теоремы Гаусса-Маркова.
- •39.Модели временных рядов. Свойства рядов цен акций на бирже (20) с.93.
- •40. Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение. (20) с.12-21
- •41. Оценка параметров парной регрессионной модели методом наименьших квадратов с использованием сервиса Поиск решения.
- •42. Проверка статистических гипотез, t-статистика Стьюдента, доверительная вероятность и доверительный интервал, критические значения статистики Стьюдента. Что такое “толстые хвосты”?
- •43.Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности
- •44. Частные коэффициенты детерминации.
- •46. Экономический смысл коэффициентов линейного и степенного уравнений регрессии.
- •47.Оценка коэффициентов модели Самуэльсона-Хикса
- •48. Ошибки от включения в модель незначимых переменных или исключения значимых.С.80
- •49. Исследование множественной регрессионной модели с.74-79.
- •50. Мультиколлинеарность: чем плоха, как обнаружить и как бороться.
- •51. Признаки стационарности стохастического процесса. Что такое «Белый шум»? с.100
- •52. Структурная и приведённая формы спецификации эконометрических моделей.
- •53. Алгоритм проверки значимости регрессора в парной регрессионной модели. По t-статистике, по f-статистике.
- •54.Свойства рядов цен на фондовом рынке. Принципы построения портфеля Марковица с.93,102
- •55.Динамическая модель из одновременных линейных уравнений (привести пример) с.105.
- •56. Метод наибольшего правдоподобия: принципы и целесообразность использования
- •57. Этапы исследования модели множественной регрессии с.74-79.
5.Порядок оценивания линейной эконометрической модели из изолированного уравнения в Excel. Смысл выходной статистической информации сервиса Регрессия. (10) стр 41
Ещё больше информации даёт сервис Регрессия из Пакета анализа Excel. Для его запуска надо щелкнуть в Меню Excel 2003 Сервис – Анализ данных – Регрессия. (Если Анализ данных в меню Сервиса не появится, щелкните Надстройки и установите флажок Пакет анализа). В Excel 2007 и 2010 Пакет анализа вызывается в разделе Меню Данные. Если Анализ данных не виден, установить его: Файл – Параметры – Надстройки – Параметры Excel применить – Пакет анализа. Укажите диапазоны ячеек Y и X и на какой лист выводить результаты – на новый или на тот же. В этом случае надо указать достаточно большой диапазон ячеек для вывода. Поставьте флажок Метка, если выделили X и Y с заголовками.
Сервис Регрессия выводит все статистические характеристики модели с соответствующими надписями. Сервис Регрессия может применяться для линейных или линеаризованных моделей.
Стандартные надписи и дополнительные пояснения позволяют быстро разобраться в таблице результатов сервиса Регрессия.
Сервис Регрессия можно применять к линеаризованным моделям, а также считая х в разных степенях в полиноме как самостоятельные экзогенные переменные, то есть сводя полиномиальную модель к модели множественной регрессии.
6.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам. (30) стр.24-25,
Для оценки параметров линейной или линеаризованной модели применяется метод наименьших квадратов (МНК). Суть метода: к реальным данным подбирается функция и её параметры, чтобы разности (отклонения, остатки) между реальными и вычисленными значениями у были минимальны. Но разностей много, поэтому минимизируется сумма квадратов этих разностей:
Рис.Отклонения реальных у от оценённой функции регрессии
Рассмотрим технологию МНК, которая используется ручном вычислении параметров парной линейной регрессии.
Сумма квадратов остатков, зависящая от параметров a и b
где n – количество измерений. Эта функция достигает минимума в точке, где её частные производные по a и по b равны нулю:
an + bx = y ax + bx2 =xy
Это называется система нормальных уравнений. В ней два уравнения и два неизвестных a и b, а коэффициенты получаются суммированием х, у и т.д.
В моделях, нелинейных по параметрам, например степенных или показательных, непосредственное применение МНК для их оценки невозможно, так как необходимым условием применимости МНК является линейность по коэффициентам уравнения регрессии. В данном случае преобразованием, которое приводит уравнение регрессии к линейному виду, является логарифмирование. Логарифмические модели: , где А и β— параметры модели. Прологарифмируем обе части данного уравнения: ln(Y)=ln(A) + β*ln(X) = α+β*ln(X), где α= ln(A) (*). Спецификация, соответствующая (*) называется двойной логарифмической моделью: ln(Y)= α+β*ln(X)+ε, поскольку и эндогенная переменная, и регрессор используются в логарифмической форме. Введем обозначения: . Получаем спецификацию линейной модели, к которой при соответствующем включении случайного возмущения применим МНК.
Нелинейный МНК. В общем случае оценка нелинейных по параметрам уравнений выполняется с помощью так называемого нелинейного метода наименьших квадратов (НМНК).
Обозначим нелинейное по параметрам уравнение регрессии f(X, ß) (X— матрица рсгрсссоров,ß — вектор параметров). Параметры уравнений в данном методе подбираются таким образом, чтобы максимально приблизить кривую f(X, ß) к результатам наблюдений эндогенной переменной Y. Таким образом, здесь, как и в обычном МНК, минимизируется сумма квадратов отклонений:
F=2 (**)
Если продифференцировать F по параметрам и приравнять производные нулю, то получим нелинейную систему нормальных уравнений. В случае линейного уравнения регрессии нормальные уравнения представляли собой систему линейных уравнений, решение которой не составляло труда.
Нелинейный метод наименьших квадратов сводится к задаче минимизации функции (**) нескольких переменных ß=(ß1,…,ßn)