- •Парная линейная регрессия. Взаимосвязи экономических переменных.
- •Суть регрессионного анализа.
- •Классическая линейная регрессионная модель.
- •Предпосылки метода наименьших квадратов.
- •Анализ точности определения оценок коэффициентов регрессии.
- •Проверка гипотез относительно коэффициентов линейного уравнения регрессии.
- •Интервальные оценки коэффициентов линейного уравнения регрессии.
- •Доверительные интервалы для зависимой переменной в уравнении регрессии.
- •Проверка общего качества уравнения регрессии. Коэффициент детерминации r2.
- •Множественная линейная регрессия. Определение параметров уравнения регрессии.
- •Расчет коэффициентов уравнения множественной линейной регрессии.
- •Множественная линейная регрессия. Дисперсии и стандартные ошибки коэффициентов. Коэффициенты r2 и ṝ2.
- •Множественная линейная модель. Методы определения мультиколлинеарности.
- •Множественная линейная модель. Методы уменьшения мультиколлинеарности.
- •25.Методы сглаживания временного ряда.
- •26. Анализ аддитивной составляющей временного ряда.
- •27.Анализ мультипликативной составляющей временного ряда.
- •28.Суть и причины автокорреляции.
- •29.Последствия автокорреляции.
- •30.Обнаружение автокорреляции.
- •31.Методы устранения автокорреляции.
- •32.Фиктивные переменные в уравнении регрессии.
- •33. Фиктивные переменные сдвига. Пример.
- •34. Фиктивные переменные наклона. Пример.
- •35. Какие существуют способы построения одновременных систем уравнений? Чем они отличаются друг от друга?
- •36. Как связаны друг с другом структурная и приведенная формы модели?
- •37. В чем состоит проблема идентификации модели?
- •38. Необходимое и достаточное условия идентификации модели.
- •39. В чем суть косвенного метода наименьших квадратов?
- •40. Каково содержание двухшагового метода наименьших квадратов?
- •41. Временные ряды. Основные составляющие временного ряда.
- •42. Методы сглаживания временного ряда.
- •43. Классическая линейная регрессионная модель.
- •44. Анализ аддитивной составляющей временного ряда.
- •45. Анализ мультипликативной составляющей временного ряда. (из 44)
- •46. Последствия автокорреляции в регрессионных моделях.
- •47. Анализ точности определения оценок коэффициентов регрессии.
- •48. Суть и причины автокорреляции.
- •Обнаружение автокорреляции в регрессионных моделях.
- •Доверительные интервалы для зависимой переменной в уравнении парной линейной регрессии. (15 баллов)
- •Методы устранения автокорреляции в регрессионных моделях. (15 баллов)
- •Проверка общего качества уравнения регрессии. (15 баллов)
- •Фиктивные переменные в уравнении регрессии. (15 баллов)
- •Множественная линейная регрессия. Определение параметров уравнения регрессии. (15 баллов)
- •Фиктивные переменные сдвига в уравнении регрессии. Пример. (15 баллов)
- •Расчет коэффициентов уравнения множественной линейной регрессии. Система нормальных уравнений. (15 баллов)
- •57. Фиктивные переменные наклона в уравнении регрессии. Пример
- •59. Множественная линейная регрессия. Дисперсия и стандартные ошибки коэффициентов.
- •60. Как связаны друг с другом структурная и приведенная формы модели линейных одновременных уравнений?
- •61. Множественная линейная регрессия. Предпосылки метода наименьших квадратов.
- •62. В чем состоит проблема идентификации модели линейных одновременных уравнений?
- •Множественная линейная регрессия. Методы определения мультиколлинеарности.
- •Достаточное условие идентификации модели линейных одновременных уравнений.
- •В чем суть косвенного метода наименьших квадратов? (15 баллов)
- •Каково содержание двухшагового метода наименьших квадратов? (15 баллов)
- •Понятие о главных компонентах. Цель их использования. (15 баллов)
- •Парная линейная регрессия. Взаимосвязи экономических переменных. (15 баллов)
- •Суть регрессионного анализа. (15 баллов)
- •72. Классическая линейная регрессионная модель.
- •73. Предпосылки метода наименьших квадратов.
- •74. Временные ряды. Основные составляющие временного ряда.
- •75. Проверка гипотез относительно значимости коэффициентов линейного уравнения регрессии.
- •76. Интервальные оценки коэффициентов линейного уравнения регрессии.
- •77. Анализ аддитивной составляющей временного ряда.
- •78. Доверительные интервалы для зависимой переменной в уравнении парной линейной регрессии.
- •79. Проверка общего качества уравнения регрессии.
- •80. Суть и причины автокорреляции.
- •81. Множественная линейная регрессия. Определение параметров уравнения регрессии.
- •82. Расчет коэффициентов уравнения множественной линейной регрессии. Система нормальных уравнений
- •83. Множественная линейная регрессия. Коэффициенты r2 и ṝ2
- •84. Методы устранения автокорреляции в регрессионных моделях.
- •85. Множественная линейная регрессия. Дисперсии и стандартные ошибки коэффициентов
- •86. Какие существуют способы построения систем линейных одновременных уравнений? Чем они отличаются друг от друга
- •87. Множественная линейная регрессия. Методы уменьшения мультиколлинеарности
Доверительные интервалы для зависимой переменной в уравнении регрессии.
Базовой предпосылкой МНК является предположение о нормальном распределении отклонений 𝜀𝑖 с нулевым математическим ожиданием и постоянной дисперсией , которое является теоретически и практически обоснованным: 𝜀𝑖~𝑁(0; ).
Согласно модельному уравнению линейной парной регрессии 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 , коэффициенты 𝑏0 и 𝑏1 через 𝑦𝑖 являются линейными комбинациями 𝜀𝑖 . Следовательно, 𝑏0 и 𝑏1 также имеют нормальное распределение: 𝑏1~𝑁(𝛽1 ; 𝑆𝑏1 2 ), 𝑏0~𝑁(𝛽0 ; 𝑆𝑏0 2 ).
Тогда
случайные величины
и 𝑡𝑏0
=
имеют распределение Стьюдента с числом
степеней свободы 𝜈
= 𝑛
− 2. По заданной доверительной вероятности
γ можно найти интервал:
−𝑡кр < 𝑡 < 𝑡кр или 𝑡 < 𝑡кр внутри которого находятся значения 𝑡 с вероятностью γ: 𝑃(|𝑡| < 𝑡кр) = 𝛾.
Критическое
значение 𝑡кр
при доверительной вероятности 𝛾
= 1 − 𝛼
находятся по таблицам двусторонних
квантилей распределения Стьюдента
=
.
Таким
образом: 𝑃(−𝑡кр
<
< 𝑡кр)
= 𝛾,
𝑃(−𝑡кр
<
<
𝑡кр)
= 𝛾
Доверительные интервалы для коэффициентов парной линейной регрессии с доверительной вероятностью 𝛾 = 1 − 𝛼 имеют вид:
𝑏1
−
< 𝛽1
< 𝑏1
+
,
𝑏0
−
< 𝛽0
< 𝑏0
+
.
Проверка общего качества уравнения регрессии. Коэффициент детерминации r2.
Коэффициент
детерминации
(R2)—
это доля дисперсии
отклонений зависимой переменной от её
среднего
значения,
объясняемая рассматриваемой моделью
связи.
Модель связи обычно задается как явная
функция от объясняющих переменных.
Коэффициент
детерминации является случайной
переменной. Он характеризует долю
результативного признака у,
объясняемую регрессией, в общей дисперсии
результативного признака:
0≤ R2≤1.
причем если R2=
1 то переменная yt
полностью объясняется регрессором xt.
В множественной регрессионной модели
добавление дополнительных регрессоров
увеличивает значение коэффициента
детерминации, поэтому его корректируют
с учетом числа независимых переменных:
Множественная линейная регрессия. Определение параметров уравнения регрессии.
Обычно на любой экономический показатель влияет не один, а несколько факторов. Например, спрос на некоторый товар определяется не только его ценой, но и ценами на замещающие и дополняющие товары, доходом потребителей и другими факторами. В этом случае вместо функции парной регрессии 𝑀(𝑌|𝑋 = 𝑥) = 𝑓(𝑥) рассматривается функция множественной регрессии: 𝑀(𝑌|𝑋1 = 𝑥1 ; 𝑋2 = 𝑥2 ; … ; 𝑋𝑚 = 𝑥𝑚 ) = 𝑓(𝑥1 ; 𝑥2 ; … ; 𝑥𝑚 ).
Теоретическая модель множественной линейной регрессии имеет вид: 𝑌 = 𝛽0 + 𝛽1𝑋1 + 𝛽2𝑋2 + ⋯ + 𝛽𝑚 𝑋𝑚 + 𝜀 (5.2) или для индивидуальных наблюдений: 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑚 𝑥𝑖𝑚 + 𝜀, (5.3) 𝑖 = 1, 2, … 𝑁, где N – объем генеральной совокупности.
После выбора в качестве модели линейной функции множественной регрессии необходимо оценить коэффициенты регрессии.
Пусть имеется n наблюдений вектора объясняющих переменных 𝑋 = (𝑋1 ; 𝑋2 ; . . 𝑋𝑚 ) и зависимой переменной Y: (𝑥𝑖1 ; 𝑥𝑖2 ; … ; 𝑥𝑖𝑚 ; 𝑦𝑖 ), 𝑖 = 1, 2, … , 𝑛. Если 𝑛 = 𝑚 + 1, то оценки коэффициентов рассчитываются единственным образом. Здесь 𝑚 – число объясняющих переменных. Если 𝑛 < 𝑚 + 1, то система будет иметь бесконечное множество решений. Если 𝑛 > 𝑚 + 1, то нельзя подобрать линейную функцию, точно удовлетворяющую всем наблюдениям, и возникает необходимость оптимизации, т.е. нахождения оценок параметров модели, при которых линейная функция дает наилучшее приближение для имеющихся наблюдений.
Самым распространенным методом оценки параметров модели множественной линейной регрессии является метод наименьших квадратов (МНК). Для применения МНК необходима выполнимость ряда предпосылок, которые позволят проводить анализ в рамках классической линейной модели множественной регрессии (КЛММР).
Предпосылки МНК
1) Математическое ожидание случайных отклонений 𝜀𝑖 равно нулю: 𝑀 𝜀𝑖 = 0 для всех наблюдений. Это означает, что случайное отклонение не должно иметь систематического смещения.
2) Дисперсия случайных отклонений постоянна для всех наблюдений: 𝐷 𝜀𝑖 = 𝑀 𝜀𝑖 2 = 𝜎 2 , 𝑖 = 1, 2, … , 𝑛. Выполнимость данной предпосылки называется гомоскедастичностью, а невыполнимость ее называется гетероскедастичнстью.
3) Случайные отклонения 𝜀𝑖 и 𝜀𝑗 ( i ≠ j ) не коррелируют (отсутствует автокорреляция ): 𝑀 𝜀𝑖 , 𝜀𝑗 = 0, 𝑖 ≠ 𝑗 .
4) Случайные отклонения должны быть статистически независимы (некоррелированы) от объясняющих переменных.
5) Отсутствие мультиколлинеарности. Между объясняющими переменными отсутствует строгая (сильная) линейная зависимость.
6) Отклонения 𝜀𝑖 , 𝑖 = 1, 2, … , 𝑛 имеют нормальные распределения 𝜀𝑖 ≅ 𝑁(0; 𝜎 2 )Выполнимость данной предпосылки важна для проверки статистических гипотез и построения интервальных оценок. Замечание: При построении классических линейных регрессионных моделей считается также, что объясняющие переменные не являются случайными величинами.
(Расчет см в вопросе 11!)
