Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ekonometrika_Teoria.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
4.14 Mб
Скачать
  1. Доверительные интервалы для зависимой переменной в уравнении регрессии.

Базовой предпосылкой МНК является предположение о нормальном распределении отклонений 𝜀𝑖 с нулевым математическим ожиданием и постоянной дисперсией , которое является теоретически и практически обоснованным: 𝜀𝑖~𝑁(0; ).

Согласно модельному уравнению линейной парной регрессии 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 , коэффициенты 𝑏0 и 𝑏1 через 𝑦𝑖 являются линейными комбинациями 𝜀𝑖 . Следовательно, 𝑏0 и 𝑏1 также имеют нормальное распределение: 𝑏1~𝑁(𝛽1 ; 𝑆𝑏1 2 ), 𝑏0~𝑁(𝛽0 ; 𝑆𝑏0 2 ).

Тогда случайные величины и 𝑡𝑏0 = имеют распределение Стьюдента с числом степеней свободы 𝜈 = 𝑛 − 2. По заданной доверительной вероятности γ можно найти интервал:

−𝑡кр < 𝑡 < 𝑡кр или 𝑡 < 𝑡кр внутри которого находятся значения 𝑡 с вероятностью γ: 𝑃(|𝑡| < 𝑡кр) = 𝛾.

Критическое значение 𝑡кр при доверительной вероятности 𝛾 = 1 − 𝛼 находятся по таблицам двусторонних квантилей распределения Стьюдента = .

Таким образом: 𝑃(−𝑡кр < < 𝑡кр) = 𝛾, 𝑃(−𝑡кр < < 𝑡кр) = 𝛾

Доверительные интервалы для коэффициентов парной линейной регрессии с доверительной вероятностью 𝛾 = 1 − 𝛼 имеют вид:

𝑏1 − < 𝛽1 < 𝑏1 + ,

𝑏0 − < 𝛽0 < 𝑏0 + .

  1. Проверка общего качества уравнения регрессии. Коэффициент детерминации r2.

Коэффициент детерминации (R2)— это доля дисперсии отклонений зависимой переменной от её среднего значения, объясняемая рассматриваемой моделью связи. Модель связи обычно задается как явная функция от объясняющих переменных.

Коэффициент детерминации является случайной переменной. Он характеризует долю результативного признака у, объясняемую регрессией, в общей дисперсии результативного признака: 0≤ R2≤1. причем если R2= 1 то переменная yt полностью объясняется регрессором xt. В множественной регрессионной модели добавление дополнительных регрессоров увеличивает значение коэффициента детерминации, поэтому его корректируют с учетом числа независимых переменных:

  1. Множественная линейная регрессия. Определение параметров уравнения регрессии.

Обычно на любой экономический показатель влияет не один, а несколько факторов. Например, спрос на некоторый товар определяется не только его ценой, но и ценами на замещающие и дополняющие товары, доходом потребителей и другими факторами. В этом случае вместо функции парной регрессии 𝑀(𝑌|𝑋 = 𝑥) = 𝑓(𝑥) рассматривается функция множественной регрессии: 𝑀(𝑌|𝑋1 = 𝑥1 ; 𝑋2 = 𝑥2 ; … ; 𝑋𝑚 = 𝑥𝑚 ) = 𝑓(𝑥1 ; 𝑥2 ; … ; 𝑥𝑚 ).

Теоретическая модель множественной линейной регрессии имеет вид: 𝑌 = 𝛽0 + 𝛽1𝑋1 + 𝛽2𝑋2 + ⋯ + 𝛽𝑚 𝑋𝑚 + 𝜀 (5.2) или для индивидуальных наблюдений: 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑚 𝑥𝑖𝑚 + 𝜀, (5.3) 𝑖 = 1, 2, … 𝑁, где N – объем генеральной совокупности.

После выбора в качестве модели линейной функции множественной регрессии необходимо оценить коэффициенты регрессии.

Пусть имеется n наблюдений вектора объясняющих переменных 𝑋 = (𝑋1 ; 𝑋2 ; . . 𝑋𝑚 ) и зависимой переменной Y: (𝑥𝑖1 ; 𝑥𝑖2 ; … ; 𝑥𝑖𝑚 ; 𝑦𝑖 ), 𝑖 = 1, 2, … , 𝑛. Если 𝑛 = 𝑚 + 1, то оценки коэффициентов рассчитываются единственным образом. Здесь 𝑚 – число объясняющих переменных. Если 𝑛 < 𝑚 + 1, то система будет иметь бесконечное множество решений. Если 𝑛 > 𝑚 + 1, то нельзя подобрать линейную функцию, точно удовлетворяющую всем наблюдениям, и возникает необходимость оптимизации, т.е. нахождения оценок параметров модели, при которых линейная функция дает наилучшее приближение для имеющихся наблюдений.

Самым распространенным методом оценки параметров модели множественной линейной регрессии является метод наименьших квадратов (МНК). Для применения МНК необходима выполнимость ряда предпосылок, которые позволят проводить анализ в рамках классической линейной модели множественной регрессии (КЛММР).

Предпосылки МНК

1) Математическое ожидание случайных отклонений 𝜀𝑖 равно нулю: 𝑀 𝜀𝑖 = 0 для всех наблюдений. Это означает, что случайное отклонение не должно иметь систематического смещения.

2) Дисперсия случайных отклонений постоянна для всех наблюдений: 𝐷 𝜀𝑖 = 𝑀 𝜀𝑖 2 = 𝜎 2 , 𝑖 = 1, 2, … , 𝑛. Выполнимость данной предпосылки называется гомоскедастичностью, а невыполнимость ее называется гетероскедастичнстью.

3) Случайные отклонения 𝜀𝑖 и 𝜀𝑗 ( i ≠ j ) не коррелируют (отсутствует автокорреляция ): 𝑀 𝜀𝑖 , 𝜀𝑗 = 0, 𝑖 ≠ 𝑗 .

4) Случайные отклонения должны быть статистически независимы (некоррелированы) от объясняющих переменных.

5) Отсутствие мультиколлинеарности. Между объясняющими переменными отсутствует строгая (сильная) линейная зависимость.

6) Отклонения 𝜀𝑖 , 𝑖 = 1, 2, … , 𝑛 имеют нормальные распределения 𝜀𝑖 ≅ 𝑁(0; 𝜎 2 )Выполнимость данной предпосылки важна для проверки статистических гипотез и построения интервальных оценок. Замечание: При построении классических линейных регрессионных моделей считается также, что объясняющие переменные не являются случайными величинами.

(Расчет см в вопросе 11!)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]