- •Часть I
- •Введение
- •1. Учебная программа дисциплины
- •1.1 Характеристика дисциплины
- •1.2. Примерный тематический план
- •1.3. Содержание дисциплины
- •Тема 1. Предмет дисциплины «прикладная эконометрика в предпринимательстве». Цель, задачи и методы, используемые при ее изучении
- •Тема 2. Парный регрессионный анализ
- •Тема 3. Свойства коэффициентов регрессии и проверка гипотез
- •Тема 4. Множественный регрессионный анализ
- •Тема 5. Преобразования и спецификация переменных регрессии
- •Тема 6. Оценивание систем одновременных уравнений
- •Тема 7. Моделирование и свойства регрессионных моделей с временными рядами
- •Тема 8. Нестационарные временные ряды
- •Тема 9. Модели с панельными данными
- •1. Парный регрессионный анализ
- •1.5 Два разложения для зависимой переменной
- •1.7. Качество оценивания: коэффициент r2
- •2. Свойства коэффициентов регрессии и проверка гипотез
- •2.1. Типы данных и регрессионная модель
- •2.8 Проверка гипотез, относящихся к коэффициентам регрессии
- •2.9. Доверительные интервалы
- •2.10 Односторонние t-критерии
- •2.12. Взаимосвязь между f-критерием общего качества регрессии и f-критерием для коэффициента наклона в парном регрессионном анализе
- •3. Множественный регрессионный анализ
- •3.2. Вывод и интерпретация коэффициентов множественной регрессии
- •3.3. Свойства коэффициентов множественной регрессии
- •3.4 . Мультиколлинеарность
- •3.5. Качество оценивания: коэффициент r2
- •4. Моделирование по данным временных рядов
- •4.1. Статистические модели
- •4.2. Динамические модели
- •4.3. Модель адаптивных ожиданий
- •4.4. Модель частичной корректировки
- •4.5. Предсказание
- •4.6. Тесты на устойчивость
- •Перечень рекомендуемой литературы Основная
- •Дополнительная
- •Постановка вопроса
- •Обзор литературы
- •Сбор данных
- •Построение модели и выводы.
- •Прикладная эконометрика в предпринимательстве Учебная пособие для специальности
- •220006. Минск, Свердлова,13а.
- •220006. Минск, Свердлова, 13.
3.2. Вывод и интерпретация коэффициентов множественной регрессии
Как и в случае парной регрессии, мы выбираем также значения коэффициентов регрессии, чтобы обеспечить наилучшее соответствие наблюдениям в надежде получить оптимальные оценки для неизвестных истинных значений параметров. Как и прежде, наше определение оптимальности соответствия определяется минимизацией RSS, т.е. суммы квадратов отклонений:
RSS= (3.3)
где ei является остатком в наблюдении i, разницей между фактическим значением Yi в этом наблюдении и значением Yi прогнозируемым по уравнению регрессии:
Yi = b1+ b2X2i + biX3i (3.4)
ei=Yi-Yi=Yi-bx-b2X2i-biX3i. (3.5)
Отметим, что теперь переменные X имеют два нижних индекса. Первый означает номер переменной X, а второй относится к номеру наблюдения. Используя уравнение (3.5), мы можем записать:
RSS= = (3.6)
Вставка 3.1. Что случилось сХ1?Вы могли заметить, что переменная X отсутствует в общей модели регрессии
Yi = β1+ β2X2i+…+ βkiXki + ui
Почему так? Причина здесь — в необходимости сделать обозначения аналогичными обозначениям в учебниках, использующих линейную (матричную) алгебру. В вашем следующем курсе эконометрики наверняка будет использоваться такой учебник. Для изложения с использованием линейной алгебры необходимо, чтобы каждый член в правой части уравнения был произведением параметра и переменной. Если в модели есть постоянный член, как здесь, то можно исправить ситуацию, записав уравнение в виде:
Yt = β1X1i+ β2X2i+ βk Xki+ ui
где Х1i = I для всех наблюдений. При использовании обычной алгебры чаще всего нет необходимости вводить X1 в явной форме, и поэтому этой переменной нет. Единственный случай в этом учебнике, когда такая переменная может быть полезной, встретится при обсуждении «ловушки» фиктивных переменных в разделе 5.2.
Необходимые условия первого порядка для минимума, т.е. , дают следующие уравнения:
(3.7)
(3.8)
(3.9)
Следовательно, мы имеем три уравнения с тремя неизвестными: b1 b2 и b3 . Первое уравнение можно легко перегруппировать для выражения величины b1 через b2 b3 и данные наблюдений для У, Х2 и Х3:
bl= -b2 2-b3 3 (3.10)
Используя это выражение и два других уравнения, путем некоторых преобразований можно получить следующее выражение для b2:
(3.11)
Аналогичное выражение для b3 можно получить путем перестановки Х2 и Х3 в уравнении (3.11).
Цель данного анализа состоит в выделении двух основных моментов. Во-первых, принципы, лежащие в основе вычисления коэффициентов регрессии, в случаях множественной и парной регрессии не различаются. Во-вторых, сами выражения, тем не менее, различаются. Поэтому не следует пытаться использовать выражения, выведенные для парной регрессии, в случае множественной регрессии.
Общая модель
В предыдущем примере мы имели только две независимые переменных. В тех случаях, когда этих переменных больше двух, уже невозможно дать геометрическое представление того, что происходит, но развитие алгебраических выкладок в принципе вполне очевидно. Допустим, что переменная Y связана с к-1 независимыми переменными Х2, ...,Хк в соответствии с неизвестной истинной зависимостью. Мы предполагаем, что переменная Y зависит от к-1объясняющих переменных Х2, ..., Хк в соответствии с неизвестной истинной формулой:
Yi=β1+β2X2i +…+ βkXki +ui, (3.12)
Оценим уравнение для данного множества п наблюдений для Y, Х2, ..., Хк методом наименьших квадратов:
i=bi+b1Xli+...+bkXki. (3.13)
Это вновь означает минимизацию суммы квадратов отклонений, а отклонение в наблюдении i выражается как
ei=Yi- i=Yi-bl-b2X2i-...-bkXki. (3.14)
Уравнение (3.14) является обобщением уравнения (3.5). Теперь мы выбираем b1 ..., bk так, чтобы свести к минимуму RSS, сумму квадратов отклонений . Мы получаем к условии первого порядка …, , что дает к уравнений для нахождения к неизвестных. Можно легко показать, что первое из этих уравнений позволяет получить аналог уравнения (3.10), относящегося к случаю с двумя независимыми переменными:
b1= -b2 2-...-bk k. (3.15)
Выражения для b2, ..., bк становятся очень сложными, и математическая сторона не будет здесь представлена в явном виде. Расчеты здесь должны быть сделаны с помощью матричной алгебры.
Интерпретация коэффициентов множественной регрессии
Множественный регрессионный анализ позволяет нам разграничить влияние независимых переменных, допуская при этом возможность их коррелированности. Коэффициент регрессии при каждой переменной X дает оценку ее влияния на величину Y в случае неизменности влияния на нее всех остальных переменных X.
Это может быть продемонстрировано двумя способами. Один из них состоит в выяснении того, что если модель правильно специфицирована и выполнены предпосылки регрессионной модели, то оценки получаются несмещенными. Это будет сделано в следующей главе для случая, когда имеются только две независимые переменные. Второй способ состоит в оценивании регрессионной зависимости Y от одной из переменных X, очистив предварительно переменные Y и X от составляющих, относящихся к другим объясняющим переменным. Оценка коэффициента наклона и ее стандартная ошибка в этом случае получаются точно такими же, как при оценивании множественной регрессии. Этот результат доказан теоремой Фриша—Вауга—Ловелла (Frisch, Waugh, 1933; Lovell, 1963). Отсюда следует, что диаграмма рассеяния для зависимости «очищенной» переменной 7 от «очищенной» переменной X является корректным графическим представлением их взаимосвязи, которое невозможно получить каким-либо другим путем. Этот результат мы не будем доказывать, но он будет проиллюстрирован с помощью функции заработка в разделе 3.1:
= β1 + β2S+ β3 ЕХР+и. (3.16)
Предположим, что нас особенно интересует зависимость между заработком и продолжительностью обучения и что мы хотели бы представить ее графически. Непосредственное построение точек зависимости EARNINGS от S, как это представлено на рис. 1.8, дает искаженный вид взаимосвязи, поскольку переменная ЕХР отрицательно коррелирована с S. Среди людей одинакового возраста, люди, которые провели в школе больше времени, чаще всего имеют меньше опыта работы. Вследствие этого, если S возрастает, то 1) EARNINGS будет иметь тенденцию к возрастанию, поскольку р2 положительно; 2) ЕХР будет иметь тенденцию к убыванию, поскольку S и ЕХР отрицательно коррелированы, и 3) EARNINGS уменьшится благодаря убыванию ЕХР и тому, что рз положительна. Другими словами, вариации величины EARNINGS не будут полностью отражать влияние вариаций в S, поскольку частично они будут вызваны связанными с этим вариациями в ЕХР. Вследствие этого при оценивании парной регрессии оценка β2 будет смещена вниз. Мы исследуем это смещение аналитически в разделе 6.2.
В данном примере присутствует еще одна объясняющая переменная ЕХР. Чтобы «очистить» EARNINGS и S от их составляющих, обусловленных ЕХР, мы сначала оценим их регрессии на ЕХР:
EARNINGS = с1+с2ЕХР; (3.17)
S = d1+d2EXP. (3.18)
Далее вычтем полученные теоретические значения из фактических значений:
EEARN = EARNINGS - ; (3.19)
ES = S- . (3.20)
«Очищенные» переменные EEARN и ES — это, конечно, всего лишь остаточные члены регрессий (3.17) и (3.18). Далее мы оценим регрессию EEARN на ES и получим представленную в табл. 3.2 распечатку результатов.
В записи оценки свободного члена регрессии использовано общее правило записи очень больших или очень маленьких чисел с заданным числом цифр. Запись е + п означает, что коэффициент должен быть умножен на 10n. Аналогично е - п означает, что он должен быть умножен на 10 -n. Итак, в нашей регрессии свободный член практически равен нулю.
Вы можете убедиться в том, что коэффициент при ES идентичен коэффициенту при S в множественной регрессии в разделе 3.1. Рисунок 3.2 представляет линию регрессии на диаграмме рассеяния. Пунктирная линия на рисунке — это парная регрессия EARNINGS на S и приведена для сравнения. Она немного более пологая, чем реальная зависимость EARNINGS от S, поскольку
Таблица 3.2
-
. reg EEARN ES Source SS
df
MS
Number of obs
F( 1,538)
Prob > F
R-squared Adj R-squared Root MSE
540
131.63
0.0000
0.1966
0.1951
12.898
Model Residual
21895.9298 89496.5833
1 538
21895.9298 166.350527
Total
111392.513
539
206.665145
EEARN
Coef.
Std. Err.
t
P>|t|
[95% Conf.
Interval]
ES _cons
2.678125 8.10e-09
.2334325 .5550284
11.47 0.00
0.000 1.000
2.219574 -1.090288
3.136676 1.090288
она не учитывает эффект EXP. В этом случае отклонение мало, потому что мала корреляция между S и ЕХР, равная -0,22. Но, даже принимая во внимание этот факт, диаграмма полезна, потому что она позволяет напрямую увидеть соотношение между заработком и продолжительностью обучения при фиксированном стаже работы. Наличие далеко лежащих наблюдений для больших значений S приводит к выводу, что модель была в чем-то неправильно специфицирована.