
- •Учебно-методические материалы к изучению дисциплины «Эконометрика»
- •Введение
- •1 Эконометрика и математическая статистика
- •Особенности статистических данных. Источники информации
- •1.2. Выборочная ковариация и выборочная дисперсия
- •Потребительские расходы на бензин и его реальная цена в условных единицах
- •Расчет выборочной ковариации
- •1.3 Метод Монте-Карло
- •2. Метод наименьших квадратов
- •2.1. Модель парной регрессии
- •2.2. Регрессия по методу наименьших квадратов
- •2.3. Формулы для коэффициентов регрессии. Обязательные свойства линии регрессии. Недостатки метода наименьших квадратов
- •2.4. Объясненная и необъясненная дисперсия зависимой переменной. Коэффициент r2, его связь с коэффициентом корреляции
- •Расчетная таблица
- •3 Свойства коэффициентов регрессии
- •3.1 Теорема Гаусса - Маркова. Смысл условий теоремы
- •Расчеты значений y
- •Результаты оценки значений a и b
- •Результаты расчетов значений y
- •Результаты оценки значений a и b
- •3.2. Стандартные отклонения и стандартные ошибки коэффициентов регрессии
- •Результаты расчетов стандартных ошибок
- •Результаты расчетов
- •4. Проверка гипотез
- •4.1. Выбор нулевой и альтернативной гипотезы
- •4.2. Уровень значимости
- •4.3 Ошибки I и II рода, степени свободы критическое значение, доверительный интервал. Т-тест для коэффициентов регрессии
- •4. 4. Односторонние и двусторонние тесты
- •4.7. Связь между тестами
- •5. Нелинейная регрессия. Простейшие модели
- •5.1. Нелинейность по переменным и нелинейность по параметрам
- •Соотношение между ежегодным потреблением бананов и годовым доходом
- •5.2. Логарифмирование
- •5.3. Эластичность и ее моделирование
- •5.4 Случайный член как множитель
- •5.5. Тест Бокса – Кокса (решетчатый поиск). Подбор функции методом Зарембки
- •Регрессии расходов на питание и жилье
- •Результаты оценивания регрессий для расходов
- •Алгоритмы вычисления эконометрических показателей
- •Список рекомендуемых литературных источников
3.2. Стандартные отклонения и стандартные ошибки коэффициентов регрессии
На основании уравнения (3.20) можно показать, что b будет несмещенной оценкой , если выполняется 4-е условие Гаусса - Маркова:
(3.21)
так как - константа. Если мы примем сильную форму 4-го условия Гаусса - Маркова и предположим, что х - неслучайная величина, мы можем также считать Var(x) известной константой и, таким образом,
(3.22)
Далее,
если х - неслучайная величина, то
M{Cov(x,u)}
= 0 и, следовательно, M{b}
=
Таким
образом,
- несмещенная оценка
Можно получить тот же результат со
слабой формой 4-го условия Гаусса -
Маркова (которая допускает, что переменная
х имеет случайную ошибку, но предполагает,
что она распределена независимо от u
).
За исключением того случая, когда случайные факторы в n наблюдениях в точности "гасят" друг друга, что может произойти лишь при случайном совпадении, b будет отличаться от в каждом конкретном эксперименте. Не будет систематической ошибки, завышающей или занижающей оценку. То же самое справедливо и для коэффициента а.
Используем уравнение (2.15):
(3.23)
Следовательно,
(3.24)
Поскольку у определяется уравнением (3.1),
(3.25)
так как M{u}=0, если выполнено 1-е условие Гаусса - Маркова. Следовательно
(3.26)
Подставив
это выражение в (3.24) и воспользовавшись
тем, что
получим:
(3.27)
Таким образом, а - это несмещенная оценка а при условии выполнения 1-го и 4-го условий Гаусса - Маркова. Безусловно, для любой конкретной выборки фактор случайности приведет к расхождению оценки и истинного значения.
Рассмотрим теперь теоретические дисперсии оценок а и Ь. Они задаются следующими выражениями (доказательства для эквивалентных выражений можно найти в работе Дж. Томаса [Thomas, 1983, section 833]):
(3.28)
Из
уравнения 3.28 можно сделать три очевидных
заключения. Во-первых, дисперсии а
и b
прямо пропорциональны дисперсии
остаточного члена
.
Чем
больше фактор случайности, тем хуже
будут оценки при прочих равных условиях.
Это уже было проиллюстрировано в
экспериментах по методу Монте-Карло.
Оценки в серии II
были гораздо более неточными, чем в
серии I,
и это произошло потому, что в каждой
выборке мы удвоили случайный член.
Удвоив u,
мы удвоили его стандартное отклонение
и, следовательно, удвоили стандартные
отклонения a
и b.
Во вторых, чем больше число наблюдений,
тем меньше дисперсионных оценок. Это
также имеет определенный смысл. Чем
большей информацией вы располагаете,
тем более точными, вероятно, будут ваши
оценки. В третьих, чем больше дисперсия
,
тем меньше будет дисперсия коэффициентов
регрессии. В чем причина этого? Напомним,
что (I)
коэффициенты регрессии вычисляются на
основании предположения, что наблюдаемые
изменения
происходят вследствие изменений
,
но (2) в действительности они лишь отчасти
вызваны изменениями
,
а отчасти вариациями u.
Чем меньше дисперсия
,
тем больше, вероятно, будет относительное
влияние фактора случайности при
определении отклонений
и тем более вероятно, что регрессионный
анализ может оказаться неверным. В
действительности, как видно из уравнения
(3.28), важное значение имеет не абсолютная,
а относительная величина
и Var(x).
На
практике мы не можем вычислить
теоретические дисперсии
или
,
так как
неизвестно, однако мы можем получить
оценку
на основе остатков. Очевидно, что разброс
остатков относительно линии регрессии
будет отражать неизвестный разброс u
относительно линии
,
хотя в общем остаток и случайный член
в любом данном наблюдении не равны друг
другу. Следовательно, выборочная
дисперсия остатков Var(е),
которую мы можем измерить, сможет быть
использована для оценки
,
которую мы получить не можем.
Прежде
чем пойти дальше, задайте себе следующий
вопрос: какая прямая будет ближе к
точкам, представляющим собой выборку
наблюдений по
и
,
истинная прямая
или линия регрессии
?
Ответ будет таков: линия регрессии,
потому что по определению она строится
таким образом, чтобы свести к минимуму
сумму квадратов расстояний между ней
и значениями наблюдений. Следовательно,
разброс остатков у нее меньше, чем
разброс значений u,
и Var(e)
имеет тенденцию занижать оценку
.
Действительно, можно показать, что
математическое ожидание Var(e),
если имеется всего одна независимая
переменная, равно
.
Однако отсюда следует, что если определить
как
,
(3.29)
То будет представлять собой несмещенную оценку .
Таким
образом, несмещенной оценкой параметра
регрессии
является оценка
.
(3.30)
Теперь вспомним следующие определения:
стандартное отклонение случайной величины – корень квадратный из теоретической дисперсии случайной величины; среднее ожидаемое расстояние между наблюдениями этой случайной величины и ее математическим ожиданием,
стандартная ошибка случайной величины – оценка стандартного отклонения случайной величины, полученная по данным выборки.
Используя уравнения (3.28) и (3.29), можно получить оценки теоретических дисперсий для a и b и после извлечения квадратного корня – оценки их стандартных отклонений. Вместо слишком громоздкого термина «оценка стандартного отклонения функции плотности вероятости» коэффицинта регрессии будем использовать термин «стандартная ошибка» коэффициента регрессии, которую в дальнейшем мы будем обозначать в виде сокрашения «с.о.». Таким образом, для парного регрессионного анализа мы имеем:
и
(3.31)
Если воспользоваться компьютерной программой оценивания регрессии, то стандартные ошибки будут подсчитаны автоматически одновременно с оценками a и b.
Подводя итог сказанному о точности коэффициентов регрессии, акценктируем внимание на следующих выводах.
1.
Оценка a
для параметра
имеет нормальное распределение с
математическим ожиданием a
и стандартным отклонением
,
оценка b
для параметра
имеет
нормальное распределение с математическим
ожиданием b
и стандартным отклонением
.
2. Для улучшения точности оценок по МНК можно увеличивать количество наблюдений в выборке n, увеличивать диапазон наблюдений Var(x) или уменьшать , (например, увеличивать точность измерений).
3. Стандартная ошибка оценки a считается по формуле
а
стандартная ошибка оценки b
считается по формуле
.
В компьютерных программах именно эти
числа приводятся в круглых скобках под
значениями оценок.
Полученные
соотношения проиллюстрируем экспериментами
по методу Монте-Карло, описанными ранее.
В серии I
u
определялось на основе случайных чисел,
взятых из генеральной совокупности с
нулевым средним и единичной дисперсией
а x
представлял собой набор чисел от 1 до
20. Можно легко вычислить Var(x),
которая равна 33,25.
Следовательно,
(3.32)
.
(3.33)
Таким
образом, истинное стандартное отклонение
для b
равно
.
Какие же результаты получены вместо
этого компьютером в 10 экспериментах
серии I?
Он должен был вычислить стандартную
ошибку, используя уравнение (3.31).
Результаты этих расчетов для 10
экспериментов представлены в табл. 3.5.
Таблица 3.5