- •Учебно-методические материалы к изучению дисциплины «Эконометрика»
- •Введение
- •1 Эконометрика и математическая статистика
- •Особенности статистических данных. Источники информации
- •1.2. Выборочная ковариация и выборочная дисперсия
- •Потребительские расходы на бензин и его реальная цена в условных единицах
- •Расчет выборочной ковариации
- •1.3 Метод Монте-Карло
- •2. Метод наименьших квадратов
- •2.1. Модель парной регрессии
- •2.2. Регрессия по методу наименьших квадратов
- •2.3. Формулы для коэффициентов регрессии. Обязательные свойства линии регрессии. Недостатки метода наименьших квадратов
- •2.4. Объясненная и необъясненная дисперсия зависимой переменной. Коэффициент r2, его связь с коэффициентом корреляции
- •Расчетная таблица
- •3 Свойства коэффициентов регрессии
- •3.1 Теорема Гаусса - Маркова. Смысл условий теоремы
- •Расчеты значений y
- •Результаты оценки значений a и b
- •Результаты расчетов значений y
- •Результаты оценки значений a и b
- •3.2. Стандартные отклонения и стандартные ошибки коэффициентов регрессии
- •Результаты расчетов стандартных ошибок
- •Результаты расчетов
- •4. Проверка гипотез
- •4.1. Выбор нулевой и альтернативной гипотезы
- •4.2. Уровень значимости
- •4.3 Ошибки I и II рода, степени свободы критическое значение, доверительный интервал. Т-тест для коэффициентов регрессии
- •4. 4. Односторонние и двусторонние тесты
- •4.7. Связь между тестами
- •5. Нелинейная регрессия. Простейшие модели
- •5.1. Нелинейность по переменным и нелинейность по параметрам
- •Соотношение между ежегодным потреблением бананов и годовым доходом
- •5.2. Логарифмирование
- •5.3. Эластичность и ее моделирование
- •5.4 Случайный член как множитель
- •5.5. Тест Бокса – Кокса (решетчатый поиск). Подбор функции методом Зарембки
- •Регрессии расходов на питание и жилье
- •Результаты оценивания регрессий для расходов
- •Алгоритмы вычисления эконометрических показателей
- •Список рекомендуемых литературных источников
3.2. Стандартные отклонения и стандартные ошибки коэффициентов регрессии
На основании уравнения (3.20) можно показать, что b будет несмещенной оценкой , если выполняется 4-е условие Гаусса - Маркова:
(3.21)
так как - константа. Если мы примем сильную форму 4-го условия Гаусса - Маркова и предположим, что х - неслучайная величина, мы можем также считать Var(x) известной константой и, таким образом,
(3.22)
Далее, если х - неслучайная величина, то M{Cov(x,u)} = 0 и, следовательно, M{b} =
Таким образом, - несмещенная оценка Можно получить тот же результат со слабой формой 4-го условия Гаусса - Маркова (которая допускает, что переменная х имеет случайную ошибку, но предполагает, что она распределена независимо от u ).
За исключением того случая, когда случайные факторы в n наблюдениях в точности "гасят" друг друга, что может произойти лишь при случайном совпадении, b будет отличаться от в каждом конкретном эксперименте. Не будет систематической ошибки, завышающей или занижающей оценку. То же самое справедливо и для коэффициента а.
Используем уравнение (2.15):
(3.23)
Следовательно,
(3.24)
Поскольку у определяется уравнением (3.1),
(3.25)
так как M{u}=0, если выполнено 1-е условие Гаусса - Маркова. Следовательно
(3.26)
Подставив это выражение в (3.24) и воспользовавшись тем, что получим:
(3.27)
Таким образом, а - это несмещенная оценка а при условии выполнения 1-го и 4-го условий Гаусса - Маркова. Безусловно, для любой конкретной выборки фактор случайности приведет к расхождению оценки и истинного значения.
Рассмотрим теперь теоретические дисперсии оценок а и Ь. Они задаются следующими выражениями (доказательства для эквивалентных выражений можно найти в работе Дж. Томаса [Thomas, 1983, section 833]):
(3.28)
Из уравнения 3.28 можно сделать три очевидных заключения. Во-первых, дисперсии а и b прямо пропорциональны дисперсии остаточного члена .
Чем больше фактор случайности, тем хуже будут оценки при прочих равных условиях. Это уже было проиллюстрировано в экспериментах по методу Монте-Карло. Оценки в серии II были гораздо более неточными, чем в серии I, и это произошло потому, что в каждой выборке мы удвоили случайный член. Удвоив u, мы удвоили его стандартное отклонение и, следовательно, удвоили стандартные отклонения a и b. Во вторых, чем больше число наблюдений, тем меньше дисперсионных оценок. Это также имеет определенный смысл. Чем большей информацией вы располагаете, тем более точными, вероятно, будут ваши оценки. В третьих, чем больше дисперсия , тем меньше будет дисперсия коэффициентов регрессии. В чем причина этого? Напомним, что (I) коэффициенты регрессии вычисляются на основании предположения, что наблюдаемые изменения происходят вследствие изменений , но (2) в действительности они лишь отчасти вызваны изменениями , а отчасти вариациями u. Чем меньше дисперсия , тем больше, вероятно, будет относительное влияние фактора случайности при определении отклонений и тем более вероятно, что регрессионный анализ может оказаться неверным. В действительности, как видно из уравнения (3.28), важное значение имеет не абсолютная, а относительная величина и Var(x).
На практике мы не можем вычислить теоретические дисперсии или , так как неизвестно, однако мы можем получить оценку на основе остатков. Очевидно, что разброс остатков относительно линии регрессии будет отражать неизвестный разброс u относительно линии , хотя в общем остаток и случайный член в любом данном наблюдении не равны друг другу. Следовательно, выборочная дисперсия остатков Var(е), которую мы можем измерить, сможет быть использована для оценки , которую мы получить не можем.
Прежде чем пойти дальше, задайте себе следующий вопрос: какая прямая будет ближе к точкам, представляющим собой выборку наблюдений по и , истинная прямая или линия регрессии ? Ответ будет таков: линия регрессии, потому что по определению она строится таким образом, чтобы свести к минимуму сумму квадратов расстояний между ней и значениями наблюдений. Следовательно, разброс остатков у нее меньше, чем разброс значений u, и Var(e) имеет тенденцию занижать оценку . Действительно, можно показать, что математическое ожидание Var(e), если имеется всего одна независимая переменная, равно . Однако отсюда следует, что если определить как
, (3.29)
То будет представлять собой несмещенную оценку .
Таким образом, несмещенной оценкой параметра регрессии является оценка
. (3.30)
Теперь вспомним следующие определения:
стандартное отклонение случайной величины – корень квадратный из теоретической дисперсии случайной величины; среднее ожидаемое расстояние между наблюдениями этой случайной величины и ее математическим ожиданием,
стандартная ошибка случайной величины – оценка стандартного отклонения случайной величины, полученная по данным выборки.
Используя уравнения (3.28) и (3.29), можно получить оценки теоретических дисперсий для a и b и после извлечения квадратного корня – оценки их стандартных отклонений. Вместо слишком громоздкого термина «оценка стандартного отклонения функции плотности вероятости» коэффицинта регрессии будем использовать термин «стандартная ошибка» коэффициента регрессии, которую в дальнейшем мы будем обозначать в виде сокрашения «с.о.». Таким образом, для парного регрессионного анализа мы имеем:
и (3.31)
Если воспользоваться компьютерной программой оценивания регрессии, то стандартные ошибки будут подсчитаны автоматически одновременно с оценками a и b.
Подводя итог сказанному о точности коэффициентов регрессии, акценктируем внимание на следующих выводах.
1. Оценка a для параметра имеет нормальное распределение с математическим ожиданием a и стандартным отклонением , оценка b для параметра имеет нормальное распределение с математическим ожиданием b и стандартным отклонением .
2. Для улучшения точности оценок по МНК можно увеличивать количество наблюдений в выборке n, увеличивать диапазон наблюдений Var(x) или уменьшать , (например, увеличивать точность измерений).
3. Стандартная ошибка оценки a считается по формуле
а стандартная ошибка оценки b считается по формуле . В компьютерных программах именно эти числа приводятся в круглых скобках под значениями оценок.
Полученные соотношения проиллюстрируем экспериментами по методу Монте-Карло, описанными ранее. В серии I u определялось на основе случайных чисел, взятых из генеральной совокупности с нулевым средним и единичной дисперсией а x представлял собой набор чисел от 1 до 20. Можно легко вычислить Var(x), которая равна 33,25.
Следовательно,
(3.32)
. (3.33)
Таким образом, истинное стандартное отклонение для b равно . Какие же результаты получены вместо этого компьютером в 10 экспериментах серии I? Он должен был вычислить стандартную ошибку, используя уравнение (3.31). Результаты этих расчетов для 10 экспериментов представлены в табл. 3.5.
Таблица 3.5