- •Эконометрика
- •Введение
- •1. Модели статистической взаимосвязи
- •1.1. Типы взаимосвязи между явлениями
- •1.2. Типы данных
- •1.3. Типы моделей
- •Контрольные вопросы
- •2. Двухмерная модель линейной регрессии
- •2.1. Определение параметров млр. Метод наименьших квадратов
- •2.2. Матричная форма записи при определении параметров млр
- •2.3. Корреляционный анализ млр
- •2.4. Оценка ошибок моделирования
- •2.4.1. Основные условия (гипотезы) анализа ошибок
- •2.4.2. Ошибки оценок параметров модели
- •2.4.3. Оптимальность оценок мнк Теорема Гаусса-Маркова.
- •2.4.4. Оценка прогноза показателя и ошибок прогнозирования
- •2.5. Установление существенности связи на основе теории статистической проверки гипотез
- •2.5.1. Распределения случайных величин Нормальное распределение (Гаусса)
- •Распределение Пирсона (2-распределение)
- •Распределение Фишера
- •Распределение Стьюдента (t-распределение)
- •Статистическая проверка гипотез
- •Контрольные вопросы
- •3. Многомерная модель линейной регрессии
- •3.1. Определение параметров модели методом наименьших квадратов
- •3.2. Определение оценок параметров млр через отклонения (уменьшение числа уравнений системы до k – 1)
- •3.3. Статистические свойства оценок параметров млр
- •3.3.1. Условия анализа
- •3.3.2. Среднеквадратичные ошибки оценок параметров млр
- •3.3.3. Ошибки прогнозирования
- •3.4. Коэффициент детерминации многомерной млр
- •3.5. Определение существенности статистической связи между факторами и показателем
- •Контрольные вопросы
- •4. Мультиколлинеарность
- •4.1. Выражение для оценки параметров млр в стандартизованной форме
- •4.2. Тестирование на мультиколлинеарность методом Феррара-Глобера
- •4.2.1. Проверка на общую мультиколлинеарность
- •4.2.2. Проверка мультиколлинеарности между парами факторов
- •Контрольные вопросы
- •5. Автокорреляция
- •5.1. Обобщенный метод наименьших квадратов
- •5.2. Авторегрессионый процесс первого порядка
- •5.3. Тест Дарбина-Уотсона на автокорреляцию
- •Контрольные вопросы
- •6. Двухмерная модель нелинейной регрессии
- •6.1. Трехпараметрическая парабола
- •6.2. Двухпараметрическая парабола
- •6.3. Обзор двухпараметрических нелинейных моделей парной регрессии
- •Экспоненциальная модель
- •Логарифмическая модель
- •Гиперболическая модель
- •Контрольные вопросы
- •Литература
- •Приложение 1
- •Приложение 2
- •Приложение 3
- •Приложение 4
- •Приложение 5
5.1. Обобщенный метод наименьших квадратов
Напомним (см. п. 3.1), что классический МНК предполагает минимизацию по вектору параметров функционала ошибок
F= EE = (X–Y)(X–Y),
которая дает оценку (3.9) вектора В параметров модели, наилучшую в классе линейных несмещенных оценок при выполнении гипотез 3.3.1. Переход к корреляционной матрице общего вида, как доказано в [1] (теорема Айткена), требует для получения наилучшей оценки минимизации взвешенного функционала ошибок
F= E -1E = (X–Y) -1 (X–Y) = X -1X – Y -1X – – X-1Y + + Y-1Y = X-1X – 2X -1Y + Y -1Y.
Дифференцируя этот функционал по и приравнивая производную 0, с учетом симметричности матрицы -1 получим уравнение для оценки
Отсюда оптимальная ОМНК оценка параметров
В* = Y -1Х [ X -1X ]-1. (5.4)
В частном случае при = 2I она совпадает с оценкой В МНК (3.9). Как видим, коррекция вектора В* по сравнению с вектором В тем существенней, чем неоднородней структура корреляционной матрицы .
По аналогии с получением формулы (3.18) можно показать, что корреляционная матрица оценок параметров
D[В*] = M[(В* – ) (В* – )] = [ X -1X ]-1. (5.5)
При = 2I она совпадает с корреляционной матрицей (3.18).
Доказано (теорема Айткена [1]), что оценка ОМНК (5.4) является несмещенной, состоятельной и эффективной. Последнее свойство означает, что корреляционная матрица оценок (5.5) минимальна в классе несмещенных линейных оценок, т.е. оценки параметров являются наиболее точными.
Условия применения ОМНК требуют априорного знания корреляционной матрицы ошибок . Обычно эта матрица неизвестна, и её оценка вызывает необходимость дополнительных исследований. В данной главе мы рассмотрим лишь один из аспектов – автокорреляцию во времени.
5.2. Авторегрессионый процесс первого порядка
Будем рассматривать последовательность ошибок i, i = 0, 1, 2,… как случайный процесс с временными отсчетами i. Простейшей моделью стационарного случайного процесса с коррелированными по времени значениями является авторегрессионный процесс первого порядка
i = i – 1 + ui , < 1, (5.6)
где ui – независимые случайные возмущения, порождающие процесс, а постоянный параметр процесса, называемый коэффициентом авторегрессии, меньше 1 (по абсолютной величине). Рекуррентная формула (5.6) описывает случайный процесс i, если известны вероятностные свойства начальной ошибки 0 и возмущений {ui}. Будем полагать все эти случайные величины независимыми нормальными величинами с нулевыми средними и известными дисперсиями, т.е. 0 N(0, ) , ui N(0, ). Так как i образуется как линейная комбинация независимых слагаемых, то её дисперсия равна сумме дисперсий, т.е.
Соотношение справа записано с учетом стационарности процесса. Отсюда
(5.7)
Из этого выражения становится понятным ограничение на коэффициент авторегрессии . Далее, умножая (5.6) на i–1, затем на i–2 и т. д. и усредняя, нетрудно получить другие элементы корреляционной матрицы ошибок
…………………………………………………..
Таким образом, корреляционная матрица ошибок стационарного авторегрессионного процесса первого порядка имеет вид
(5.8)
Она, как видим, полностью определяется дисперсией возмущений и коэффициентом авторегрессии . Их также необходимо оценить на основе информации, содержащейся в выборке ограниченного объема.
Если объем выборки n велик (порядка сотен и более), обращение матрицы (5.8) размерности nn становится вычислительно сложной задачей. В этом случае проще преобразовать линейную систему уравнений относительно параметров модели i к виду, эквивалентному системе уравнений с независимыми ошибками. Такая система уравнений имеет вид [1]:
(5.10)
В этой системе из n уравнений все возмущения ui (i 2) и независимы и имеют одинаковую дисперсию . Следовательно, систему (5.10) можно решить с помощью классического МНК, преобразовав соответствующим образом матрицу Х и вектор Y в выражении (3.9) для оценки В. В результате отпадает необходимость обращения матрицы , остается лишь обратить матрицу ХХ размерности [k k].
Практически для решения системы уравнений (5.10) или определения ОМНК оценок параметров (5.4) необходимо знать коэффициент авторегрессии . Так как обычно он неизвестен, требуется его оценить с помощью остатков ei и (5.1). Однако остатки регрессии вычисляются для уже построенной модели с известным вектором В. С другой стороны, вектор В надо определить с учетом коррекции на автокорреляцию. Выход из этого замкнутого круга можно найти с помощью итерационных процедур. Одна из них предложена Кохрейном и Оркоттом (Cochrane-Orcutt). Суть её состоит в следующем.
На первом этапе с помощью классического МНК определяются параметры В модели, вычисляются остатки ei и находится первое приближение r1 для коэффициента авторегрессии . Затем с помощью r1 вычисляются параметры В* скорректированной модели и вновь определяются остатки регрессии, после чего находится второе приближение r2. Итерации продолжаются, пока разность между смежными приближениями rk – rk–1 не станет меньше заданной.