- •Эконометрика
- •Введение
- •1. Модели статистической взаимосвязи
- •1.1. Типы взаимосвязи между явлениями
- •1.2. Типы данных
- •1.3. Типы моделей
- •Контрольные вопросы
- •2. Двухмерная модель линейной регрессии
- •2.1. Определение параметров млр. Метод наименьших квадратов
- •2.2. Матричная форма записи при определении параметров млр
- •2.3. Корреляционный анализ млр
- •2.4. Оценка ошибок моделирования
- •2.4.1. Основные условия (гипотезы) анализа ошибок
- •2.4.2. Ошибки оценок параметров модели
- •2.4.3. Оптимальность оценок мнк Теорема Гаусса-Маркова.
- •2.4.4. Оценка прогноза показателя и ошибок прогнозирования
- •2.5. Установление существенности связи на основе теории статистической проверки гипотез
- •2.5.1. Распределения случайных величин Нормальное распределение (Гаусса)
- •Распределение Пирсона (2-распределение)
- •Распределение Фишера
- •Распределение Стьюдента (t-распределение)
- •Статистическая проверка гипотез
- •Контрольные вопросы
- •3. Многомерная модель линейной регрессии
- •3.1. Определение параметров модели методом наименьших квадратов
- •3.2. Определение оценок параметров млр через отклонения (уменьшение числа уравнений системы до k – 1)
- •3.3. Статистические свойства оценок параметров млр
- •3.3.1. Условия анализа
- •3.3.2. Среднеквадратичные ошибки оценок параметров млр
- •3.3.3. Ошибки прогнозирования
- •3.4. Коэффициент детерминации многомерной млр
- •3.5. Определение существенности статистической связи между факторами и показателем
- •Контрольные вопросы
- •4. Мультиколлинеарность
- •4.1. Выражение для оценки параметров млр в стандартизованной форме
- •4.2. Тестирование на мультиколлинеарность методом Феррара-Глобера
- •4.2.1. Проверка на общую мультиколлинеарность
- •4.2.2. Проверка мультиколлинеарности между парами факторов
- •Контрольные вопросы
- •5. Автокорреляция
- •5.1. Обобщенный метод наименьших квадратов
- •5.2. Авторегрессионый процесс первого порядка
- •5.3. Тест Дарбина-Уотсона на автокорреляцию
- •Контрольные вопросы
- •6. Двухмерная модель нелинейной регрессии
- •6.1. Трехпараметрическая парабола
- •6.2. Двухпараметрическая парабола
- •6.3. Обзор двухпараметрических нелинейных моделей парной регрессии
- •Экспоненциальная модель
- •Логарифмическая модель
- •Гиперболическая модель
- •Контрольные вопросы
- •Литература
- •Приложение 1
- •Приложение 2
- •Приложение 3
- •Приложение 4
- •Приложение 5
3.2. Определение оценок параметров млр через отклонения (уменьшение числа уравнений системы до k – 1)
В приведенном выше примере трехмерной модели наиболее трудоемкой задачей является вычисление обратной матрицы размерности [33]. При учебных расчетах вручную даже эта невысокая размерность матрицы требует громоздких и рутинных вычислений.
Можно достичь упрощения хода решения задачи оценки параметров модели уменьшением числа неизвестных bi c k до k – 1 (т.е. до числа факторов). Из исходной системы уравнений для выборочных данных
yi = b1 + b2x2i + b3x3i +…+ bk xki + еi (3.13)
легко исключить постоянную составляющую b1, если перейти к уравнениям для отклонений (центрированных величин). Действительно, суммируя по i уравнения (3.11) и усредняя сумму множителем 1/n, получим зависимость между средними значениями факторов и показателя
(3.14)
Отсюда следует, что точка со средними значениями факторов и показателя принадлежит гиперплоскости модели у*(х2, х3,…, хк). Вычитая равенство (3.14) из каждого уравнения (3.13), получим уравнения для отклонений
(3.15)
В матричной форме эта система имеет вид
,
где – усеченный (k – 1)-мерный вектор коэффициентов регрессии b2 , b3 ,…, bk всех факторов;
, – n-мерные векторы отклонений показателя и остатков регрессии, а матрица отклонений факторов
имеет размерность [(k – 1) n].
Оценка МНК параметров модели, выраженная через отклонения, имеет аналогичный (3.9) вид
. (3.16)
Здесь квадратная матрица имеет размерность [(k – 1) (k – 1)] вместо [k k] в общем случае, что не только упрощает обращение матрицы, но и существенно снижает погрешности вычислений.
После определения с помощью выражения (3.16) коэффициентов регрессии согласно (3.14) находится постоянная составляющая модели
. (3.17)
Вернемся к примеру 3.1 построения трехмерной модели. Формула (3.16) позволяет вычислить параметры модели значительно проще, так как вместо системы трех уравнений достаточно решить систему двух уравнений. Для этого достаточно обратить матрицу размерности [22]. Запишем отклонения показателя и факторов в таблицу 3.2. Правый столбец таблицы суммирует величины в её строках.
Таблица 3.2
i |
1 |
2 |
3 |
4 |
5 |
∑ |
yi |
3 |
6 |
7 |
6 |
8 |
30 |
x2i |
4 |
3 |
5 |
9 |
9 |
30 |
Продолжение таблицы 3.2
x3i |
3 |
5 |
5 |
6 |
6 |
25 |
|
–3 |
0 |
1 |
0 |
2 |
0 |
|
–2 |
–3 |
–1 |
3 |
3 |
0 |
|
–2 |
0 |
0 |
1 |
1 |
0 |
|
9 |
0 |
1 |
0 |
4 |
14 |
ei |
6/46 |
21/46 |
–39/46 |
52/46 |
–40/46 |
0 |
ei2 |
36/2116 |
441/2116 |
1521/2116 |
2704/2116 |
1600/2116 |
2,978 |
Определим входящие в (3.16) матрицы
,
Усеченный вектор параметров модели в соответствии с (3.16) равен
Таким образом, точные значения параметров b2 = –7/46, b3 = 73/46. Постоянную составляющую определяем c помощью (3.17)
Эти параметры совпадают с решением, полученным в примере 3.1. Приведенное здесь решение, как видим, проще, так как вместо обратной матрицы размерности [33] определяется обратная матрица [22]. Это делает более доступным (в частности, не требующим компьютера) расчет параметров трехмерной модели. Иногда (как в данном простом примере) можно даже получить точное решение в форме рациональных чисел.
Убедимся, что модель
y* = (–47 –7x2 + 73x3)/46
построена правильно, и найдем точные значения остатков регрессии :
.
Как нетрудно убедиться, сумма ошибок равна 0, что частично подтверждает верность решения и определения параметров модели. Заметим, что нулевая сумма остатков регрессии является необходимым, но не достаточным условием построения модели согласно методу наименьших квадратов (см. (3.11), (3.12)). В качестве упражнения читателю предлагается рассчитать составляющие ei хri, r = 2, 3, и проверить выполнение равенств (3.12).