- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ
Эта матрица имеет ранг, равный 2, если не равен нулю хотя бы один из определителей
|
− β |
13 |
−γ |
11 |
|
, |
|
− β |
13 |
0 |
|
, |
|
−γ |
11 |
0 |
|
. |
|
|
|
|
|
|
|||||||||||||
|
1 |
−γ |
|
|
1 |
−γ |
33 |
|
−γ |
−γ |
33 |
|||||||
|
|
|
|
31 |
|
|
|
|
|
|
|
|
|
31 |
|
|
Очевидно, что это условие выполняется. Второе уравнение неоднозначно идентифицируемо, так как
rang (A2)=2, m -1=3−1=2, rang (A2)= m -1; d 2 =3,m−1=2, d 2 >m−1.
Исследуем третье уравнение. В нем отсутствуют переменные Y1t , X 2t −1. Матрица A3 параметров при этих переменных имеет вид:
A3 |
|
1 |
0 |
|
= |
−β21 |
−γ |
. |
|
|
|
22 |
Определитель равен A3 = −γ 22 ≠ 0 , следовательно,
rang (A3)=2, m -1=3−1=2, rang (A3)= m -1; d 3 =2,m−1=2, d 3 =m−1.
Третье уравнение однозначно идентифицируемо.
Таким образом, все уравнения и модель в целом идентифицируемы. Существует возможность оценить параметры модели.
§ 3. Косвенный метод наименьших квадратов
Рассмотрим косвенный метод наименьших квадратов (КМНК).
Он используется для оценивания параметров модели с однозначно идентифицируемыми взаимозависимыми уравнениями. Этот метод также может применяться для оценивания параметров отдельных однозначно идентифицируемых уравнений, входящих в состав модели с взаимозависимыми уравнениями. В данном методе оценки параметры приведенной формы модели используются для оценки параметров структурной формы модели.
Процедура метода состоит из следующих этапов:
217
1. Структурная модель B Yt + ΓXt = εt сводится к приведенной
форме Yt |
= Π Xt + ηt , |
где Π = −B−1Γ, |
ηt = B−1εt . |
|||||||||||||||
2. Параметры приведенной формы оцениваются классическим |
||||||||||||||||||
методом наименьших квадратов: |
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
ˆ |
T |
=(X |
T |
X ) |
−1 |
T |
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
X Y , |
||||
|
|
|
|
|
|
|
|
|
|
Π |
|
|
|
|
||||
где |
|
|
|
|
|
|
|
|
... |
|
|
|
|
|
|
|
|
|
|
|
πˆ10 |
|
πˆ11 |
πˆ12 |
πˆ1k |
|
|
|
|
|
|||||||
ˆ |
|
πˆ20 |
πˆ21 |
πˆ22 |
... |
|
|
|
|
— матрица оценок параметров |
||||||||
|
πˆ2k |
|||||||||||||||||
Π = |
|
|
|
|
... |
|
... |
|
... |
|
|
|
|
приведенной формы Π; |
||||
|
... |
|
|
|
|
|
... |
|||||||||||
|
πˆm0 |
πˆm1 πˆm2 |
... |
πˆmk |
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
1 |
x11 |
x12 ... |
x1k |
|
|
|
|
|
|
|
|||||||
X = |
|
1 |
x21 |
x22 ... |
x |
|
|
— матрица наблюдений экзогенных |
||||||||||
|
2k |
|
||||||||||||||||
... |
... ... ... |
... |
|
и предопределенных переменных модели; |
||||||||||||||
|
|
1 |
xn1 |
xn2 ... |
|
|
|
|
|
|
|
|
|
|||||
|
|
xnk |
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
y |
11 |
y |
12 |
... |
y |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
1m |
|
|
|
|
|
|
|
|
|
||||
Y = y21 |
y22 ... y2m |
— матрица наблюдений взаимосвязанных |
||||||||||||||||
... |
... ... ... |
|
эндогенных переменных модели. |
|||||||||||||||
yn1 |
yn2 |
... |
ynm |
|
|
|
|
|
|
|
|
|
||||||
3. Оценка параметров структурной формы находится в резуль- |
||||||||||||||||||
тате решения системы уравнений: |
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
ˆ |
ˆ |
|
|
ˆ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ΒΠ = −Γ, |
|||||
|
ˆ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ˆ |
где B — матрица оценок параметров при переменных Y ; Γ —
матрица оценок параметров при переменных X . Пример 10.3. Рассмотрим модель (табл. 10.1):
K t = β12 Z t +γ10 +γ11 I t +ε1t , Z t = β21 Kt +γ 20 +γ 22 Pt +ε2t ,
где Kt — стоимость основных фондов (эндогенная переменная); Zt — количество работающих (эндогенная переменная);
218
It — объем инвестиций (экзогенная переменная);
Pt — объем продукции (экзогенная переменная).
|
|
|
|
|
|
|
Таблица 10.1 |
|
Исходные данные для косвенного метода |
|
|||||
|
|
наименьших квадратов |
|
|
|
||
|
|
|
|
|
|
|
|
t |
Kt |
|
Zt |
|
It |
|
Pt |
1 |
73 |
|
4,0 |
|
2,1 |
|
32 |
|
|
|
|
|
|
|
|
2 |
76 |
|
4,1 |
|
2,5 |
|
34 |
|
|
|
|
|
|
|
|
3 |
76 |
|
4,2 |
|
2,4 |
|
35 |
|
|
|
|
|
|
|
|
4 |
82 |
|
4,5 |
|
2,7 |
|
38 |
|
|
|
|
|
|
|
|
5 |
82 |
|
4,5 |
|
2,7 |
|
39 |
|
|
|
|
|
|
|
|
6 |
72 |
|
4,0 |
|
1,9 |
|
33 |
|
|
|
|
|
|
|
|
7 |
72 |
|
4,3 |
|
1,6 |
|
32 |
|
|
|
|
|
|
|
|
8 |
74 |
|
4,4 |
|
1,8 |
|
34 |
|
|
|
|
|
|
|
|
9 |
74 |
|
4,4 |
|
1,7 |
|
35 |
|
|
|
|
|
|
|
|
10 |
78 |
|
4,6 |
|
2,0 |
|
37 |
|
|
|
|
|
|
|
|
Определим параметры приведенной формы модели. Соответствующие матрицы имеют вид:
|
|
73 |
4,0 |
1 2,1 32 |
|
|
|
|
|
10 |
21,4 |
|
349 |
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
76 |
4,1 |
|
1 2,5 34 |
|
X |
T |
X |
|
|
21,4 |
47,3 |
|
|
|
|||||
|
|
76 |
4,2 |
|
1 |
2,4 35 |
|
|
|
= |
752,7 , |
|
|||||||||
|
|
|
|
|
|
349 |
752,7 |
|
|
|
|||||||||||
|
|
82 |
4,5 |
|
|
|
2,7 38 |
|
|
|
|
|
|
12233 |
|
||||||
|
|
|
1 |
|
|
|
|
|
26,5391 |
1,9934 |
- 0,8798 |
||||||||||
|
|
82 |
4,5 |
|
1 |
2,7 39 |
|
|
|
|
|||||||||||
Y |
−1 |
= |
|
1,9934 |
1,1638 |
- 0,1285 |
|
||||||||||||||
= |
72 |
4,0 |
, X |
= |
1 |
1,9 |
33 |
,(X T X |
) |
|
|
, |
|||||||||
|
|
|
|
|
|
|
|
|
- 0,8798 |
- 0,1285 |
0,03309 |
|
|||||||||
|
72 |
|
|
|
32 |
|
|
|
|
|
|||||||||||
|
|
4,3 |
1 1,6 |
|
|
|
|
|
|
|
759 |
|
43 |
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
74 |
4,4 |
|
1 |
1,8 |
34 |
|
|
|
X T Y |
|
1636 |
|
|
|
|
||||
|
|
|
= |
92,11 , |
|
||||||||||||||||
|
|
74 |
4,4 |
1 1,7 |
35 |
|
|
|
|
|
|
|
26566 |
1504 |
|
|
|||||
|
|
78 |
4,6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
1 2,0 37 |
|
|
|
|
|
|
|
|
|
|
|
|
|
219
|
T |
|
30,649 |
1,3121 |
|
ˆ |
30,649 |
3,2009 |
1,1003 |
|
|
ˆ |
= |
|
3,2009 |
−0,3578 |
|
||||||
|
|
|
, Π = |
|
|
. |
|||||
Π |
|
|
|
|
1,3121 |
− 0,3578 |
0,1076 |
|
|||
|
|
|
|
1,1003 |
0,1076 |
|
|
||||
|
|
|
|
|
|
|
|
|
|
Такимобразом, приведенная модель послеоценивания имеет вид:
ˆ |
= 30,649 +3,2009 |
It |
+1,1003 |
Pt |
, |
||||
Kt |
|
|
|
|
|
||||
ˆ |
=1,3121−0,3578 |
It |
+0,1076 |
Pt |
. |
||||
Zt |
|
|
|
|
|
Матрицы Β и Г структурной формы модели имеют вид:
1 |
−β |
12 |
|
|
−γ |
10 |
−γ |
11 |
0 |
||
Β = |
|
|
, Γ = |
|
|
|
. |
||||
|
−β21 |
1 |
|
|
|
−γ20 |
0 |
|
−γ |
|
|
|
|
|
|
|
22 |
Для нахождения оценок коэффициентов структурной модели решим систему уравнений:
|
1 |
|
−b12 |
|
30,649 |
3,2009 |
|
1,1003 |
|
|
−c10 |
−c11 |
0 |
|
|
||||
|
−b21 |
1 |
× |
|
|
− 0,3578 |
|
|
= − |
−c20 |
0 |
−c |
|
, |
|||||
|
|
1,3121 |
0,1076 |
|
|
22 |
|||||||||||||
|
|
1 |
−b12 |
30,649 |
|
3,2009 |
1,1003 |
|
c10 |
c11 |
0 |
|
|
||||||
|
|
−b21 |
1 |
|
× |
|
− 0,3578 |
|
|
= |
0 |
|
|
|
|||||
|
|
|
1,3121 |
0,1076 |
|
c20 |
c22 , |
|
|||||||||||
где |
b12, |
b21, |
c10, |
c20, c11, |
c22 |
— |
оценки |
параметров |
β12 , β 21 , |
||||||||||
γ10,γ20 ,γ11, γ22 , соответственно. |
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
Умножая матрицы, получим: |
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
30,649 −1,3121b12 = c10 , |
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
+0,3578b12 = c11, |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
3,2009 |
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1,1003 −0,1076b12 = 0, |
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
+1,3121 = c20 , |
|
|
|
|
|
|||
|
|
|
|
|
|
−30,649b21 |
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
−0,3578 = 0, |
|
|
|
|
|
|
||
|
|
|
|
|
|
−3,2009b21 |
. |
|
|
|
|
|
|||||||
|
|
|
|
|
|
−1,1003 |
b21 |
+0,1076 = |
c22 |
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Решение имеет вид:
b12 =10,23;c11 =6,86;c10 =17,23;b21 = −0,1118;c20 = 4,738;c22 =0,2306.
220