
- •Глава I. Основные аспекты эконометрического моделирования
- •Глава II. Корреляционный анализ
- •Глава III. Множественный регрессионный анализ
- •Глава IV. Временные ряды
- •Глава V. Некоторые вопросы практического построения регрессионных моделей
- •Введение Определение эконометрики
- •Значение эконометрики в экономике
- •Задачи эконометрики
- •Глава I. Основные аспекты эконометрического
- •1.1. Понятие о модели, системе
- •1.2. Адекватность модели
- •1.3. Модель типа черного ящика
- •1.4. Основная предпосылка эконометрического анализа
- •1.5. Построение параметрической регрессионной модели
- •1.6. Классификация эконометрических моделн.
- •1.6.1. По структуре уравнений регрессии
- •1.6.2. По способу учета динамики:
- •1.6.3. По виду связи между
- •1.6.4. По алгоритму оценки параметров модели
- •1.7. Типы данных
- •1.7.1. Данные пространственного типа
- •1.7.2. Временной (динамический) ряд
- •1.8. Этапы построения эконометрической модели
- •Глава II. Корреляционный анализ
- •2.1. Цель корреляционного анализа
- •2.2. Числовые меры корреляционной связи
- •2.2.1. Ковариация
- •2.2.2. Выборочная оценка коэффициента линейной парной корреляции
- •2.2.3. Математический смысл коэффициента линейной парной корреляции
- •2.2.4. Статистический смысл коэффициента линейной парной корреляции
- •2.2.5. Геометрическая интерпретация коэффициента корреляции
- •2.3. Проверка статистической значимости коэффициента корреляции
- •2.4. Множественный корреляционный анализ
- •2.4.1. Корреляционная матрица
- •2.4.2. Выборочный линейный коэффициент множественной корреляции
- •2.4.3. Частный коэффициент корреляции
- •2.4.4. Коэффициент детерминации
- •2.4.5. Оценка значимости множественного коэффициента детерминации
- •2.4.6. Индекс корреляции при нелинейной связи двух случайных величин
- •2.4.7. Индекс множественной корреляции
- •2.5. Коэффициент ранговой корреляции
- •Глава III. Множественный регрессионный анализ
- •3.1. Постановка задачи
- •3.2. Метод наименьших квадратов (мнк) в скалярной форме
- •3.3. Матричная форма метода наименьших квадратов.
- •3.3.1.Уравнение наблюдений в матричной форме
- •3.3.2.Нормальные уравнения регрессии и формула для параметров уравнения
- •3.4. Предпосылки метода наименьших квадратов
- •3.5. Свойства оценок, получаемых по методу наименьших квадратов
- •3.6. Оценка адекватности уравнения регрессии (проверка гипотез о предпосылках метода наименьших квадратов)
- •3.6.1.Гипотеза о близости к нулю математического ожидания остатков
- •3.6.2. Гипотеза о статистической значимости коэффициентов регрессии bj
- •3.6.3. Гипотеза о статистической значимости всего уравнения регрессии в целом
- •3.6.4. Оценка качества уравнения регрессии
- •3.6.5. Скорректированный коэффициент детерминации
- •3.6.6. Проверка гипотезы о чисто случайном характере остатков
- •3.6.7. Проверка гипотезы о нормальном законе распределения остатков
- •3.7. Точечный прогноз и оценка доверительных интервалов прогноза
- •3.8. Оценка погрешностей расчета по уравнению регрессии
- •3.9. Коэффициент эластичности, бета-коэффициент и дельта-коэффициент для линейного уравнения регрессии
- •Глава IV. Временные ряды
- •4.1. Понятие о временных рядах, их классификация
- •4.2. Компонентный анализ временных рядов
- •4.3. Понятие случайного процесса
- •4.4. Понятие о коэффициенте корреляции во временном ряде. Автокорреляционная функция (акф)
- •4.5. Выборочная оценка коэффициента автокорреляции для числа степеней свободы
- •4.6. Частный коэффициент автокорреляции
- •4.7. Предварительный анализ временных рядов
- •4.8. Авторегрессионные модели.
- •Ar(p) – порядка p
- •4.9. Авторегрессионная модель скользящей средней
- •4.10. Разностные уравнения с лаговыми пременными
- •4.11. Оценка коэффициентов авторегрессионных моделей.
- •4.12. Прогнозирование по разностной авторегрессионной модели
- •Глава V. Некоторые вопросы практического построения регрессионных моделей
- •5.1.Проблема спецификации переменных. Мультиколлинеарность
- •5.2.Способы устранения мультиколлинеарности
- •5.3. Метод пошаговой регрессии (конструктивный метод)
- •5.4. Деструктивный подход (“расщепления”) мультиколлинеарных пар
- •5.5.Случай нелинейных координатных функций
- •5.5.1.Формальная замена переменных
- •5.5.2. Специальное преобразование
- •5.6. Линейные уравнения регрессии с переменной структурой. Фиктивные переменные
- •5.7. Способ устранения коррелированности регрессоров с остатками с помощью инструментальных переменных
- •5.8. Двухшаговый метод наименьших квадратов
- •Литература
2.2.1. Ковариация
Приставка «Ко» означает «совместный» (ковариация – взаимосвязанная или совместная вариация). Генеральное значение ковариации определяется формулой:
(2.1)
Здесь М[·] - оператор вычисления математического ожидания, нуль вверху означает центрирование величины.
Заметим что в формуле (2.1) вариация случайных величин Y и X измеряется их отклонением от математических ожиданий, а условие «совместности» измерения вариаций реализуется операцией умножения внутри квадратных скобок.
2.2.2. Выборочная оценка коэффициента линейной парной корреляции
На практике вместо генеральной совокупности мы имеем выборку из неё. Будем считать выборку репрезентативной, а связь между случайными величинами Y и X – линейной:
y = b0 + b1x, (2.2)
где b0, b1 – генеральные (теоретические) значения параметров линейного уравнения регрессии (2.2.), которые будем обозначать греческими буквами, а их выборочные оценки b0, b1 – латинскими малыми буквами.
Если нормировать
ковариацию (2.1), т.е. разделить ее на
произведение средних квадратических
отклонений (СКО)
и
,
то получим коэффициент линейной парной
корреляции. Генеральное значение
коэффициента корреляции равно:
(2.3)
а выборочная оценка:
(2.4)
где,
-
выборочные оценки математических
ожиданий mx,
my;
Sx,Sy – выборочные СКО.
(2.5)
Знак при r определяет форму (характер) корреляционной связи в уравнении (2.2):
(+) положительный знак соответствует возрастающему виду зависимости (2.2) (при росте случайной величины х другая случайная величина Y тоже растет в среднем);
( - ) отрицательный знак соответствует убывающему виду, зависимости (2.2).
Таким образом,
коэффициент линейной парной корреляции
изменяется в пределах
.
2.2.3. Математический смысл коэффициента линейной парной корреляции
Предположим, что между двумя случайными величинами X и Y в среднем существует линейная связь (2.2), т.е. они связаны линейным уравнением регрессии для математических ожиданий
(2.6)
При взгляде на
уравнение регрессии видно, что измерителем
связи Y
и X
может
служить коэффициент b1.
Действительно, вычисляя производную
от функции
,
получим:
,
т.е. b1 оценивает скорость изменения функции Y при изменении аргумента X. Однако b1 неудобен как измеритель связи тем, что b1 зависит от единиц измерения X и Y. Хотелось бы иметь безразмерный показатель. Сделаем это, переходя к нормированным переменным в уравнении регрессии:
(2.7)
Коэффициент
линейной парной корреляции rx,y
есть
скорость изменения (производная)
нормированной функции
при вариации нормированного аргумента
и
линейной связи между ними.
2.2.4. Статистический смысл коэффициента линейной парной корреляции
Запишем производную в приращениях:
(2.8)
Заметим, что здесь b – это так называемый в регрессионном анализе бета-коэффициент [1,5].
Коэффициент линейной парной корреляции показывает, на сколько процентов (%)(в долях от СКО Sy) изменяется случайная величина Y, если другая величина X измениться на 1% в долях от своего СКО Sx.