
- •Введение
- •1. Понятие о прогнозировании и математическом моделировании
- •1.1. Понятие о прогнозировании и прогностике
- •1.2. История развития прогностики как науки
- •Современное состояние методологии прогнозирования
- •1.4. Понятие о математическом моделировании и его роли в прогнозировании
- •Корреляционный и регрессионный анализ
- •Функциональная и статистическая зависимости
- •Корреляционный анализ
- •Проверка значимости коэффициента корреляции
- •Корреляционное отношение
- •2.5. Парная линейная регрессия
- •Первое уравнение системы (2.15) можно преобразовать к виду
- •Множественная линейная регрессия
- •Умножив обе части уравнения слева на матрицу , получим
- •Некоторые вопросы практического применения
- •Линейные регрессионные модели с переменной структурой. Фиктивные переменные
- •Нелинейные модели регрессии
- •Обобщенная линейная модель. Гетероскедастичность остатков
- •Системы одновременных уравнений
- •Системы независимых и взаимосвязанных (совместных) уравнений
- •Структурная и приведенная формы экономической модели. Условия индетификации.
- •Анализ временных рядов и прогнозирование
- •Анализ временных рядов
- •Критерий случайности
- •Показатели динамики временных рядов
- •Формулы для расчета показателей представлены в табл. 4.1. Т а б л и ц а 4. 1. Показатели динамики
- •Выделение тренда. Сглаживание и выравнивание
- •Линейные модели тренда Предположим, что имеет место линейная зависимость , т. Е.
- •Первое уравнение системы (4.6) можно преобразовать к виду
- •Полиноминальные модели прогнозирования
- •Найдем ковариационную матрицу оценок
- •Стационарные временные ряды. Автокорреляционная функция
- •Адаптивные модели прогнозирования
- •Модель с цикличностью развития
- •Диагностическая проверка адекватности моделей. Критерий Дарбина–Уотсона
- •4.11. Основные проблемы идентификации статистических моделей прогнозирования
Проверка значимости коэффициента корреляции
После того, как
вычислен выборочный коэффициент
корреляции
,
следует проверить гипотезу об отсутствии
корреляционной связи для генеральной
совокупности Н0:
.
Для этого вычисляется критерий
(2.7)
и сравнивается с
табличным значением
критерия
Стьюдента с
степенями
свободы уровня значимости
.
Если
,
то с надежностью
можно отвергнуть гипотезу Н0
и считать, что корреляция имеется.
Частный коэффициент
корреляции
,
вычисленный на основе выборки объема
n,
имеет такое же распределение, как и
,
вычисленный по
наблюдениям. Поэтому значимость частного
коэффициента корреляции
проверяют так же, как и обычного
коэффициента корреляции, но при этом
полагают, что
.
Корреляционное отношение
Для измерения тесноты связи между двумя случайными величинами используется не только коэффициент корреляции, но и корреляционное отношение.
Рассмотрим аналитическую группировку. Имеет место следующее соотношение
,
(2.8)
где
−
полная дисперсия признака-результата;
−
внутригрупповая
дисперсия;
−
межгрупповая
дисперсия.
Внутригрупповая дисперсия характеризует ту часть дисперсии признака-результата, которая не зависит от признака-фактора. Ее оценка определяется по формуле
,
(2.9)
где
–
оценка дисперсии признака-результата
в пределах отдельной
(i-й) группы по признаку-фактору;
ni – численность i-й группы;
k – количество групп;
n – общий объем выборки.
Межгрупповая дисперсия отражает ту часть общей дисперсии признака-результата, которая объясняется влиянием признака-фактора. Ее оценка определяется по формуле
,
(2.10)
где
−
групповое среднее i-й
группы;
– общее среднее
значение признака-результата.
Коэффициент детерминации определяет долю объясненной дисперсии в общей дисперсии признака-результата:
.
(2.11)
Корреляционное отношение определяется как
.
(2.12)
В литературе по эконометрике корреляционное отношение принято называть индексом корреляции.
Оно является мерой тесноты связи при любой форме зависимости, а не только линейной, как коэффициент корреляции.
2.5. Парная линейная регрессия
Следующий этап исследования корреляционной связи заключается в том, чтобы описать зависимость признака-результата от признака-фактора некоторым аналитическим выражением.
;
,
где
−
средний уровень показателя Y
при данном значении x;
ε – случайная компонента.
Модель парной линейной регрессии может быть записана и в следующем виде:
где xi – значение переменной X в i-м наблюдении;
yi – значение переменной Y в i-м наблюдении;
εi – значение случайной компоненты ε в i-м наблюдении;
n – число наблюдений (объем выборки).
Основные предположения
регрессионного анализа относятся к
случайной компоненте
и имеют решающее значение для правильного
и обоснованного применения регрессионного
анализа на практике.
В классической модели регрессионного анализа имеют место следующие предположения:
1. Величины
(а также зависимые переменные
являются
случайными, а объясняющая переменная
– величина неслучайная.
2. Математическое
ожидание случайной компоненты
равно нулю
(
).
3.Случайные величины
имеют одинаковую дисперсию (
).
Данное условие называется условием
гомоскедастичности.
4. Случайные
компоненты
и
являются некоррелированными между
собой (
при
).
Эти четыре предположения являются необходимыми для проведения регрессионного анализа в рамках классической модели.
Пятое предположение дает достаточные условия для обоснованного проведения проверки статистической значимости полученных регрессий и заключается в нормальности закона распределения .
В общем случае задача оценки параметров регрессии может решаться с помощью метода наименьших квадратов (МНК).
Рассмотрим использование метода наименьших квадратов для оценки параметров регрессии
. (2.13)
На практике имеется серия наблюдений (xi;yi) (i=1,..,n).
При этом
.
Тогда
.
(2.14)
Возьмем частные
производные Q
по параметрам
и
и приравняем их нулю:
,
(2.15)
.