
- •Калининград – 2011 Содержание
- •Тема 1. Введение. Эконометрика и эконометрическое моделирование.
- •Тема 2. Временные ряды4.
- •Тема 3. Парная регрессия и корреляция.
- •3.1. Корреляционный анализ
- •Коэффициент парной корреляции
- •Множественный коэффициент корреляции
- •Частный коэффициент корреляции
- •Пример 3.1. Вычисление коэффициентов парной, множественной и частной корреляции.
- •3.2. Регрессионный анализ
- •Оценка параметров регрессионного уравнения
- •Матричная форма записи
- •Решение
- •Анализ статистической значимости параметров модели парной регрессии
- •Интервальная оценка параметров модели
- •Прогнозирование с применением уравнения регрессии
- •Решение:
- •1. Построение линейной модели парной регрессии
- •2. Построение степенной модели парной регрессии
- •3. Построение показательной функции
- •4.Построение гиперболической функции
- •Расчет прогнозного значения результативного показателя:
- •Тема 4. Множественная регрессия.
- •Оценка качества модели регрессии.
- •Использование многофакторных моделей для анализа и прогнозирования развития экономических систем.
- •Построение точечных и интервальных прогнозов на основе регрессионной модели. Какие факторы влияют на ширину доверительного интервала?
- •Коэффициент детерминации:
- •Тема 5. Системы линейных одновременных уравнений.
- •Тема 6. Многомерный статистический анализ
- •Факторный анализ
- •Кластерный анализ
- •Дискриминантный анализ
- •Постановка задачи дискриминантного анализа
- •Алгоритм выполнения дискриминантного анализа
- •4. Рассчитывается объединенная ковариационная матрица по формуле: .
- •Литература по теме 6.
- •Задание для выполнения контрольной работы по дисциплине Задача 1.
- •Приложения
- •Приложение 2. Значения t-критерия Стьюдента при уровне значимости 0,10; 0,05; 0,01 (двухсторонний)
- •Приложение 3. Критические границы отношения r/s
- •Приложение 4. D-статистика Дарбина - Уотсона: d1 и d2, уровень значимости в 5%
- •Основная
- •Дополнительная
- •Правила построения арпсс-моделей
Тема 4. Множественная регрессия.
Линейная модель множественной регрессии имеет вид:
Y
i = 0
+ 1x
i 1 +2x
i 2 +…+ m
x i m +
i
,
(4.1.)
коэффициент
регрессии j
показывает, на какую величину в среднем
изменится результативный признак Y,
если переменную xj
увеличить на единицу измерения, т. е.
j
является нормативным коэффициентом.
Обычно предполагается, что случайная
величина i
имеет нормальный закон распределения
с математическим ожиданием равным нулю
и с дисперсией
.
Анализ уравнения (4.1) и методика определения параметров становятся более наглядными, а расчетные процедуры существенно упрощаются, если воспользоваться матричной формой записи уравнения (4.2.):
Y = X + , (4.2.)
Y – это вектор зависимой переменной размерности п 1, представляющий собой п наблюдений значений уi, Х— матрица п наблюдений независимых переменных X1, X 2, X 3 , … X m, размерность матрицы Х равна п (т+1); — подлежащий оцениванию вектор неизвестных параметров размерности (т+1) 1; — вектор случайных отклонений (возмущений) размерности п 1. Таким образом,
Y =
,
X =
,
=
Уравнение (4.1) содержит
значения неизвестных параметров
0,1,2,…
,m
.
Эти величины оцениваются на основе
выборочных наблюдений, поэтому полученные
расчетные показатели не являются
истинными, а представляют собой лишь
их статистические оценки. Модель линейной
регрессии, в которой вместо истинных
значений параметров подставлены их
оценки (а именно такие регрессии и
применяются на практике), имеет вид
Y =Ха + е=+е,
(4.3)
где а — вектор
оценок параметров; е — вектор
«оцененных» отклонений регрессии,
остатки регрессии е = Y
- Ха;
—оценка
значений Y, равная Ха.
Оценка параметров модели множественной регрессии с помощью метода наименьших квадратов.
Формулу для вычисления параметров регрессионного уравнения приведем без вывода
a = (Xт X )-1 X т Y (4.4).
Одним из
условий регрессионной модели является
предположение о линейной независимости
объясняющих переменных, т. е., решение
задачи возможно лишь тогда, когда столбцы
и строки матрицы исходных данных
линейно независимы. Для экономических
показателей это условие выполняется
не всегда. Линейная или близкая к ней
связь между факторами называется
мультиколлинеарностью и
приводит к линейной зависимости
нормальных уравнений, что делает
вычисление параметров либо невозможным,
либо затрудняет содержательную
интерпретацию параметров модели.
Мультиколлинеарность может возникать
в силу разных причин. Например,
несколько независимых переменных могут
иметь общий временной тренд,
относительно которого они совершают
малые колебания. В частности, так может
случиться, когда значения одной
независимой переменной являются
лагированными значениями другой.
Считают явление мультиколлинеарности
в исходных данных установленным, если
коэффициент парной корреляции между
двумя переменными больше 0.8. Чтобы
избавиться от мультиколлинеарности, в
модель включают лишь один из линейно
связанных между собой факторов, причем
тот, который в большей степени связан
с зависимой переменной.
В качестве критерия мультиколлинеарности может быть принято соблюдение следующих неравенств:
ryxi > rxixk , ryxk > rxixk , rxixk < 0.8
Если приведенные неравенства (или хотя бы одно из них) не выполняются, то в модель включают тот фактор, который наиболее тесно связан с Y.