- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ
a1 |
|
|
r12 |
r13 |
... |
r1m |
|
1 |
|||||
|
|
r21 |
1 |
r23 |
... |
r2m |
a2 |
|
r32 |
1 |
... |
r3m |
|
... |
= r31 |
|||||
|
|
|
|
|
|
|
|
|
... ... ... ... ... |
||||
am |
|
rm2 |
rm3 |
... |
1 |
|
|
|
rm1 |
−1 |
|
|
|
|
r1y |
|
|
|
|
|
|
|
r2 y |
(3.23) |
|
× |
|
||
|
|
|
|
|
|
|
|
|
rmy |
|
|
|
|
|
|
Уравнение в исходных переменных имеет вид:
Y = β0 +β1 X 1+β2 X 2 +...+βm X m +ε. |
(3.24) |
Оценки параметров моделей (3.22) и (3.24) связаны соотношениями:
b j =a j |
S y |
( j =1,...,m) , |
|
S x j |
|||
|
(3.25) |
b0 =Y −b1 X 1−b2 X 2 −...−bm X m .
§ 10. Частные уравнения регрессии
На основе линейного уравнения множественной регрессии:
Y = β0 +β1 X 1+β2 X 2 +...+βm X m +ε
могут быть найдены частные уравнения регрессии, которые связывают зависимую переменную Y с объясняющей переменной Xj при закреплении остальных объясняющих переменных на среднем уровне. Частные уравнения регрессии имеют следующий вид:
Y x1 x2 ,x3,...,xm = β0 +β1X 1+β2 X 2 +β3 X 3 +...+βm X m +ε, Y x2 x1,x3,...,xm = β0 +β1X 1+β2 X 2 +β3 X 3 +...+βm X m +ε,
…………………………………………………..
Y xm x1,x2 ,...,xm−1 = β0 +β1 X 1+β2 X 2 +...+βm−1X m−1+βm X m +ε .
84
При подстановке в эти уравнения средних значений соответствующих объясняющих переменных они принимают вид уравнений парной линейной регрессии. Оценки моделей примут вид:
Y x1 x2 ,x3,...,xm =B1+b1 X 1 , Y x2 x1,x3,...,xm =B2 +b2 X 2 ,
…………………..
Y xm x1,x2 ,...,xm−1 =Bm +bm X m ,
где свободные коэффициенты равны:
B1 =b0 +b2 X 2 +b3 X 3 +...+bm X m , B2 =b0 +b1X 1+b3 X 3 +...+bm X m ,
………………………………..
Bm =b0 +b1X 1+b2 X 2 +...+bm−1 X m−1 .
В отличие от парной регрессии частные уравнения регрессии характеризуют изолированное влияние объясняющей переменной на зависимую, ибо остальные объясняющие переменные модели закреплены на неизменном уровне. Влияние остальных объясняющих переменных присоединено к свободным коэффициентам Bj. Это позволяет определить частные коэффициенты эластичности:
Эx j =b j × |
X j |
. |
|
Y x j x1,x2 ,...,x j−1,x j+1,...,xm |
|||
|
|
||
|
|
|
Резюме
Множественная линейная регрессия является обобщением парной линейной регрессии на несколько объясняющих переменных. При выполнении предпосылок Гаусса–Маркова оценки параметров уравнения множественной линейной регрессии, полученные методом наименьших квадратов, обладают свойствами несмещенности, эффективности и состоятельности. Статистическая значимость коэффициентов и качество подбора уравнения проверяются с помощью распределений Стьюдента и Фишера. Коэффициент при объясняющей переменной показывает, на сколько единиц изменится
85
зависимая переменная, если объясняющая вырастет на одну единицу при фиксированном значении остальных объясняющих переменных. В случае множественной регрессии дополнительно предполагается отсутствие мультиколлинеарности объясняющих переменных.
Вопросы для самопроверки
1.С какой целью применяется скорректированный коэффициент детерминации? Запишите формулу для его расчета.
2.Как ведет себя обычный коэффициент детерминации при введении в модель множественной линейной регрессии дополнительной объясняющей переменной?
3.Какая дополнительная, по сравнению с парной регрессией, предпосылка Гаусса–Маркова используется в модели множественной регрессии?
4.Что и при каких условиях показывает коэффициент при ка- кой-либо объясняющей переменной в модели множественной линейной регрессии?
5.Как связаны коэффициенты модели в исходных и стандартизованных переменных?
6.Каков смысл коэффициентов при объясняющих переменных
встандартизованной модели?
7.Через какую точку всегда проходит график уравнения парной линейной регрессии в стандартизованной модели?
8.Через какую точку всегда проходит график уравнения парной линейной регрессии в исходных переменных?
9.Пусть все стандартизованные объясняющие переменные равны нулю. Чему равно значение стандартизованной зависимой переменной? Чему при этом равно значение исходной зависимой переменной?
10.Как получают частные уравнения регрессии?
11.Как получают стандартизованные значения переменных?
12.Студент построил следующую модель:
ˆy =b0 +b1x1+b2 x2 ,
86