
- •2. Суть корреляционного и регрессионного анализа. Основные задачи решаемые методами анализа
- •3. Поле корреляции
- •4. Линейная регрессия и корреляция, смысл и оценка параметров. Сопряженные регрессионные прямые
- •5. Метод наименьших квадратов (мнк). Обобщенный мнк
- •6. Свойства оценок мнк. Проверка качества уравнения регрессии.
- •7. Проверка значимости коэффициента корреляции и коэффициента детерминации
- •8. Оценка существенности параметров линейной регрессии и корреляции.
- •9. Интервалы прогноза по линейному уравнению регрессии. Проверка значимости оценок параметров регрессии
- •10 Влияние неучтенных факторов на коэффициент корреляции
- •11. Распределение коэффициентов регрессии и корреляции
- •12. Множественная регрессия.
- •13. Линейная модель множественной регрессии. Проверка линейности модели
- •14. Спецификация модели. Коэффициент множественной детерминации. Коэффициент частной детерминации. Коэффициент частной детерминации между объясняющими переменными
- •15. Отбор факторов при построении множественной регрессии
- •16. Мультиколлениарность
- •17. Выбор формы уравнения регрессии
- •18. Оценка параметров уравнения множественной регрессии.
- •19. Обобщенный метод наименьших квадратов
- •20. Частные уравнения регрессии
- •21. Множественная корреляция.
- •22. Частная корреляция.
- •23. Оценка надежности результатов множественной регрессии и корреляции.
- •24. Нелинейные модели регрессии. Множественная нелинейная регрессия
- •25. Логарифмические модели
- •26. Полулогарифмические модели
- •33. Метод максимального правдоподобия
- •34. Метод линеаризации
- •35. Коэффициент детерминации. Коэффициент конкордации
- •36. Функция правдоподобия в математической статистике - это совместное распределение выборки из параметрического распределения как функция параметра.
- •37. Метод Бокса-Кокса
- •38. Коэффициент ранговой корреляции Спирмена.
- •39. Коэффициенты эластичности
- •40. Фиктивные переменные
- •41. Проверка значимости для коэффициента корреляции
- •42. Проверка значимости для коэффициента детерминации.
- •43. Проверка линейной регрессии
- •44. Коэффициент детерминации при простой линейной регрессии.
- •45. Коэффициент множественной детерминации
- •46. Коэффициент частной детерминации
- •47. Коэффициент детерминации между объясняющими переменными
- •48. Стандартные ошибки оценок
13. Линейная модель множественной регрессии. Проверка линейности модели
Рассмотрим линейную модель множественной регрессии:
1)
2)
,
,
,
,
Значения признака Матрица объясняющих Вектор Вектор Вектор переменных, столбцами регрессора j случайных коэфф-тов которой являются Xj ошибок регрессии
3),
В
классической модели компоненты вектора
возмущений некоррелированы М()
= 0 при
,
а дисперсии компонент постоянны
,
ковариационная матрица возмущений
Суть
обобщения регрессионной модели состоит
в том, что ковариации и дисперсии
объясняющих переменных могут быть
произвольными (т.о. обобщенная модель
множественной регрессии отличается от
классической только видом ковариационной
матрицы).
- положительно определенная матрица
(АТ
= А и хТАх
> 0). В классической модели множественной
регрессии обычным МНК был получен вектор
оценок
параметров, он является несмещенной и
состоятельной оценкой для
.
Рассмотрим ковариационную матрицу
В
классической модели
и К =
.
В качестве выборочной оценки ковариационной
матрицы К была взята матрица
,
где
,
причемM(S2)
=
и
=
К, т.е.
-
несмещенная оценка К.
В
обобщенной модели
и К =
.
Если в качестве оценки матрицы К взять
ту же матрицу, то
,
т.е.
-
смещенная оценка для К. Т.о., обычный МНК
в обобщенной линейной регрессионной
модели дает смещенную оценку ковариационной
матрицы К вектора оценок параметров.
Следовательно, оценка не будет оптимальной
в смысле теоремы Гаусса-Маркова. Для
получения наиболее эффективной оценки
ковариационной матрицы К нужно
использовать оценку, получаемую так
называемым обобщенным МНК.
Теорема
Айткена: в классе линейных несмещенных
оценок вектора
для обобщенной регрессионной модели
оценка
имеет наименьшую ковариационную матрицу.
Для
применения обобщенного МНК надо знать
ковариационную матрицу вектора возмущений
,
что встречается крайне редко в практике
эконометрического моделирования. Если
считать всеn(n+1)/2
элементов матрицы
неизвестными параметрами обобщенной
модели (в дополнение к (р+1) параметрам
регрессии), то общее число параметров
превысит число наблюденийn,
что сделает оценку этих параметров
неразрешимой задачей.
Для
практической реализации обобщенного
МНК вводятся дополнительные условия
на структуру матрицы
.
В экономике причинно-следственные отношения между явлениями часто описываются с помощью линейных или линеаризуемых зависимостей. Разработаны статистические критерии, позволяющие либо подтвердить факт непротиворечивости линейной формы зависимости опытным данным, либо отвергнуть предложенный вид зависимости как не соответствующий этим данным. Для проверки линейности регрессии применяется следующий метод. Пусть каждому значению объясняющей переменной соответствует несколько значений зависимой переменной, по которым вычисляют частные средние и т.д. Обозначим через частное среднее, соответствующее значению объясняющей переменной:
где — число значений у, относящихся к
Найдем теперь средний квадрат отклонений значений от их частных средних:
Показатель (8.72) является мерой рассеяния опытных данных около своих частных средних, т. е. мерой, не зависящей от выбранного вида регрессии. В качестве меры рассеяния опытных данных вокруг эмпирической регрессионной прямой выбирается средний квадрат отклонений:
Оба показателя представляют собой независимые статистические оценки одной и той же дисперсии в у. Если несущественно больше то в качестве гипотетической зависимости может быть принята линейная.
Если в генеральной совокупности существует линейная регрессия и условные распределения переменной у хотя бы приблизительно нормальны, то отношение средних квадратов отклонений (8.72) и (8.73)
имеет -распределение степенями свободы. Значение подсчитанное по формуле (8.74), сравнивается с критическим найденным по табл. 4 приложения при заданном уровне значимости а и степенях свободы. Если то разница между обоими средними квадратами отклонений статистически незначима и выбранная нами линейная регрессионная зависимость может быть принята как правдоподобная, не противоречащая опытным данным. Если а, то различие между обоими средними квадратами отклонений существенно, неслучайно, и гипотеза о линейной зависимости между переменными несостоятельна. Разработаны также другие критерии проверки гипотезы о линейности регрессии. Заинтересованный читатель может найти их в соответствующей литературе [122], [76].