Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
shpory_ekzamen_ekonometrika.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
23.75 Mб
Скачать

23. Уровень значимости и степени свободы пр проверке значимости уравнения регрессии.

Уровень значимости α – вероятность отвергнуть правильную гипотезу, но при условии, что она верна (ошибка первого рода). Обычно α принимается равной 0,05 или 0,01.

По таблице определяется при уровне значимости и степенями свободы и . Если , то значим (значимо отличается от нуля).

24. В качестве меры точности аппроксимации применяют несмещенную

оценку дисперсии остаточной компоненты 2

S e, определяемой по формуле:

Se^2=1/(n-m-1)*∑ei^2

Для модели парной регрессии: Se^2=1/n-2* ∑ei^2

25. Анализ статистической значимости параметров модели регрессии y i = ˆa0 + ˆa 1xi + e

Значения yi , соответствующие данным xi при теоретических значениях a0 и a1 являются случайными. Случайными являются рассчитанные по

конкретным данным и параметры ˆ a0 и ˆ a1 .

Надежность полученных оценок ˆ a0 и a1 равна:

ei=yi-ˆ a0 -ˆ a1xi

Оценка статистической значимости коэффициентов регрессии и корреля-

ции осуществляется с помощью t -критерия Стьюдента. Расчетные значения

статистик имеют вид:

26. Оценка статистической значимости коэффициентов регрессии

Оценка статистической значимости коэффициентов регрессии и корреляции осуществляется следующим образом.

Выдвигается гипотеза 0 H о случайной природе параметров, т.е. о незначимом их отличии от нуля. Оценка значимости коэффициентов регрессии и корреляции с помощью t -критерия Стьюдента проводится путем сопоставления их значений с величиной их случайной ошибки

a 1=[ ˆa 1]/S ˆa 1

Стандартные ошибки параметров линейной регрессии можно записать в более удобном для расчета виде

Sˆao=Se/Корень из С00-соотв. диагональный элемент.

Сравнивая tфакт и t – табл , значение t-статистики, принимаем или отвергаем гипотезу Н 0.

Если tфакт > tтабл , то H0 отклоняется, а это значит, что ˆ a 0, ˆ a r xy не случайно отличаются от нуля и сформировались под влиянием систематически действующего фактора X . Если tфакт < tтабл , то гипотеза H0 не отклоняется и признается случайная природа формирования ˆ a 0, ˆ a r xy.

27. Доверительные интервалы параметров регрессии

Для расчета доверительного интервала определяем предельную ошибку для каждого параметра:

,

Формулы для расчета доверительных интервалов имеют следующий вид:

.

Величина tтабл представляет собой табличное значение t-критерия Стьюдента под влиянием случайных факторов при степени свободы k = n–2 и заданном уровне значимости α.

Если в границы доверительного интервала попадает ноль, т. е. нижняя граница отрицательна, а верхняя положительна, то оцениваемый параметр принимается нулевым, так как он не может одновременно принимать и положительное, и отрицательное значения.

28.Прогнозирование с применением уравнения регрессии. Средняя стандартная ошибка прогноза. Точечный прогноз заключается в получении прогнозного значения уp, которое определяется путем подстановки в уравнение регрессии

y^x = a+b*x соответствующего (прогнозного ) значения xp

yp=a+b*xp Интервальный прогноз заключается в построении доверительного интервала прогноза, т. е. нижней и верхней границ уpmin , уpmax интервала, содержащего точную величину для прогнозного значения y^p (ypmin< y^p < ypmin)

Доверительный интервал всегда определяется с заданной вероятностью (степенью уверенности), соответствующей принятому значению уровня значимости α.

Предварительно вычисляется стандартная ошибка прогноза m y^p

m y^p = δост *

где

и затем строится доверительный интервал прогноза, т. е. определяются нижняя y^pmin и верхняя y^pmax границы интервала прогноза

y^pmin = y^p - y^p ; y^pmax = y^p + y^p , где ∆ y^p =t табл * m y^p

29.Модель множественной регрессии. Виды моделей множественной регрессии. Построение модели множественной регрессии( или многофакторная модель)заключается в нахождении уравнения связи нескольких показателей У и Х12 и т.д., т.е. определяется как повлияет изменение показателей Хi на вечелину У.

30.Теоритическое и эмпирическое линейное уравнение множественной регрессии.

Матричная форма: У=ХА+Е (2.3.5)

31. Матричная форма записи и матричная формула оценки параметров множественной регрессии.

матричном виде:  , где Yв – вектор выборочных данных наблюдений исследуемой переменной (n элементов), Xв – матрица выборочных данных наблюдений факторных переменных ( элементов), А – вектор параметров уравнения (m+1 элементов), а E – вектор случайных отклонений (n элементов):  

Оценка параметров модели множественной регрессии производится с

помощью МНК по формуле:

32.Две схемы отбора факторов для построения модели множественной регрессии.

33.Направления статистического анализа множественного регрессионного уравнения.

Как правило, регрессионному анализу предшествует анализ корреляционной зависимости переменных, который позволяет установить наличие связи между анализируемыми переменными, оценить ее тесноту и определить направление (прямая или обратная связь). Кроме того, в ходе корреляционного анализа происходит отбор существенных факторов, включаемых в уравнение регрессии. 

34.коэф.дет.,коэф.корреляции,скорректированный коэф.множественной детерминации.

Скорректированный коэф.детерм:

35.проверка значимости регр.модели с помощью критерия Фишера.

36.Анализ статистической значимости параметров аj

37.Выполнение предпосылок МНК.

38.Анализ влияния факторов на основе многофакторных регрессионных моделей: бета-коэффициент В, дельта-коэффициент.

39.Прогнозирование показателя У по множественной регрессионной модели. Доверительный интервал для точечного прогноза.

40. Понятие мультиколлинеарности, главные признаки мультиколлинеарности, последствия мультиколлинеарности. Методы устранения мультиколлинеарности.

Одним из условий регрессионной модели является предположение о линейной независимости объясняющих переменных. Для экономических показателей это условие выполняется не всегда.Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных, которая приводит к линейной зависимости нормальных уравнений.

Главными признаками мультиколлинеарности являются:

  • наличие высоких значений парных коэффициентов корреляции

  • наличие малых значений оценок параметров модели при высоком уровне коэффициента детерминации и -критерия Фишера;

  • существенное изменение оценок парам.модели при дополнительном введении в нее новой объясн. переменной;

  • резкое изменение значений параметров при дополнительном увеличении числа наблюдений.

Основными последствиями мультиколлинеарности являются:

  • снижениеточностиоцениваемыхпараметров;

  • оценки некоторых параметров модели могут показать нарушение гипотезы о значимости связи;

  • оценки параметров модели становятся очень чувствительными к размерам совокупности наблюдений и даже небольшое ее увеличение иногда может приводить к значительным изменениям в оценках параметров;

  • эконом.интерпретация параметров уравнения регрессии затруднена, так как некоторые из его коэффициентов могут иметь неправильные, с точки зрения эконом. теории, знаки и неоправданно большие значения.

Методы устранения мультиколлинеарности

Устранить мультиколлинеарность в эконометрической модели можно, отбросив одну из переменных мультиколлинеарной пары. Но такой метод часто противоречит действительности экономических связей между факторами и к нему надо относиться осторожно.

Можно преобразовать объясняющие переменные и вместо их абсолютных значений взять их отклонения от средней. Можно также взять их относительные значения: или стандартизировать объясняющие переменные, что предложено в рассмотренном алгоритме Фаррара-Глобера.

Если вышеуказанные приёмы не помогают исключить мультиколлинеарность, то надо поменять спецификацию модели (взять не линейную, а другой вид модели).

Если и эти действия не привели к необходимой цели, то есть мы не избавились от мультиколлинеарности, то оценки параметров следует рассчитывать с помощью другого метода, например, метода главных компонент.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]