Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпорки_рындина.doc
Скачиваний:
14
Добавлен:
23.09.2019
Размер:
302.59 Кб
Скачать

24. Проверка общего качества уравнения множественной регрессии.

Дисперсионный анализ

Общ факт ост

Сумма (Yi-Yср)^2= сумма (Yi расч –Y ср)^2+ сумма(Yi-Yiрасч)^2

Чсс n-1 k-1 n-k

S^2факт= (сумма (Yрасч – Y ср)^2)/k-1

S^2ост= (сумма (Yi – Yрасч )^2)/n-k

Тестир

Ho – значим число

Dост>= D факт

H1: pyfxbvj

Dост< D факт

F=Sфак^2/Sост^2

F- крит Фишера

Fкр(альфа, k-1,n-k)

Если F>Fкр- статистич значимо (H1)

F<Fкр =>Ho

R^2=(сумма (Yрасч-Yср)^2)/(сумма(Y-Yср)^2)

Через R^2=> F= (R^2/ k-1)/((1-R^2)/n-k)

F= (R^2/1-R^2)*((n-k)/k-1)

25.Коэффициент детерминации для уравнения множественной регрессии.

Для множественной регрессии коэффициент детерминации является неубывающей функцией числа объясняющих переменных. Добавление новой объясняющей переменной никогда не уменьшает значение R2, так как каждая последующая переменная может лишь дополнить, но никак не сократить информацию, объясняющую поведение зависимой переменной.  Иногда при расчете коэффициента детерминации для получения несмещенных оценок в числителе и знаменателе вычитаемой из единицы дроби делается поправка на число степеней свободы, т.е. вводится так называемый скорректированный (исправленный) коэффициент детерминации: 

Rср^2, те скорректированный коэффициент детерминации, выглядит как R^2 ср, те с палочкой на верху

Rср^2=1-(1-R^2)*n-1/n-k

(1-R^2)=(сумма (Y-Yрасч)(^2)/n-k )/(сумма(Y-Yср)(^2/n-1))

Свойства

  1. всегда меньше или равен коэф-ту детерминации

  2. позволяет сравнивать модели с разным числом объясняющих переменных (при постоянном ко-ве набл.)

26-27. Ошибки спецификации.

Переменная называется существенной (несущественной), если она должна быть (не должна быть) включена в уравнение регрессии согласно правильной теории.

Соответственно возможны две ситуации:

1. в оцениваемой модели отсутствует часть объясняющих переменных, имеющихся в истинной модели (исключение существенных переменных);

2. в оцениваемой модели присутствуют объясняющие переменные, отсутствующие в истинной модели (включение несущественных переменных).

Если совершена первая ошибка – в оцениваемую модель не включены существенные переменные то последствия этого:

1. Уменьшается возможность правильной оценки и интерпретации урав-я.

2. Коэффициенты при оставшихся переменных могут оказаться смещенными. 3. Стандартные ошибки коэф-тов, t статистики и др показатели кач-ва становятся некорректными и не могут использоваться при оценке кач-ва урав-я.

Пример: 2-факторная истинная модель, для кот оцениваемая модель не включает одну из сущ-х перем-х. Пусть истинная модель опис-ся урав-ем:

Y=Бэта0+Бэта1Х1+Бэта2Х2+ эплселент. (1)

Модель без X2: Y=B0+B1Х1+ eps*, где eps* = B2Х2+ eps. (2)

Если переменные коррелированны, нарушается условие некоррелированности случайного члена и объясняющих переменных.

Для модели (1) оценка b1 коэффициента Бэта1 - несмещенная, т е M(b1)=Бэта1. Для модели (2) оценка b1* коэффициента Бэта1 - смещенная, т е M(b1*) не=Бэта1, смещение происходит на величину Бэта2 cov(х1,х2)/D(х1). Направление смещения зависит от знака истинного значения коэффициента

знак B2 согл. теор.\ cov(x1,x2) | + | - |

+ | + | - |

- | - | + |

Пример с бензином: у – спрос, х1 – цена, х2 – количество потр-лей.

Если совершается вторая ошибка, в модель включается несущественная переменная, то последствия этого не столь значимы, как в случае первой : не теряется возможность правильной оценки и интерпретации уравнения.

1. Коэф-ты при других перем-х остаются несмещенными.

2. Стандартные ошибки растут, t -статистики уменьш-ся, эффект-ть оценок падает.

3. Несущ-ая переменная м б значимой, а, след-но,урав-е с ней дает лучшую оценку, чем без нее.

4. Увеличивается риск мультиколлинеарности

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]