Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
2 к сессия / Экономико-матем моделирование / Математическое моделирование 2.doc
Скачиваний:
146
Добавлен:
22.02.2016
Размер:
7.41 Mб
Скачать

С помощью формулы (3.2.2) найдем d -статистику:

= 8,03/3,45 = 2,33

Вычисленное значение dсравнивается с интервалами, найденными в соответствии со значениямии(приложение З). Здесьп– количество наблюдений,т– число факторов,– уровень значимости. Найдем по таблице (приложение З) нижнее и верхнее значения статистики Дарбина-Уотсона при 5%-ном уровне значимости, то есть при=0,05:и. Расчет доверительные интервалов дляd – статистики представим в таблице 3.12:

Таблица 3.12

Расчет интервалов

Принимаем гипотезу о существовании положительной

автокорреляции

Зона неопре-делен-ности

Принимаем гипотезу об отсутствии

автокорреляции

Зона неопре-делен-ности

Принимаем гипотезу о существовании отрицательной

автокорреляции

0

4

0 0,88

1,32 2,68

3,12 4

Из таблицы видно, что d - статистика удовлетворяет неравенству:

1,32 < 2,33 < 2,68,

значит, по критерию Дарбина-Уотсона, принимаем гипотезу об отсутствии автокорреляции остатков.

Замечание.

Если значение d-статистики удовлетворяет неравенствамили, то при выбранном уровне значимости не возможно сделать вывод о наличии или об отсутствии автокорреляции остатков, необходимо дальнейшее исследование. Это является недостатком критерия Дарбина-Уотсона.

3.3. Мультиколлинеарность

На практике при количественной оценке параметров эконометрической модели довольно часто сталкиваются с проблемой взаимосвязи между объясняющими переменными. Если взаимосвязь довольно тесная, то оценка параметров модели может иметь большую погрешность. Такая взаимосвязь между объясняющими переменными называется мультиколлинеарностью. Проблема мультиколлинеарности возникает только для случая множественной регрессии, поскольку в парной регрессии одна объясняющая переменная. Оценка коэффициента регрессии может оказаться незначимой не только из-за несущественности данного фактора, но и из-за трудностей, возникающих при разграничении воздействия на зависимую переменную двух или нескольких факторов. Это проявляется, когда факторы изменяются синхронно. Связь зависимой переменной с изменениями каждого из них можно определить, только если в число объясняющих переменных включается только один из этих факторов.

Природа мультиколлинеарности нагляднее всего проявляется, когда между объясняющими переменными существует строгая линейная связь. Это строгая мультиколлинеарность, когда невозможно разделить вклад каждой переменной в объяснение поведения результативного показателя. Чаще встречается нестрогая, или стохастическая мультиколлинеарность, когда объясняющие переменные коррелированы между собой. В этом случае проблема возникает только тогда, когда взаимосвязь переменных влияет на результаты оценки регрессии.

Основные последствия мультиколлинеарности:

  • понижается точность оценки параметров регрессии, что проявляется в трех аспектах:

- ошибки некоторых оценок становятся очень большими;

- эти ошибки сильно коррелированными друг с другом;

- выборочные дисперсии сильно возрастают;

  • коэффициенты некоторых введенных в регрессию переменных оказываются незначимыми, но в силу экономических соображений именно эти переменные должны оказывать заметное влияние объясняемую переменную;

  • оценки коэффициентов становятся очень чувствительными к выборочным наблюдениям (небольшое увеличение объема выборки приводит к очень сильным сдвигам в значениях оценок).