Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции по эконометрике.doc
Скачиваний:
4
Добавлен:
01.05.2025
Размер:
1.16 Mб
Скачать

3.3. Матричная форма метода наименьших квадратов.

3.3.1.Уравнение наблюдений в матричной форме

Запишем наблюдения в каждой точке i:

(3.4)

Введем в рассмотрение матрицу плана наблюдений или матрицу базисных функций (не путать с вектором ).

(3.5)

Тогда при условии линейного вхождения вектора параметров в модель, получим:

(3.6)

Справедливость уравнения (3.6) проверяется переводом уравнения (3.6) в скалярную форму по правилу умножения матрицы X на вектор .

В уравнении наблюдений (3.6)

= (b0,b1,….,bj,….bn); - nмерный вектор оцениваемых параметров;

= (e0,e1,….,ej,….en); - Nмерный вектор остатков;

= (y0,y1,….,yj,….yn); - Nмерный вектор наблюдений.

Замечание: Если структура модели нелинейна по , т.е. входит в базисную функцию, то записать уравнение (3.6) невозможно и классический метод наименьших квадратов непримерим.

3.3.2.Нормальные уравнения регрессии и формула для параметров уравнения

Используем известную формулу из матричной алгебры:

(3.7)

Тогда, опуская стрелки с учетом того, что получаем:

(3.8)

(3.9)

Система нормальных уравнений запишется в виде:

(3.10)

где (XTX) – матрица нормальных уравнений.

Пусть обратная матрица (XTX)-1 существует (она называется информационной матрицей Фишера). Тогда:

В противном случае det(XTX)-1=0 и матрица нормальных уравнений необратима.

Если det(XTX)-10, но очень мал, то обращаемая матрица плохо обусловлена. Возникает вычислительные проблемы обращения матриц большей размерности.

3.4. Предпосылки метода наименьших квадратов

Классический метод наименьших квадратов, лежащий в основе регрессионного анализа, предъявляет довольно жесткие требования к базе данных и свойствам полученных случайных остатков:

Должны выполняться ряд условий (предпосылки) метода наименьших квадратов.

Пусть выполнена основная предпосылка эконометрического анализа, т.е. моделируемую случайную величину Y можно разбить на две части объясненную и случайную:

Перечислим предпосылки классического метода наименьших квадратов.

1). Зависимая переменная Yi и возмущения Ei – это случайные величины, а вектор объясняющих переменных Хi – неслучайный (детерминированный).

2). Математическое ожидание возмущений Ei равно 0:

MEi=0

3). Дисперсия возмущений Ei (дисперсия зависимой переменной Yi) постоянна:

(3.12)

где Еn – матричная единица.

Это условие называется гомоскедастичностью или равноизменчивостью возмущения Ei (зависимой переменной Yi). На рисунке 3.1. показан случай нарушения свойства гомоскедастичности: , т.е. для разных диапазонов изменения х дисперсия существенно изменяется (зависит от х).

Frame1

4). Возмущения Ei и Ej (или наблюдение Yi и Yj) не корректированы:

M(EiEj)= 0 ; ij (3.13)

5). Ранг матрицы плана X[Nxn] должен быть не более числа опытов N:

r=k < N,

где, k – число членов регрессии. Ранг r равен числу линейно независимых столбцов матрицы X.

6). Возмущения Ei (или зависимая переменная Yi) есть нормально распределенная случайная величина

EN(0;2En). (3.14)

При выполнении всех предпосылок 1…5 и 6 модель называется классической нормальной регрессионной моделью.

Замечание 1: Формально уравнение регрессии можно построить и без предпосылки  о нормальном ЗР? возмущений Ei. Однако при этом модель не имеет практического смысла, поскольку невозможно оценить:

  • адекватность;

  • точность;

  • доверительные интервалы оценок коэффициентов и Y.

В этих операциях используется НЗР ? (критерий Стьюдента)

Замечание 2: Для получения адекватного, хорошего интерпретируемого (с возможностью раздельной оценки вклада каждого фактора) уравнения регрессии с необходимой точностью требуется выполнение еще одной седьмой предпосылки.

7). Отсутствие мультиколлинеарности.

Мультиколлениарность – это наличие линейной корреляции объясняющих переменных между собой.

Предпосылки метода наименьших квадратов проверяются как соответствующие статистические гипотезы.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]