Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Shpory_EM_polnaya.doc
Скачиваний:
1
Добавлен:
01.03.2025
Размер:
7.83 Mб
Скачать
  1. Понятие статистической процедуры оценивания параметров эконометрической модели. Линейные стат. Процедуры. Требования к наилучшей стат. Процедуре.

Пусть имеется выборка

значений переменных x и y модели

Данная выборка получена на этапе наблюдения и предназначена для оценивания параметров модели

В рамках данной модели величины (*) связаны следующей СЛАУ:

Она называется системой уравнений наблюдения объекта в рамках исследуемой линейной модели, или иначе – схемой Гаусса-Маркова. Вот компактная запись этой схемы .

где - вектор известных значений эндогенной переменной yt модели;

- вектор неизвестных значений случайных возмущений ut;

- матрица известных значений предопределенной переменной x исходной модели, расширенная столбцом единиц (при наличии a0);

Наконец, – вектор неизвестных коэффициентов уравнения модели.

Оценку вектора обозначим . Тот факт, что эта оценка вычисляется по выборочным данным при помощи некоторой статистической процедуры, отразим:

где f(· , ·) – символ процедуры.

Данная процедура именуется линейной относительно вектора значений эндогенной переменной yt, если: .

, где матрица коэффициентов, зависящих только от выборочных значений X предопределенной переменной хt.

Класс таких всевозможных линейных процедур оценивания по исходной выборке вектора обозначим символом F.

Наилучшая процедура f*(· , ·) из выбранного класса процедур F должна генерировать оценку , которая обладает одновременно двумя свойствами:

, i=0,1 (эффективности).

  1. Теорема Гаусса-Маркова – Эйткена. Вывод выражения .

Теорема (Гаусс, Марков, Эйткен).  Пусть матрица X уравнений наблюдений размера n (k+1), где n>(k+1), обладает линейно-независимыми столбцами, а случайные возмущения удовлетворяют 4-м условиям:

E(u1) = E(u2) = ... = E(un) = 0,  (1)

Var(u1)=..=Var(un)=σ2 (2)

Cov(ui,uj)=0, ij (3)

Cov(xmi,uj) = 0 при всех значениях m=1,…k; i и j. (4)

Тогда:

a) наилучшая линейная процедура (9.12) имеет вид

(5)

б) линейная несмещённая эффективная оценка (9.21) обладает свойством наименьших квадратов

(6)

в) ковариационная матрица оценки (9.21) вычисляется по правилу

; (7)

г) несмещённая оценка параметра 2 модели находится по формуле:

(8)

где (k+1) – количество неизвестных коэффициентов функции регрессии.

Доказательство а.

Нам необходимо отыскать процедуру M(X), трансформирующей вектор в вектор наилучших оценок коэффициентов. Тогда наша задача построить , удовлетворяющим двум условиям оптимальности.

Из предпосылок (1), (4), а также свойств ковариации следует, что

Cov(

Также (11) можно представить в виде

Или . (12)

Теперь рассмотрим требование о минимальной дисперсии.

(из свойства Var(ax+by)= )

Тогда получим следующую задачу

Решив задачу получим

Подставим в(9) и получим (13)

Теперь сопоставляя (10) и (13) получим

ЧТД

  1. Теорема Гаусса-Маркова – Эйткена. Вывод выражения Cov .

Теорема (Гаусс, Марков, Эйткен).  Пусть матрица X уравнений наблюдений размера n (k+1), где n>(k+1), обладает линейно-независимыми столбцами, а случайные возмущения удовлетворяют 4-м условиям:

E(u1) = E(u2) = ... = E(un) = 0,  (1)

Var(u1)=..=Var(un)=σ2 (2)

Cov(ui,uj)=0, ij (3)

Cov(xmi,uj) = 0 при всех значениях m=1,…k; i и j. (4)

Тогда:

a) наилучшая линейная процедура (9.12) имеет вид

(5)

б) линейная несмещённая эффективная оценка (9.21) обладает свойством наименьших квадратов

(6)

в) ковариационная матрица оценки (9.21) вычисляется по правилу

; (7)

г) несмещённая оценка параметра 2 модели находится по формуле:

(8)

где (k+1) – количество неизвестных коэффициентов функции регрессии.

Доказательство в.

Рассмотрим процедуру Эйткена

С учетом и (теорема Фишера),

Где M = , получим (9)

В том случае, когда выполнены (2),(3) , то , тогда (9) превращается в (7)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]