- •1. Описательная статистика
- •1.1. Ряды наблюдений и их характеристики
- •1.2. Эмпирические распределения случайной величины
- •1.3. Теоретические функции распределения случайной величины
- •1.4. Функции распределения, используемые в эконометрии
- •Теоретические вопросы и задания
- •2. Случайные ошибки измерения
- •2.1. Первичные измерения
- •2.2. Производные измерения
- •Теоретические вопросы и задания
- •3. Алгебра линейной регрессии
- •3.1. Обозначения и определения
- •3.2. Простая регрессия
- •3.3. Ортогональная регрессия
- •3.4. Многообразие оценок регрессии
- •Теоретические вопросы и задания
- •4. Основная модель линейной регрессии
- •4.1. Различные формы уравнения регрессии
- •4.2. Основные гипотезы, свойства оценок
- •4.3. Независимые факторы
- •4.4. Прогнозирование
- •Теоретические вопросы и задания
- •5. Гетероскедастичность и автокорреляция ошибок
- •5.2. Гетероскедастичность ошибок
- •5.3. Автокорреляция ошибок
- •Теоретические вопросы и задания
- •6. Ошибки измерения факторов и фиктивные переменные
- •6.1. Ошибки измерения факторов
- •6.2. Фиктивные переменные
- •6.3. Дисперсионный анализ
- •Теоретические вопросы и задания
- •7. Оценка параметров систем уравнений
- •7.1. Невзаимозависимые системы
- •7.2. Взаимозависимые или одновременные уравнения. Проблема идентификации.
- •7.3. Оценка параметров отдельного уравнения
- •7.4. Оценка параметров всех (идентифицированных) уравнений
- •Теоретические вопросы и задания
определения этой матрицы необходимо иметь |
(NJ − NJ− ) × NJ− условий. |
|||||||||||||||||||||||
Поскольку |
|
NJ − |
NJ == |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
∑ |
N |
J |
, |
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
− |
|
|
|
J |
−− |
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
J |
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
J ≠ J |
|
|
|
|
|
|
|
||||
нужное количество условий содержат требования |
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
1 |
|
|
/ |
~ |
|
|
|
J |
|
|
|
|
|
||||
|
|
|
|
|
JJ |
|
J |
JJ |
|
== 0 |
|
|
|
|||||||||||
|
|
|
|
M |
|
|
= |
|
C |
|
M |
C |
|
|
|
|
|
|||||||
J, |
|
|
N |
|
|
0 (C0 = 1). |
||||||||||||||||||
для всех |
J |
J≠ |
≠ J , включая пустое множество |
J |
= |
Таким образом, матрицы CJ всегда можно определить так, чтобы эффекты нулевого и высшего порядков были ортогональны друг с другом и с остальными эффектами, и, в частности, b0 = x .
Дисперсия s2q в общем случае не делится на факторные дисперсии, как это было в модели без повторений; точно в ней выделяется только дисперсия эффектов
высшего порядка (при указанном выборе CJ):
s2F = X/ MC~ F (CF / MC~ F )− 1 CF / MX~ ,
и для нее непосредственно можно проверить нулевую гипотезу с помощью F- критерия
s2 N −F
F .
s2e (N − N F−− 1)
Нулевые гипотезы для остальных факторных дисперсий имеют вид β J = 0, и в
числителе F-статистики помещается величина
bJ / (MJJ − 1 )− 1 bJ N J− ,
где M JJ − 1 - соответствующий блок матрицы M− 1, а в знаменателе -
s2e (N − N F−− 1) или (s2e + s2F )(N++ N −F−− N F−− 1) - если
нулевая гипотеза для s2F не отвергается.
Теоретические вопросы и задания
1(*). Доказать смещенность МНК-оценок в случае наличия ошибок в независимых переменных.
2.Почему, если известна оценка W ковариационной матрицы ошибок независимых переменных, то приведенная формула расчета оценок параметров простой регрессии обеспечивает их несмещенность?
3.Вывести формулу оценки Вальда углового коэффициента регрессии.
4(*). Почему при наличии ошибок во всех переменных применима
ортогональая регрессия? Каким образом в этом случае регрессия в метрике Ω -1 играет роль взвешенной регрессии?
5. Для модели с фиктивными переменными вывести формулы, связывающие параметры ~β ,ββ и β в общем случае.
6(*). Показать эквивалентность обоих приведенных способов устранения линейной зависимости между фиктивными переменными в исходной форме уравнения регрессии.