- •1. Основные понятия и особ-ти эконометрического метода
- •2. Типы экономических данных, используемых в эконометрических исследованиях.
- •3. Специфика экономических данных.
- •4. Классификация эконометрических моделей.
- •5. Основные этапы построения эконометрических моделей.
- •6. Функциональные и стохастические типы связей. Ковариация, корреляция
- •7. Анализ линейной стат-кой связи экономических данных, корреляция, вычисление коэф-в корреляции. Проверка значимости
- •8. Измерение тесноты связи между показателями. Анализ матрицы коэффициентов парной корреляции.
- •9. Регрессионный анализ. Зависимые и независимые переменные
- •10. Предпосылки применения мнк.
- •2. В модели ( ) возмущение (или зависимая переменная ) есть величина случайная, а объясняющая переменная - величина неслучайная.
- •11. Свойства оценок мнк
- •12. Лин модель парной регрессии. Оценка параметров модели с пом мнк.
- •13. Показатели качества регрессии модели парной регрессии.
- •14. Анализ статистической значимости параметров модели парной регрессии.
- •15. Интервальная оценка параметров модели парной регрессии.
- •16. Проверка выполнения предпосылок мнк.
- •17. Интервалы прогноза по лин ур-нию парной регрессии. (Прогнозирование с применением ур-ния регрессии)..
- •18. Понятие и причины гетероскедастичности. Последствия гетероскедастичности. Обнаружение гетероскедастичности.
- •19. Нелинейная регрессия. Нелинейная модель и их линеаризация.
- •21. Мультиколлинеарность. Ее последствия. Способы обнаружения. Способы избавления.
- •20. Модель множественной регрессии. Выбор вида модели и оценка ее параметров
- •22. Отбор факторов при построении множественной регрессии. Процедура пошагового отбора переменных.
- •23. .Модель множеств регрессии.Выбор вида модели и оценка ее параметров.
- •24. Оценка параметров множественной регрессии методом наименьших квадратов (мнк). Свойства оценок мнк.
- •25. Понятие и причины автокорреляции остатков. Последствия автокорреляции остатков. Обнаружение автокорреляции остатков.
- •26. Проверка качества многофакторных регрессионных моделей. Оценка качества всего ур-ния регрессии.
- •27. Проверка качества многофакторных регрессионных моделей.Коэф-т детерминации r2. Скорректированный r2. Проверка гипотез с пом т-статистик и ф-статистик.
- •28. Оценка существенности параметров линейной регрессии.
- •29. Оценка влияния факторов на зависимую переменную (коэф-ты эл-ти,бета коэф-ты)
- •30. Анализ эк объектов и прогнозирование с помощью модели множ регрессии.
- •32. Регрессионные модели с переменной структурой (фиктивные переменные)
- •33. Многомерный статистический анализ. Задачи классификации объектов: кластерный анализ, дискриминантный анализ.
- •34. Мса. Задачи снижения размерности: факторный анализ, компонентный анализ.
- •35. Системы линейных одновременных уравнений (соу). Взаимозависимые и рекурсивные системы.
- •36. Косвенный мнк
- •37. Системы линейных одновременных уравнений.Условия идентификации
34. Мса. Задачи снижения размерности: факторный анализ, компонентный анализ.
МСА – одно из направлений развития одномерной статистики. В наст. вр. в условиях рыночной экономики методы многомерного анализа актуальны, т.к. соответствуют многовариантному подходу. В МСА выделяют 3 группы методов: 1. факторный анализ, 2. кластерный анализ, 3. дискриминантный анализ. Факторный анализ предназначен для выявления в данной совокупности латентных (неявных) признаков, характеризующих систему. Экономическая система описывается большим числомпоказателей, что неудобно для анализа. За счет вращения этих показателей (опр. линейных комбинаций) исходная совокупность данных сокращается за счет замены ее главными факторами. Задачи: 1. отыскание скрытых, но объективно существующих закономерностей; 2. сжатие информации; 3. выделение главных факторов; 4. построение регрессионных моделей.
Метод гл. компонент.
Во многих задачах обработки многомерных наблюдений и в частности в задачах классификации исследователя интересуют лишь те признаки, γ обнаруживают наибольшую изменчивость при переходе от одного объекта к др. С др стороны не обязательно для описания состояния объекта использовать какие-то из исходных замеренных на нем признаки (например, портной делает М изделий но для покупки достаточно 2 значения : рост и объем груди). Следуя общей оптимальности постановок задачи снижения размерности выражения:
,
можно принять в качестве меры информативности p`-мерной системы показателей. Тогда при любом фиксированном р` вектор Z искомых показателей вспомогательных переменных (новых) определяется как линейная комбинация Z= исходных данных, где - вектор центрированных исходных данных.
- принцип строки, γ удовлетворяет условию ортагональностьи.
Полученных т.о. переменные и называют гл. компонентами.
35. Системы линейных одновременных уравнений (соу). Взаимозависимые и рекурсивные системы.
Регрессионное уравнение устанавливает зависимость одной величины от совокупности факторов. Как правило, нас может интересовать целый ряд величин у1, у2, у3…, которые зависят как от факторов, так и между собой. Для отображения такой паутины взаимосвязей используются системы уравнений. Они бывают 3 видов: 1. системы независимых уравнений; 2. рекурсивные системы; 3. системы взаимозависимых уравнений.
Рекурсивные системы:
Первое уравнение в таких системах является моделью множественной регрессии. В каждом последующем будут содержаться как все независимые факторы, так и зависимые переменные, оцененные ранее (предопределенные). Такие системы могут использоваться для анализа производительности труда и фондоотдачи.
Системы взаимозависимых уравнений:
Эти системы используют для анализа динамики цены и зарплаты.
36. Косвенный мнк
КМНК прим-ся в случае точно идентифицир-й структур-ой модели. Этапы примен-я:
По структур-й форме модели формальным образом выписывается приведенная форма модели.
Для каждого урав-я привед-й формы модели обычным МНК оцен-ся приведенный коэф-ты.
Коэф-ты прив-ой формы модели транс-ся в параметры структурной модели.
Пример:
Приведенная форма модели составит:
Где u1, u2 – случ-е ошибки приведенной формы модели
Из 2-го уравнения выведем значение х2 через остальные переменные:
Подставляем в первое уравнение ПФМ:
И приводим подобные слагаемые.
Потом также из первого уравнения выражаем значение х1 через у1 и х2.