- •1. Основные понятия и особ-ти эконометрического метода
- •2. Типы экономических данных, используемых в эконометрических исследованиях.
- •3. Специфика экономических данных.
- •4. Классификация эконометрических моделей.
- •5. Основные этапы построения эконометрических моделей.
- •6. Функциональные и стохастические типы связей. Ковариация, корреляция
- •7. Анализ линейной стат-кой связи экономических данных, корреляция, вычисление коэф-в корреляции. Проверка значимости
- •8. Измерение тесноты связи между показателями. Анализ матрицы коэффициентов парной корреляции.
- •9. Регрессионный анализ. Зависимые и независимые переменные
- •10. Предпосылки применения мнк.
- •2. В модели ( ) возмущение (или зависимая переменная ) есть величина случайная, а объясняющая переменная - величина неслучайная.
- •11. Свойства оценок мнк
- •12. Лин модель парной регрессии. Оценка параметров модели с пом мнк.
- •13. Показатели качества регрессии модели парной регрессии.
- •14. Анализ статистической значимости параметров модели парной регрессии.
- •15. Интервальная оценка параметров модели парной регрессии.
- •16. Проверка выполнения предпосылок мнк.
- •17. Интервалы прогноза по лин ур-нию парной регрессии. (Прогнозирование с применением ур-ния регрессии)..
- •18. Понятие и причины гетероскедастичности. Последствия гетероскедастичности. Обнаружение гетероскедастичности.
- •19. Нелинейная регрессия. Нелинейная модель и их линеаризация.
- •21. Мультиколлинеарность. Ее последствия. Способы обнаружения. Способы избавления.
- •20. Модель множественной регрессии. Выбор вида модели и оценка ее параметров
- •22. Отбор факторов при построении множественной регрессии. Процедура пошагового отбора переменных.
- •23. .Модель множеств регрессии.Выбор вида модели и оценка ее параметров.
- •24. Оценка параметров множественной регрессии методом наименьших квадратов (мнк). Свойства оценок мнк.
- •25. Понятие и причины автокорреляции остатков. Последствия автокорреляции остатков. Обнаружение автокорреляции остатков.
- •26. Проверка качества многофакторных регрессионных моделей. Оценка качества всего ур-ния регрессии.
- •27. Проверка качества многофакторных регрессионных моделей.Коэф-т детерминации r2. Скорректированный r2. Проверка гипотез с пом т-статистик и ф-статистик.
- •28. Оценка существенности параметров линейной регрессии.
- •29. Оценка влияния факторов на зависимую переменную (коэф-ты эл-ти,бета коэф-ты)
- •30. Анализ эк объектов и прогнозирование с помощью модели множ регрессии.
- •32. Регрессионные модели с переменной структурой (фиктивные переменные)
- •33. Многомерный статистический анализ. Задачи классификации объектов: кластерный анализ, дискриминантный анализ.
- •34. Мса. Задачи снижения размерности: факторный анализ, компонентный анализ.
- •35. Системы линейных одновременных уравнений (соу). Взаимозависимые и рекурсивные системы.
- •36. Косвенный мнк
- •37. Системы линейных одновременных уравнений.Условия идентификации
33. Многомерный статистический анализ. Задачи классификации объектов: кластерный анализ, дискриминантный анализ.
МСА – одно из направлений развития одномерной статистики. В наст. вр. в условиях рыночной экономики методы многомерного анализа актуальны, т.к. соответствуют многовариантному подходу. В МСА выделяют 3 группы методов: 1. факторный анализ, 2. кластерный анализ, 3. дискриминантный анализ. Факторный анализ предназначен для выявления в данной совокупности латентных (неявных) признаков, характеризующих систему. Экономическая система описывается большим числом показателей, что неудобно для анализа. За счет вращения этих показателей (опр. линейных комбинаций) исходная совокупность данных сокращается за счет замены ее главными факторами. Задачи: 1. отыскание скрытых, но объективно существующих закономерностей; 2. сжатие информации; 3. выделение главных факторов; 4. построение регрессионных моделей.
Кластерный анализ — это совокупность методов, позволяющих классифицировать многомерные наблюдения, каждое из которых описывается набором признаков (параметров) Х{9 Х2,..., Л^. Целью кластерного анализа является образование групп схожих между собой объектов, которые принято называть кластерами (класс, таксон, сгущение).
Кластерный анализ — одно из направлений статистического исследования. Особо важное место он занимает в тех отраслях науки, которые связаны с изучением массовых явлений и процессов. Необходимость развития методов кластерного анализа и их использования продиктована тем, что они помогают построить научно обоснованные классификации, выявить внутренние связи между единицами наблюдаемой совокупности. Кроме того, методы кластерного анализа могут использоваться в целях сжатия информации, что является важным фактором в условиях постоянного увеличения и усложнения потоков статистических данных.
Методы кластерного анализа позволяют решать следующие задачи [2]:
проведение классификации объектов с учетом признаков, отражающих сущность, природу объектов. Решение такой задачи, как правило, приводит к углублению знаний о совокупности классифицируемых объектов;
проверка выдвигаемых предположений о наличии некоторой структуры в изучаемой совокупности объектов, т.е. поиск существующей структуры;
Дискриминантный анализ является разделом многомерного статистического анализа, который включает в себя методы классификации многомерных наблюдений по принципу максимального сходства при наличии обучающих признаков.
Напомним, что в кластерном анализе рассматриваются методы многомерной классификации без обучения. В дискрими-нантном анализе новые кластеры не образуются, а формулируется правило, по которому объекты подмножества подлежащего классификации относятся к одному из уже существующих (обучающих) подмножеств (классов), на основе сравнения величины дискриминантной функции классифицируемого объекта, рассчитанной по дискриминантным переменным, с некоторой константой дискриминации.
Наиболее часто используется линейная форма дискриминантной функции, которая представляется в виде скалярного произведения векторов А=(а1,а2,...,аp дискриминантных множителей и вектора Хi=(хi1,хi2,…,хip) дискриминантных переменных:
или
Здесь Xi – транспонированный вектор дискриминантных переменных; хij — значений j-х признаков у i-го объекта наблюдения.