
- •1. Необходимые и достаточные условия экстремума дважды непрерывно дифференцируемой функции и двух переменных.
- •Экстремумы функций двух переменных
- •2. Формула полной вероятности, формула Байеса.
- •4. Принцип наименьшего действия в механике. Функция Лагранжа. Уравнение Лагранжа.
- •5. Классификация систем по способам управления.
- •6. Модель межотраслевого баланса Леонтьева.
- •7.Классическая задача потребления. Функция индивидуального спроса.
- •8. Модель экономических циклов Самуэльсона-Хикса.
- •9. Наращение и дисконтирование с использованием простых процентных ставок.
- •10 Курсовая стоимость и доходность облигаций. Дюрация Макколея.
- •11. Учет инфляции в финансовых расчетах
- •12. Измерение риска. Способы снижения риска.
- •13. Оценка инвестиционных проектов на основе современной приведенной стоимости.
- •Метод расчета чистой приведенной стоимости (npv).
- •2) Метод расчета индекса рентабельности инвестиций (pi).
- •3) Метод расчета внутренней нормы прибыли (irr).
- •4) Расчет дисконтированного срока окупаемости инвестиций (dpp).
- •14. Субъективные оценки риска на основе метода анализа иерархии.
- •15. Обзор методов классификационного анализа (кластерный, дискриминантный, факторный)
- •16. Динамические системы в экономике. Возникновения хаоса в динамических системах на примере логистического дискретного отображения.
- •17. Математическая модель работы нейронной сети. Теоремы Колмогорова и Хехт-Нильсона. Основные типы нейронных сетей.
- •18. Представления знаний и методы их обработки.
- •19. Собственные числа и собственные векторы.
- •20. Классическая транспортная задача. Метод потенциалов.
- •21. Оценивание параметров классической линейной модели множественной регрессии.
- •22. Обобщенная линейная модель множественной регрессии и обобщенный метод наименьших квадратов.
- •Применение обобщенного метода оценивания параметров моделей на практике (некоторые случаи).
- •23. Системы одновременных уравнений в матричной форме. Проблема идентифицируемости.
- •24. Дихотомические (бинарные) результирующие показатели и связанные с ними логит- и пробит – модели.
- •25. Эконометрическая модель фирмы.
21. Оценивание параметров классической линейной модели множественной регрессии.
На
любой экономический показатель чаще
всего оказывает влияние не один, а
несколько факторов. В этом случае
рассматривается множественная регрессия.
Теоретическое линейное
уравнение регрессии имеет
вид:
.
(1.1)
Параметр
α
называется свободным
членом и
определяет значение y
в случае, когда все объясняющие переменные
равны нулю. Однако, как и в случае парной
регрессии, факторы по своему экономическому
содержанию часто не могут принимать
нулевых значений, и значение свободного
члена не имеет экономического смысла.
При этом в отличие от парной регрессии,
значение каждого регрессионного
коэффициента
равно среднему изменению y
при увеличении xj
на одну единицу лишь при условии, что
все остальные факторы остались
неизменными. Величина ε
представляет собой случайную ошибку
регрессионной зависимости.
Для проведения анализа в рамках линейной модели множественной регрессии необходимо выполнение ряда предпосылок МНК:
10. E (εi) = 0 (i=1,...,n) - гомоскедастичность остатков (состояние, при котором измерения вариативности колеблются внутри ожидаемого диапазона).
20.
-
отсутствие
автокорреляции
(статистическая взаимосвязь между
последовательностями величин одного
ряда, взятых со сдвигом)
30. X1,...Х-неслучайные величины.
40. Модель является линейной относительно параметров.
50. Отсутствие мультиколлинеарности: между объясняющими переменными отсутствует строгая линейная зависимость.
60.
Ошибки
имеют нормальное распределение
.
Выполнимость этого условия нужна для
проверки статистических гипотез и
построения интервальных оценок.
Модель
(1.1), в которой зависимая переменная уi,,
возмущения
εi
и объясняющие переменные
удовлетворяют предпосылкам регрессионного
анализа называется классической
нормальной линейной моделью множественной
регрессии
(НКЛММР).
Самым
распространенным методом решения этой
задачи является метод
наименьших квадратов (МНК).
Его суть состоит в минимизации суммы
квадратов отклонений наблюдаемых
значений зависимой переменной y
от её значений
,
получаемых по уравнению регрессии.
Поскольку
- оценки теоретических значений
,
или эмпирические коэффициенты регрессии,
е
– оценка отклонения ε.
Тогда расчетное выражение имеет вид:
.
(1.2)
Рассмотрим три метода расчета параметров множественной линейной регрессии.
Матричный метод. Представим данные наблюдений и параметры модели в матричной форме.
-
n
– мерный транспонированный вектор –
столбец наблюдений зависимой переменной;
-
(p+1)
– мерный транспонированный вектор –
столбец параметров уравнения регрессии
(1.2);
-
n
– мерный транспонированный вектор –
столбец отклонений выборочных значений
yi.
Значения
независимых переменных запишем в виде
прямоугольной матрицы размерности
:
Каждому
столбцу этой матрицы отвечает набор из
n
значений одного из факторов, а первый
столбец состоит из единиц, которые
соответствуют значениям переменной
при свободном члене.
В этих обозначениях эмпирическое уравнение регрессии выглядит так: Y=XB+e
Отсюда вектор остатков регрессии можно выразить таким образом: e=Y-XB
Тогда,
функционал
,
который, минимизируется по МНК, можно
записать как произведение вектора –
строки e’
на вектор – столбец e:
(При
выводе использовались формулы
).
В
соответствии с МНК дифференцирование
Q
по вектору В
приводит к выражению:
,
которое для нахождения экстремума
следует приравнять к нулю. В результате
преобразований получаем выражение для
вектора параметров регрессии:
. (1.3)
2.
Скалярный метод.
При его применении строится система
нормальных уравнений (1.4), решение которой
и позволяет получить оценки параметров
регрессии. Решить систему можно любым
способом, например, методом определителей
или методом Гаусса.
.
Регрессионная модель в стандартизованном масштабе. Уравнение регрессии в стандартизованном масштабе имеет вид:
,
(1.5) где
- стандартизованные переменные:
,для
которых среднее значение равно нулю:
,
а среднее квадратическое отклонение
равно единице:
;
βj
– стандартизованные коэффициенты
регрессии, которые показывают, на сколько
значений с.к.о. изменится в среднем
результат, если соответствующий фактор
хj
изменится на одну с.к.о. при неизменном
среднем уровне других факторов.
Применяя МНК к уравнению (1.2), после соответствующих преобразований получим систему нормальных уравнений:
В
этой системе
- элементы расширенной матрицы парных
коэффициентов корреляции или, другими
словами, коэффициенты парной корреляции
между различными факторами или между
факторами и результативным признаком.
Сравнивая коэффициенты βj между собой, можно ранжировать факторы по силе их воздействия на результат, а также использовать коэффициенты при отсеве факторов – из модели исключаются факторы с наименьшим значением βj. В этом основное достоинство стандартизованных коэффициентов регрессии, в отличие от коэффициентов обычной регрессии, которые несравнимы между собой.
Подобно
тому, как в парной зависимости коэффициенты
регрессии и корреляции связаны между
собой, так и во множественной регрессии
коэффициенты «чистой» регрессии bj
связаны с β
– коэффициентами:
.
От
уравнения регрессии в стандартизованном
масштабе можно перейти к уравнению
регрессии, причем параметр а
определяется как
Теорема Гаусса – Маркова:
При
выполнимости всех предпосылок
регрессионного анализа оценки
,
полученные по МНК, являются наиболее
эффективными (в смысле наименьшей
дисперсии) в классе линейных несмещенных
оценок.