- •Эконометрика и экономико-математические модели и методы
- •1 Эконометрика Предмет и область применения эконометрики.
- •Вопрос 11. Построение аддитивной и мультипликативной моделей временных рядов
- •Вопрос 12. Автокорреляция уровней временного ряда
- •Вопрос 13. Выбор вида уравнения тренда
- •2 Содержание экономико-математических моделей и методика их построения
- •Вопрос 14. Содержание экономико-математических моделей и методика их построения
- •Вопрос 15. Общая классификация экономико-математических моделей
- •Вопрос 16. Линейные экономико-математические модели
- •Вопрос 17. Формы записи задачи линейного программирования, их эквивалентность и способы преобразования
- •Вопрос 18. Двойственность в задачах линейного программирования
- •Вопрос 19. Экономический анализ решения задач линейного программирования
- •Вопрос 20. Транспортная задача линейного программирования
- •Вопрос 21. Векторная оптимизация
- •Метод линейной комбинации частных критериев
- •Метод ведущего критерия
- •Метод последовательных уступок
- •Метод равных и наименьших относительных отклонений
- •Модели управления однономенклатурными и многономенклатурными запасами
- •1. Входные:
- •2. Выходные:
- •Решение
- •Матричные игры
- •1 Решение матричных игр с нулевой суммой
- •Вопрос 22. Решение матричных игр с нулевой суммой для игр с седловой точкой
- •Вопрос 23. Решение игр с природой по различным критериям
- •3 Решение матричных игр с нулевой суммой для игр без седловой точки
- •Системы и модели массового обслуживания
- •Классификация систем массового обслуживания
- •Основные характеристики систем массового обслуживания
1 Эконометрика Предмет и область применения эконометрики.
Слово «эконометрика» представляет собой комбинацию двух слов: «экономика» и «метрика» (от греч. «метрон»). Термин эконометрика введен в научную литературу в 1930 году норвежским статистиком Рагнаром Фришем. Зарождение эконометрики является следствием междисциплинарного подхода к изучению экономики. Эконометрика как наука возникла в первой половине 20-го века в результате активного использования для решения задач экономической теории математических и статистических методов.
Эконометрика – наука, изучающая количественные закономерности и взаимозависимости в экономике методами математической статистики.
Место эконометрики среди иных наук можно представить в виде следующей схемы:
Задача эконометрики – количественная оценка имеющихся взаимосвязей между экономическими явлениями и процессами.
В основе любого эконометрического исследования лежит построение экономико-математической модели, адекватной изучаемым реальным экономическим явлениям и процессам.
Процесс построения эконометрических моделей начинается с качественного исследования проблемы методами экономической теории, формулируются цели исследования, выделяются факторы, влияющие на изучаемый показатель, и формулируются предположения о характере предполагаемой зависимости. На этой основе изучаемые зависимости выражаются в виде математических формул и соотношений
Базой для эконометрических исследований служат данные официальной статистики, либо данные бухгалтерского учета.
Эконометрическое моделирование реальных социально-экономических процессов и систем обычно преследует два типа целей: 1) прогноз экономических и социально-экономических показателей, характеризующих состояние и развитие анализируемой системы; 2) имитацию различных возможных сценариев социально-экономического развития анализируемой системы (многовариантные сценарные расчеты, ситуационное моделирование).
Парная регрессия
Парная (простая) регрессия – уравнение связи двух переменных y и x: y = f (x),
где y – зависимая переменная (результативный признак), функция отклика, эндогенная (внутренняя) переменная. Термин «внутренний» отражает тот факт, что значения зависимой переменной у определяются только значениями независимых переменных x.
х – независимая, объясняющая переменная, фактор, входная переменная, внешняя или экзогенная переменная. Термин «внешний» говорит о том, что значения переменных х определяются вне рассматриваемой модели, для которой они являются заданными.
Уравнения связи функции отклика и факторов называют уравнением регрессии, функцию f – функцией регрессии, а ее график – линией регрессии. В случае единственной входной переменной регрессию называют парной (простой), в общем случае – если входных переменных две и более – множественной.
Парная регрессия применяется, если имеется доминирующий фактор, который и используется в качестве объясняющей переменной.
Различают линейные и нелинейные регрессии.
Линейная парная регрессия является одной из наиболее распространенных эконометрических моделей и описывается уравнением:
y = b0 + b1 · x + ε
где ε – случайная составляющая, учитывающая влияние не учтенных в модели факторов, случайных ошибок и особенностей измерения.
Нелинейные регрессии делятся на два класса:
––– нелинейные по объясняющим переменным, но линейные по оцениваемым параметрам:
полиномы разных
степеней
––– нелинейные по оцениваемым параметрам:
степенная
показательная
и так далее.
Знак «ˆ» («ридж») означает, что между переменными х и у нет строгой функциональной зависимости, поэтому практически в каждом отдельном случае величина у складывается из двух слагаемых:
,
где у – фактическое (экспериментальное) значение результативного признака;
– теоретическое
значение результативного признака,
найденное из уравнения регрессии;
– случайная
величина, характеризующая отклонения
фактического значения у от
.
Случайная величина i включает влияние не учтенных в модели факторов, случайных ошибок и особенностей измерения [5, с. 44].
построение уравнения линейной регрессии.
Постановка задачи:
По имеющимся данным п наблюдений
за совместным изменением двух параметров
х и у необходимо определить
аналитическую регрессионную зависимость
,
наилучшим образом описывающую данные
наблюдений.
При изучении и построении регрессии выполняют следующие этапы:
спецификация уравнения регрессии
и определение параметров регрессии;
определение степени стохастической взаимосвязи результативного признака и факторов, проверка общего качества уравнения регрессии;
проверка статистической значимости каждого коэффициента уравнения регрессии и определение их доверительных интервалов.
Спецификация
уравнения регрессии – это выбор вида
аналитической зависимости
.
В случае парной регрессии спецификация
осуществляется по графическому
изображению реальных статистических
данных в виде точек в декартовой системе
координат, которое называется
корреляционным полем (диаграммой
рассеивания).
От правильно выбранной спецификации модели зависит величина случайных ошибок: они тем меньше, чем в большей мере теоретические значения результативного признака подходят к фактическим данным y.
Парная регрессия применяется, если имеется доминирующий фактор, который и используется в качестве объясняющей переменной х.
Простейшей является
линейная взаимосвязь между x
и y, описываемая
линейной функцией регрессии вида
.
Для вычисления
коэффициентов a, b
используется метод наименьших квадратов
(МНК), который позволяет получить
такие оценки параметров а и b,
при которых сумма квадратов отклонений
фактических значений зависимой переменной
у от теоретических
минимальна, т. е.
Это означает, что линейная регрессия на диаграмме рассеивания будет проходить «достаточно близко» к точкам (xi, yi).
Для линейных уравнений, решается следующая система относительно b0 и b1:
В случае линейной регрессии оценки параметров b0 и b1 находятся следующим образом
Для оценки
качества подбора линейной регрессии
рассчитывается квадрат линейного
коэффициента корреляции, называемый
коэффициентом детерминации
,
а для нелинейной регрессии – квадрат
индекса корреляции, называемый индексом
детерминации
.
Коэффициент
детерминации характеризует долю
дисперсии
результативного признака y,
объясняемую регрессией, в общей дисперсии
результативного признака. Чем больше
доля объясненной вариации, тем меньше
роль прочих факторов и тем лучше уравнение
регрессии описывает исходные данные.
Чем ближе R2 к
1, тем лучше модель описывает (аппроксимирует)
исходные данные, и, значит, ее можно
использовать для оценки качества
построенной модели.
Средняя ошибка
аппроксимации
– среднее отклонение расчётных
значений от фактических. Построенное
уравнение регрессии считается хорошего
качества, если значение
не превышает 8–10 % [5, с. 107].
Оценка значимости уравнения регрессии и его коэффициентов
После того, как найдено уравнение линейной регрессии, проводится:
1) оценка значимости уравнения в целом с помощью F-критерия Фишера,
2) оценка значимости коэффициентов регрессии с помощью t-критерия Стьюдента.
1) Согласно F-критерию Фишера, выдвигается «нулевая» гипотеза Н0 о статистической незначимости уравнения регрессии (т. е. о статистически незначимом отличии величины F от нуля).
Согласно F-критерию
Фишера, выдвигается «нулевая» гипотеза
Н0 о статистической
незначимости уравнения регрессии (т.
е. о статистически незначимом отличии
величины F от
нуля). Если расчетное значение F-критерия
превышает табличное
,
т. е.
,
то гипотеза Н0 отклоняется
и принимается статистическая значимость
и надежность уравнения регрессии. Если
,
то гипотеза Н0 не отклоняется
и признается статистическая незначимость,
ненадежность уравнения регрессии.
Расчетное значение F-критерия :
,
где n – число наблюдений;
m – число параметров при переменных х;
R2 – коэффициент детерминации.
Табличное значение
F-критерия
определяется по таблицам F-критерия
Фишера при числе степеней свободы
m
(m – число параметров
при переменных х),
(n – число наблюдений)
и заданному уровню значимости α.
Уровнем значимости α в статистических гипотезах называется вероятность отвергнуть верную гипотезу. Уровень значимости α обычно принимает значения 0,05 и 0,01, что соответствует вероятности отвергнуть верную гипотезу 5 и 1 %.
2) Возможна ситуация, когда часть вычисленных коэффициентов регрессии не обладает необходимой степенью значимости, т. е. значения этих коэффициентов будут меньше их стандартной ошибки. В этом случае такие коэффициенты должны быть исключены из уравнения регрессии. Поэтому проверка адекватности построенного уравнения регрессии, наряду с проверкой значимости коэффициента детерминации R2, включает в себя также и проверку значимости каждого коэффициента регрессии.
Для оценки
статистической значимости коэффициентов
регрессии применяется
t-критерий Стьюдента, согласно
которому выдвигается «нулевая» гипотеза
Н0 о статистической
незначимости коэффициента уравнения
регрессии (т. е. о статистически
незначимом отличии a
и b от нуля). Эта
гипотеза отвергается при выполнении
условия
,
при этом принимается статистическая
значимость и надежность проверяемого
коэффициента регрессии, т. е. считается,
что отличие рассматриваемого коэффициента
уравнения регрессии от нуля статистически
значимо. Табличное значение t-критерия
определяется по таблице t-критерия
Стьюдента по числу степеней свободы
и заданному уровню значимости α. Расчетные
значения
-критерия
для каждого коэффициента регрессии
(
-статистики
Стьюдента) представляют собой отношение
оценки коэффициента регрессии к его
стандартной ошибке.
t-статистики
Стьюдента для коэффициентов
регрессии
и
:
,
Стандартные ошибки коэффициентов линейной регрессии позволяют получить представление о точности полученных оценок коэффициентов регрессии и , о том, насколько далеко они могут отклониться от истинных значений коэффициентов.
,
,
где
–
остаточная дисперсия признака у:
Общая
дисперсия
результативного
признака у
отображает
влияние как основных, так и остаточных
факторов. Остаточная
дисперсия
результативного
признака у
отображает
влияние только остаточных факторов.
Рассчитанные
значения оценок коэффициентов регрессии
являются приближенными, полученными
на основе имеющихся выборочных данных.
Для оценки того, насколько точные
значения оценок коэффициентов могут
отличаться от рассчитанных, осуществляется
построение доверительных интервалов.
Доверительные интервалы определяют
пределы, в которых лежит точное значение
определяемого показателя с заданной
вероятностью
[1, с. 131].
Доверительные интервалы для оценок коэффициентов линейной регрессии рассчитываются по формулам:
,
,
где
,
– предельные ошибки, рассчитываемые
по формулам
,
.
Корреляция. Коэффициенты корреляции
Корреляция (корреляционная зависимость) — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин. В случае, если изменение одной случайной величины не ведёт к закономерному изменению другой случайной величины, но приводит к изменению другой статистической характеристики данной случайной величины, то подобная связь не считается корреляционной, хотя и является статистической[3].
Впервые в научный оборот термин «корреляция» ввёл французский палеонтолог Жорж Кювье в XVIII веке. Он разработал «закон корреляции» частей и органов живых существ, с помощью которого можно восстановить облик ископаемого животного, имея в распоряжении лишь часть его останков. В статистике слово «корреляция» первым стал использовать английский биолог и статистик Фрэнсис Гальтон в конце XIX века.
Теснота связи
изучаемых явлений оценивается при
использовании линейной регрессии с
помощью линейного коэффициента корреляции
:
Линейный коэффициент корреляции принимает значение в пределах от (–1) до 1, т. е. (–1) < < 1. Чем ближе к единице, тем связь теснее. Качественная оценка тесноты связи величин x и y может быть выявлена на основе шкалы Чеддока.
Линейный коэффициент
корреляции характеризует степень
тесноты не всякой, а только линейной
зависимости. При нелинейной зависимости
между явлениями линейный коэффициент
корреляции теряет смысл, и для измерения
тесноты связи применяют так называемый
индекс корреляции
.
(
):
Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными. В первом случае предполагается, что мы можем определить только наличие или отсутствие связи, а во втором – также и ее направление.
Если предполагается, что на значениях переменных задано отношение строгого порядка, то отрицательная корреляция – корреляция, при которой увеличение одной переменной связано с уменьшением другой. При этом коэффициент корреляции будет отрицательным. Положительная корреляция в таких условиях — это такая связь, при которой увеличение одной переменной связано с увеличением другой переменной. Возможна также ситуация отсутствия статистической взаимосвязи – например, для независимых случайных величин.
Корреляционный анализ – метод обработки статистических данных, с помощью которого измеряется теснота связи между двумя или более переменными. Корреляционный анализ тесно связан с регрессионным анализом (также часто встречается термин «корреляционно-регрессионный анализ», который является более общим статистическим понятием), с его помощью определяют необходимость включения тех или иных факторов в уравнение множественной регрессии, а также оценивают полученное уравнение регрессии на соответствие выявленным связям (используя коэффициент детерминации).
Модели множественной линейной регрессии.
Множественной регрессией называют уравнение связи с несколькими независимыми переменными:
.
(2.1)
Множественная регрессия применяется, когда из множества факторов, влияющих на результативный признак, нельзя выделить один доминирующий фактор и необходимо учитывать влияние нескольких факторов.
Построение уравнения множественной регрессии осуществляется в два этапа [3, с. 13]:
спецификация модели;
оценка параметров выбранной модели.
В свою очередь, спецификация модели включает выполнение двух этапов:
– отбор р
факторов
,
подлежащих включению в модель;
– выбор вида
аналитической зависимости
.
Для оценки параметров уравнения множественной регрессии обычно применяется метод наименьших квадратов.
Основная цель множественной регрессии - построить модель с несколькими факторами и определить при этом влияние каждого фактора в отдельности, а также их совместное воздействие на изучаемый показатель.
Наиболее часто используются линейная и степенная зависимости.
Для оценки параметров уравнения множественной регрессии обычно применяется метод наименьших квадратов.
Для оценки качества
полученного уравнения множественной
регрессии (2.1) можно использовать
коэффициент детерминации
.
Низкое значение (близкое к 0) коэффициента
(индекса) детерминации означает, что в
регрессионную модель не включены
существенные факторы, с одной стороны,
а с другой – рассматриваемая форма
связи не отражает реальные соотношения
между переменными, включенными в модель.
Чем выше значения
,
тем лучше данная модель согласуется с
данными наблюдений.
Значимость уравнения множественной регрессии в целом так же, как и в парной регрессии, оценивается с помощью F-критерия Фишера.
Оценка значимости коэффициентов регрессии осуществляется с помощью t-критерия Стьюдента.
Тема. Эконометрический анализ при нарушении классических модельных предположений
классические модельные предположения регрессионной модели.
Метод наименьших квадратов обеспечивает оптимальные свойства оценкам параметров регрессии только при выполнении следующих классических модельных предположений:
1) Входная переменная x – величина неслучайная, а возмущение εi есть случайная величина.
2) Математическое ожидание возмущения εi равно нулю: M(εi)=0, i =1, 2, ..., n. Т.е имеет место отсутствие систематических ошибок наблюдений уравнения регрессии – при операции усреднения переменных модели влияние случайной переменной исчезает.
Математическим ожиданием М(х) дискретной случайной вели чины называют сумму произведений всех ее возможных значений на их вероятности
3) Наблюдения производятся с одинаковой точностью, т.е. дисперсии возмущения εi одинаковы во все моменты измерений i: D(εi) = σ2 . Это условие называют также условием гомоскедастичности.
Дисперсия случайной величины характеризует разброс ее значений вокруг математического ожидания. По определению, дисперсия D(x) случайной величины равна математическому ожиданию квадрата ее отклонения от математического ожидания.
4) Наблюдения организованы так, что случайные ошибки (возмущения) не коррелированны: M(εi εj) = 0, i ≠ j , i и j – моменты измерений.
5) Возмущение εi распределено по нормальному закону.
Мультиколлинеарность экзогенных переменных, ее причины и признаки.
Для множественной
линейной регрессии является важным еще
одно модельное предположение: отсутствие
мультиколлинеарности, т.е. сильной
линейной зависимости между объясняющими
переменными х. Мультиколлинеарность
не позволяет разделить вклады объясняющих
переменных х1 и х2 в
их влиянии на зависимую переменную у
и делает оценки коэффициентов регрессии
ненадежными, а стандартные ошибки
,
– большими.
Мультиколлинеарность возникает из-за неправильной спецификации модели и небрежного проведения сбора статистических данных (использования повторных наблюдений).
Совершенная мультиколлинеарность предполагает известной точную функциональную зависимость между переменными х модели.
Несовершенная
мультиколлинеарность означает наличие
между объясняющими переменными х
довольно сильной корреляционной
зависимости, а не строгой функциональной.
Она характеризуется высоким значением
коэффициента корреляции
между соответствующими объясняющими
переменными.
Признаки мультиколлинеарности:
1) коэффициент детерминации R2 достаточно высок, но некоторые из коэффициентов регрессии статистически незначимы, т. е. они имеют низкие t-статистики;
2) парная корреляция между малозначимыми факторами достаточно высока. Данный признак будет надежным лишь в случае двух факторов х. При большем их количестве более целесообразным является использование частных коэффициентов корреляции;
3) высокие значения
коэффициентов парной корреляции, а
именно,
> 0,8
[4, с. 55];
4) определитель матрицы коэффициентов парной корреляции между факторами близок к нулю.
В ряде случаев мультиколлинеарность не является таким уж серьезным «злом», чтобы прилагать существенные усилия по ее выявлению и устранению. Все зависит от целей исследования.
Если задача модели – прогноз будущих значений зависимой переменной, то при достаточно большом значения коэффициента детерминации R2 (≥ 0,9) наличие мультиколлинеарности обычно не сказывается на прогнозных качествах модели.
Если задачей исследования является определение влияния каждой из объясняющих переменных на зависимую, то наличие мультиколлинеарности, приводящее к увеличению стандартных ошибок, скорее всего исказит истинные зависимости между переменными и будет являться проблемой.
Методы устранения мультиколлинеарности.
Единого метода устранения мультиколлинеарности, годного в любом случае, нет, т.к. причины и последствия мультиколлинеарности неоднозначны и во многом зависят от рез-тов выборки.
Методы:
1) исключение из модели одной или ряда коррелированных переменных;
2) получение дополнительных данных или новой выборки;
3) изменение спецификации модели: либо изменяется форма модели, либо добавляются объясняющие переменные, не учтенные в первоначальной модели, но существенно влияющие на зависимую переменную.
Рассмотрим более подробно первый метод. Отсев факторов можно проводить, например, по t-критерию Стьюдента для коэффициентов регрессии: из уравнения исключаются факторы с величиной t-критерия меньше табличного.
Наиболее широко в процедуре отсева используется матрица парных коэффициентов корреляции
Коэффициенты
парной корреляции
между объясняющими переменными
используются для выявления дублирующих
факторов. Линейная зависимость между
объясняющими переменными xi
и xj
считается установленной, если
выполняется условие
> 0,8, а сами факторы называются явно
коллинеарными (эмпирическое правило).
Один из факторов должен быть исключен
из модели. Предпочтение при этом отдается
тому фактору, который при достаточно
тесной связи с результатом имеет
наименьшую тесноту связи с другими
факторами.
Наряду с парной
коллинеарностью может иметь место
линейная зависимость между более,
чем двумя переменными. Для оценки
мультиколлинеарности факторов в этом
случае может использоваться величину
определителя
матрицы парных коэффициентов корреляции
между факторами либо ее минимального
собственного значения.
Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность между факторами и тем ненадежнее результаты множественной регрессии.
При исключении из регрессии факторов предпочтение отдается не фактору, более тесно связанному с результатом у, а тому фактору, который при достаточно тесной связи с результатом у имеет наименьшую тесноту связи с другими факторами.
Пример. При изучении зависимости y = f (x, z, u) матрица парных коэффициентов корреляции оказалась следующей:
|
y |
x |
z |
р |
y |
1 |
|
|
|
x |
0,8 |
1 |
|
|
z |
0,7 |
0,8 |
1 |
|
р |
0,6 |
0,5 |
0,2 |
1 |
Очевидно, что
факторы x и z
дублируют друг друга. В уравнение
целесообразно включить фактор z,
а не х, так как корреляция z
с результатом у слабее, чем
корреляция фактора x
с у (
)
и имеется еще более слабая межфакторная
корреляция
.
Поэтому в данном случае в уравнение
множественной регрессии включаются
факторы z и
р.
Тема. Временные ряды в эконометрических исследованиях.
Понятие временного ряда.
Вопрос № 10. Понятие временного ряда.
В настоящее время разработана большая группа методов прогнозирования отдельных экономических показателей. В данной дисциплине мы изучаем следующие методы:
1) основанные на построении многофакторных корреляционно-регрессионных моделей;
2) основанные на разложении временного ряда на компоненты: тренд, сезонные колебания и случайная составляющая.
При прогнозировании методом корреляционно-регрессионного анализа строится модель, включающая набор переменных, от которых зависит поведение функции. Основным недостатком этого подхода является то, что необходимы сбор и обработка больших массивов информации по группе однородных предприятий и прогнозирование самих объясняющих переменных. При этом остается открытым вопрос о прогнозировании показателей работы предприятий, не вошедших в группу однородных. Для данных методов характерна невысокая точность прогноза для конкретного, отдельного предприятия.
Методы, основанные на разложении временного ряда, позволяют описать почти любой экономический процесс, независимо от его характера.
Модели, построенные по данным, характеризующим один объект за ряд последовательных моментов (периодов) времени, называются моделями временных рядов.
Временной ряд – это совокупность значений какого-либо показателя за несколько последовательных моментов или периодов. Каждый уровень временного ряда формируется из трендовой (Т), сезонной (S) и случайной (Е) компонент.
Как правило, наличие той или иной составляющей можно определить с помощью визуального анализа графика временного ряда.
Тренд – это некоторое устойчивое, систематическое изменение, наблюдаемое в течение длительного времени и описывающее долговременную тенденцию развития изучаемого показателя.
Рисунок 1 - Гипотетические временные ряды, содержащие только одну из компонент
а) трендовая (Т) компонента; б) сезонная (S) компонента; в) случайная (Е) компонента
Линии тренда позволяют графически отображать тенденции данных и прогнозировать их дальнейшие изменения. В качестве математической модели тренда выбирают кривую, наилучшим образом отражающую характер излучаемого ряда.
Сезонная составляющая – это некоторый внешний циклический механизм, который в сочетании с внутренним механизмом поведения изучаемой системы формирует циклическое изменение выходных переменных. Периоды сезонных циклов могут иметь длительность в сутки, неделю, месяц, год, но в любом случае они отражают связь изучаемых процессов с календарем.
Задача эконометрического исследования отдельного временного ряда – определение каждой из трех перечисленных выше компонент с тем, чтобы использовать полученную информацию для прогнозирования будущих значений ряда.
