
- •Общее представление об эконометрическом моделировании: предмет и методология исследования, основные задачи.
- •Парная линейная регрессионная модель: основные гипотезы.
- •Парная линейная регрессионная модель: оценка коэффициентов регрессии методом наименьших квадратов (мнк).
- •Парная линейная регрессионная модель: графическая интерпретация мнк.
- •Парная линейная регрессионная модель: доказать несмещенность мнк-оценок коэффициентов регрессии.
- •Парная линейная регрессионная модель: эффективность мнк-оценок коэффициентов регрессии.
- •Парная линейная регрессионная модель: остатки регрессии, необъясненная дисперсия и стандартная ошибка регрессии.
- •Парная линейная регрессионная модель: дисперсии, стандартные отклонения и ковариация мнк-оценок коэффициентов регрессии, и их оценки (на основе необъясненной дисперсии).
- •Понятие о распределениях «хи квадрат» и Стъюдента (с заданным числом степеней свободы), квантили распределения Стъюдента.
- •Парная линейная регрессионная модель: построение t-статистик для коэффициентов регрессии, проверка гипотез для коэффициентов регрессии.
- •Парная линейная регрессионная модель: полная, остаточная и объясненная суммы квадратов, коэффициент детерминации и его использование для оценки общего качества модели.
- •Парная линейная регрессионная модель: интервальные оценки коэффициентов регрессии. Линейная регрессионная модель.
- •Парная линейная регрессионная модель: точечный прогноз и его несмещенность.
- •61. (14.) Парная линейная регрессионная модель: интервальный прогноз для ожидаемого значения зависимой переменной.
- •62 (15). Парная линейная регрессионная модель: интервальный прогноз для зависимой переменной.
- •63 (16.). Множественная линейная регрессионная модель: спецификация модели с матричном виде, преобразование модели со свободным членом к модели без свободного члена.
- •64. Множественная регрессионная модель: осн гипотезы в матр виде.
- •65. Множеств лин регресс модель: оценка коэф-тов регрессии методом наим квадратов (мнк)
- •66 Множественная линейная регрессионная модель: доказать несмещенность мнк-оценок коэффициентов регрессии.
- •67 Множественная линейная регрессионная модель: эффективность мнк-оценок коэффициентов регрессии.
- •68 Множественная линейная регрессионная модель: ковариационная матрица мнк-оценок коэффициентов регрессии.
- •69 Множественная линейная регрессионная модель: остатки регрессии, необъясненная дисперсия и стандартная ошибка регрессии
- •70 Множественная линейная регрессионная модель: оценка ковариационной матрицы мнк-оценок коэффициентов регрессии (на основе необъясненной дисперсии).
- •72 Множественная линейная регрессионная модель: построение t-статистик для коэффициентов регрессии, проверка гипотез для коэффициентов регрессии.
- •Проверка линейного ограничения на параметры линейной регрессии
- •74 Множественная линейная регрессионная модель: полная, остаточная и объясненная суммы квадратов, коэффициент детерминации и его использование для оценки общего качества модели.
- •76. Множественная линейная регрессионная модель: построение f-статистики общего вида, проверка гипотез.
- •79. Множественная линейная регрессионная модель: доверительная область для коэффициентов регрессии
- •Множественная линейная регрессионная модель: точечный прогноз и его несмещенность.
- •81 (34) Множественная линейная регрессионная модель: интервальный прогноз для ожидаемого значения зависимой переменной.
- •82 (35 )Множественная линейная регрессионная модель: интервальный прогноз для зависимой переменной.
- •83 (36) Скорректированный коэффициент детерминации и его использование для выбора объясняющих переменных.
- •84 (37) Метод оптимального отбора объясняющих переменных.
- •85 (38) Нелинейные регрессионные модели: метод наименьших квадратов, методика выбора вида зависимости объясняемого фактора от объясняющих факторов.
- •86. (39)Показательная регресс. Модель:
- •8 7.(40) Полулогарифмические модели: экономич. Смысл коэффициентов регрессии, сведение к линейной модели.
- •88.(41) Модели, линейные относит-но коэфф-тов регрессии, и их сведение к линейным моделям.
- •89.(42)Обратная и степенная регрессион. Модели, и их сведение к линейным моделям.
- •90.(43) Качественные переменные: общее понятие о качеств. Переменных, экономич. Смысл коэфф-тов регрессии при таких переменных.
- •91.(44) Качествен. Переменные и их использование для исследования сезонных колебаний.
Общее представление об эконометрическом моделировании: предмет и методология исследования, основные задачи.
ЭКОНОМИЧЕСКОЕ МОДЕЛИРОВАНИЕ — (лат. modulus — образец) — воспроизведение экономических объектов и процессов в малых, экспериментальных формах, в искусственно созданных условиях (натурное моделирование). В экономике чаще используется математическое моделирование посредством описания экономических процессов математическими зависимостями. Моделирование служит предпосылкой и средством анализа экономики и протекающих в ней явлений и обоснования принимаемых решений, прогнозирования, планирования, управления экономическими процессами и объектами. Модель экономического объекта обычно поддерживается реальными статистическими, эмпирическими данными, а результаты расчетов, выполненных в рамках построенной модели, позволяют строить прогнозы, проводить объективные оценки. Задачи: определить объяснительную часть, пользуясь эксериментальными данными,; получить оценки параметров расределения случайной составляющей, рассматривая ее как случайную величину.
Парная линейная регрессионная модель: основные гипотезы.
Корреляционная зависимость может быть представлена в виде
Mx(Y) = j(x) (1)
или My(X) = y(у), где j(x) ¹ const, y(у) ¹ const.
В регрессионном анализе рассматривается односторонняя зависимость случайной переменной Y
от одной (или нескольких) неслучайной независимой переменной Х. Такая зависимость Y от X (иногда ее называют регрессионной) может быть также представлена в виде модельного уравнения регрессии Y от X (1). При этом зависимую переменную Y называют также функцией отклика (объясняемой, выходной, результирующей, эндогенной переменной, результативным признаком), а независимую переменную Х – объясняющей (входной, предсказывающей, предикторной, экзогенной переменной, фактором, регрессором, факторным признаком).
Для точного описания уравнения регрессии необходимо знать условный закон распределения зависимой переменной Y при условии, что переменная Х примет значение х, т.е. Х = х. В статистической практике такую информацию получить, как правило, не удается, так как обычно исследователь располагает лишь выборкой пар значений (xi, yi) ограниченного объема n. В этом случае речь может идти об оценке (приближенном выражении, аппроксимации) по выборке функции регрессии. Такой оценкой является выборочная линия (кривая) регрессии
Парная линейная регрессионная модель: оценка коэффициентов регрессии методом наименьших квадратов (мнк).
Метод наименьших квадратов (МНК, OLS, Ordinary Least Squares) — один из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным. Метод основан на минимизации суммы квадратов остатков регрессии.
Необходимо отметить, что собственно методом наименьших квадратов можно назвать метод решения задачи в любой области, если решение заключается или удовлетворяет некоторому критерию минимизации суммы квадратов некоторых функций от искомых переменных. Поэтому метод наименьших квадратов может применяться также для приближённого представления (аппроксимации) заданной функции другими (более простыми) функциями, при нахождении совокупности величин, удовлетворяющих уравнениям или ограничениям, количество которых превышает количество этих величин и т. д.
Сущность МНК
Пусть задана некоторая (параметрическая) модель вероятностной (регрессионной) зависимости между (объясняемой) переменной y и множеством факторов (объясняющих переменных) x
где
—
вектор
неизвестных параметров модели
— е -- случайная ошибка модели.
Пусть также имеются выборочные наблюдения значений указанных переменных. Пусть — номер наблюдения (). Тогда — значения переменных в -м наблюдении. Тогда при заданных значениях параметров b можно рассчитать теоретические (модельные) значения объясняемой переменной y:
Тогда можно рассчитать остатки регрессионной модели — разницу между наблюдаемыми значениями объясняемой переменной и теоретическими (модельными, оцененными):
Величина остатков зависит от значений параметров b.
Сущность МНК (обычного, классического) заключается в том, чтобы найти такие параметры b, при которых сумма квадратов остатков (англ. Residual Sum of Squares[1]) будет минимальной:
где:
В общем случае решение этой задачи может осуществляться численными методами оптимизации (минимизации). В этом случае говорят о нелинейном МНК (NLS или NLLS — англ. Non-Linear Least Squares). Во многих случаях можно получить аналитическое решение. Для решения задачи минимизации необходимо найти стационарные точки функции , продифференцировав её по неизвестным параметрам b, приравняв производные к нулю и решив полученную систему уравнений:Если случайные ошибки модели имеют нормальное распределение, имеют одинаковую дисперсию и некоррелированы между собой, МНК-оценки параметров совпадают с оценками метода максимального правдоподобия (ММП).
МНК в случае линейной модели
Пусть регрессионная зависимость является линейной:
Пусть y — вектор-столбец наблюдений объясняемой переменной, а — матрица наблюдений факторов (строки матрицы — векторы значений факторов в данном наблюдении, по столбцам — вектор значений данного фактора во всех наблюдениях). Матричное представление линейной модели имеет вид:
Тогда вектор оценок объясняемой переменной и вектор остатков регрессии будут равны
соответственно сумма квадратов остатков регрессии будет равна
Дифференцируя эту функцию по вектору параметров и приравняв производные к нулю, получим систему уравнений (в матричной форме):
.Решение этой системы уравнений и дает общую формулу МНК-оценок для линейной модели:
Для аналитических целей оказывается полезным последнее представление этой формулы. Если в регрессионной модели данные центрированы, то в этом представлении первая матрица имеет смысл выборочной ковариационной матрицы факторов, а вторая — вектор ковариаций факторов с зависимой переменной. Если кроме того данные ещё и нормированы на СКО (то есть в конечном итоге стандартизированы), то первая матрица имеет смысл выборочной корреляционной матрицы факторов, второй вектор — вектора выборочных корреляций факторов с зависимой переменной.
Немаловажное свойство МНК-оценок для моделей с константой — линия построенной регрессии проходит через центр тяжести выборочных данных, то есть выполняется равенство:
В частности, в крайнем случае, когда единственным регрессором является константа, получаем, что МНК-оценка единственного параметра (собственно константы) равна среднему значению объясняемой переменной. То есть среднее арифметическое, известное своими хорошими свойствами из законов больших чисел, также является МНК-оценкой — удовлетворяет критерию минимума суммы квадратов отклонений от неё.
Пример: простейшая (парная) регрессия
В случае парной линейной регрессии формулы расчета упрощаются (можно обойтись без матричной алгебры)