- •Учебно-методические материалы к изучению дисциплины «Эконометрика»
- •Введение
- •1 Эконометрика и математическая статистика
- •Особенности статистических данных. Источники информации
- •1.2. Выборочная ковариация и выборочная дисперсия
- •Потребительские расходы на бензин и его реальная цена в условных единицах
- •Расчет выборочной ковариации
- •1.3 Метод Монте-Карло
- •2. Метод наименьших квадратов
- •2.1. Модель парной регрессии
- •2.2. Регрессия по методу наименьших квадратов
- •2.3. Формулы для коэффициентов регрессии. Обязательные свойства линии регрессии. Недостатки метода наименьших квадратов
- •2.4. Объясненная и необъясненная дисперсия зависимой переменной. Коэффициент r2, его связь с коэффициентом корреляции
- •Расчетная таблица
- •3 Свойства коэффициентов регрессии
- •3.1 Теорема Гаусса - Маркова. Смысл условий теоремы
- •Расчеты значений y
- •Результаты оценки значений a и b
- •Результаты расчетов значений y
- •Результаты оценки значений a и b
- •3.2. Стандартные отклонения и стандартные ошибки коэффициентов регрессии
- •Результаты расчетов стандартных ошибок
- •Результаты расчетов
- •4. Проверка гипотез
- •4.1. Выбор нулевой и альтернативной гипотезы
- •4.2. Уровень значимости
- •4.3 Ошибки I и II рода, степени свободы критическое значение, доверительный интервал. Т-тест для коэффициентов регрессии
- •4. 4. Односторонние и двусторонние тесты
- •4.7. Связь между тестами
- •5. Нелинейная регрессия. Простейшие модели
- •5.1. Нелинейность по переменным и нелинейность по параметрам
- •Соотношение между ежегодным потреблением бананов и годовым доходом
- •5.2. Логарифмирование
- •5.3. Эластичность и ее моделирование
- •5.4 Случайный член как множитель
- •5.5. Тест Бокса – Кокса (решетчатый поиск). Подбор функции методом Зарембки
- •Регрессии расходов на питание и жилье
- •Результаты оценивания регрессий для расходов
- •Алгоритмы вычисления эконометрических показателей
- •Список рекомендуемых литературных источников
2.2. Регрессия по методу наименьших квадратов
Допустим, что вы имеете четыре наблюдения для х и у, представленные на рис. 2.1, и перед вами поставлена задача — определить значения ее и в уравнении (2.1). В качестве грубой аппроксимации вы можете сделать это, отложив четыре точки Р и построив прямую, в наибольшей степени соответствующую этим точкам. Это сделано на рис. 2.2. Отрезок, отсекаемый прямой на оси у, представляет собой оценку и обозначен а, а угловой коэффициент прямой представляет собой оценку и обозначен b.
Уравнение линейной регрессии - уравнение у = а + bх, где а и b - оценки параметров и , полученные в результате оценивания модели регрессии у = + x + u по данным выборки.
С самого начала необходимо признать, что вы никогда не сможете рассчитать истинные значения и при попытке построить прямую и определить положение линии регрессии. Вы можете получить только оценки, и они могут быть хорошими или плохими. Иногда оценки могут быть абсолютно точными, но это возможно лишь в результате случайного совпадения, и даже в этом случае у вас не будет способа узнать, что оценки абсолютно точны.
Это справедливо и при использовании более совершенных методов. Построение линии регрессии "на глаз" является достаточно субъективным. Более того, как мы увидим в дальнейшем, это просто невозможно, если переменная у зависит не от одной, а от двух или более независимых переменных. Возникает вопрос: существует ли способ достаточно точной оценки и алгебраическим путем?
у
y
.P4
a .P1
.P2 .P3
x
Рис. 2.2. Прямая, построенная по точкам
Первым шагом является определение остатка для каждого наблюдения.
Остаток в наблюдении - разность - (a + b ) между истинным значением переменной у в i-ом наблюдении (у ) и значением а + bх в i-ом наблюдении, полученным подстановкой наблюдения х в уравнение линейной регрессии.
За исключением случаев чистого совпадения, построенная вами линия регрессии не пройдет точно ни через одну точку наблюдения. Например, на рис. 2.3, при х=х , соответствующей ему точкой на линии регрессии будет R , со значением у, которое мы обозначим , вместо фактически наблюдаемого значения у . Величина описывается как расчетное значение, соответствующее х . Разность между фактическим и расчетным значениями (у - ) определяемая отрезком Р ,R , описывается как остаток в первом наблюдении. Обозначим его е . Соответственно, для других наблюдений остатки будут обозначены как е ,e и e .
Существует целый ряд возможных критериев, одни из которых "работают" лучше других. Например, бесполезно минимизировать сумму остатков. Сумма будет автоматически равна нулю, если вы сделается равным , a b равным нулю, получив горизонтальную линию у = . В этом случае положительные остатки точно уравновесят отрицательные, но строгой зависимости при этом не будет.
Один из способов решения поставленной проблемы состоит в минимизации суммы квадратов остатков S. Для рис. 2.3 верно такое соотношение:
S= (2.1)
Y
P4 *
e4
R4 *
*P1 R2 R3 *
e1 *
A *R1 e2 e3
*P2 P3 *
X1 X2 X3 X4 X
Рис. 2.3. Построенная по точкам линия регрессии, показывающая остатки
Величина S будет зависеть от выбора а и b, так как они определяют положение линии регрессии. В соответствии с этим критерием, чем меньше S, тем строже соответствие. Если S = 0, то получено абсолютно точное соответствие, так как это означает, что все остатки равны нулю. В этом случае линия регрессии будет проходить через все точки, однако, вообще говоря, это невозможно из-за наличия случайного члена.
Существуют и другие достаточно разумные решения, однако при выполнении определенных условий метод наименьших квадратов дает несмещенные и эффективные оценки и .
Метод наименьших квадратов (МНК) (OLS - Ordinary Least Squares) - метод нахождения оценок параметров регрессии, основанный на минимизации суммы квадратов остатков всех наблюдений.
Метод наименьших квадратов (МНК) для модели парной регрессии заключается в выборе таких коэффициентов а и b, которые обеспечивают наименьшее значение суммы ( y - (a + bx ))2+( y - (a + bx ))2 +…+ ( y - (a + bx ))2.