- •Вопросы к экзамену по курсу "Эконометрика" для студентов экономического факультета групп 3.1 2010/11 уч. Год
- •Определение эконометрики. Предмет и методы эконометрики.
- •Классификация моделей и типы данных.
- •Этапы построения эконометрической модели.
- •Модель парной регрессии.
- •Случайный член, причины его существования.
- •Условия нормальной линейной регрессии (Гаусса-Маркова)
- •Метод наименьших квадратов.
- •Свойства коэффициентов регрессии.
- •Нелинейная регрессия. Методы линеаризации.
- •Функциональная спецификация модели парной регрессии.(Вопрос4)
- •Интерпретация линейного уравнения регрессии.
- •Определение тесноты связи между факторами: линейный коэффициент корреляции, коэффициент детерминации.
- •Оценка тесноты связи в нелинейной регрессионной модели.
- •Оценка существенности параметров и статистическая проверка гипотез. T-критерий Стьюдента.
- •Взаимосвязь t-статистики и f-статистики для парной регрессии.
- •Коэффициент эластичности. Его смысл и определение.
- •Оценка статистической значимости уравнения в целом. F-критерий Фишера.
- •Модель множественной регрессии.
- •Ограничения модели множественной регрессии.
- •Идентификация параметров множественной регрессии мнк.
- •Интерпретация множественного уравнения регрессии.
- •Показатели тесноты связи во множественном регрессионном анализе - парные и частные коэффициенты корреляции.
- •Стандартизированное уравнение множественной регрессии.
- •Коэффициент множественной корреляции, скорректированный коэффициент множественной корреляции, множественный коэффициент детерминации.
- •Оценка статистической значимости множественных коэффициентов регрессии, t-критерий Стьюдента.
- •Модели с переменной структурой (фиктивные переменные).
- •Оценка статистической значимости множественного уравнения регрессии, f-критерий Фишера.
- •Спецификация модели множественной регрессии. Свойства множественных коэффициентов регрессии.
- •Решение проблемы выбора модели (с ограничением и без ограничения).
- •Методы отбора факторов: априорный и апостериорный подходы.
- •Гетероскедастичность и автокорреляция случайного члена.
- •Автокорреляция 1-го порядка и критерий Дарбина-Уотсона.
- •Тест серий (критерий Бреуша-Годфри)
- •Тесты на гетероскедастичность: Голдфелда-Квандта, тест Уайта.
- •Системы регрессионных (одновременных) уравнений.
- •Структурная и приведенная формы модели.
- •Эндогенные и экзогенные переменные. Проблема идентифицируемости систем уравнений.
- •38. Оценивание параметров в системах одновременных уравнений: косвенный и двухшаговый мнк.
Метод наименьших квадратов.
Построение линейной регрессии сводится
к оценке ее параметров –
и
.
Классический подход к оцениванию
параметров линейной регрессии основан
на методе наименьших квадратов (МНК).
Согласно методу наименьших квадратов
неизвестные параметры выбираются таким
образом, чтобы сумма квадратов отклонений
выборочных значений
от значений
,
найденных по уравнению регрессии, была
минимальной:
где минимум ищется по неизвестным
параметрам
,
которые входят в зависимость
.
Найденные значения параметров, которые
минимизируют указанную сумму квадратов
разностей, называются оценками
неизвестных параметров по методу
наименьших квадратов. Полученные
оценки подставляются в функцию
вместо неизвестных коэффициентов. В
результате после подстановки получается
функциональная зависимость, в которой
нет неизвестных параметров, построенную
таким образом функцию будем обозначать
Именно эту зависимость будем рассматривать
как усредненную зависимость изучаемого
показателя от объясняющего фактора,
она и является выборочным (эмпирическим)
уравнением регрессии.
После нахождения уравнения регрессии
вычисляется остаточная сумма квадратов
по величине которой можно судить о
качестве соответствия эмпирической
функции
имеющимся в наличии статистическим
наблюдениям. Перебирая разные
функциональные зависимости и действуя
подобным образом можно практически
подобрать наиболее удачную функцию для
описания имеющихся данных.
Т.е. из всего множества линий линия регрессии на графике выбирается так, чтобы сумма квадратов расстояний по вертикали между точками и этой линией была бы минимальной (рис. 1.2):
Рис. 1.2. Линия регрессии с минимальной дисперсией остатков.
Как известно из курса математического анализа, чтобы найти минимум функции (1.2), надо вычислить частные производные по каждому из параметров и и приравнять их к нулю.
,
, (1.5)
где
– ковариация признаков
и
,
– дисперсия признака
и
,
Ковариация – числовая характеристика совместного распределения двух случайных величин, равная математическому ожиданию произведения отклонений этих случайных величин от их математических ожиданий.
Дисперсия – характеристика случайной величины, определяемая как математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.
Математическое ожидание – сумма произведений значений случайной величины на соответствующие вероятности.
Свойства коэффициентов регрессии.
В практике эконометрического анализа
чаще всего используют линейную парную
регрессию (функциональная зависимость
1). Уравнение регрессии будем искать в
виде
.
Неизвестные (пока) коэффициенты
являются оценками параметров
.
Можно сказать, что эмпирическое уравнение
регрессии
является оценкой по выборке
регрессионной модели
.
Метод наименьших квадратов для линейной парной регрессии состоит в следующем:
,
где
Вычисляя производные по параметрам
и приравнивая их к нулю, приходим к
следующей системе из двух уравнений
Решение системы уравнений называется оценкой неизвестных параметров по методу наименьших квадратов, его можно найти по формулам:
где
,
,
,
.
Используя понятия выборочных дисперсий, ковариаций и корреляций оценки наименьших квадратов (решение системы уравнений) можно записать специальным образом:
,
,
где
,
— выборочные средние,
— выборочные дисперсии,
— выборочный коэффициент корреляции.
Следовательно, парная эмпирическая линейная регрессия имеет вид
.
Нетрудно найти значения показателя, рассчитанные по линейной регрессии для тех значений объясняющего фактора, которые содержатся в выборке
,
Особое значение для проверки статистической значимости парной линейной регрессии имеют остатки (разности между значениями показателя, полученными в эксперименте, и вычисленными по уравнению линейной регрессии):
Вычисленному коэффициенту
при объясняющем факторе
в парной линейной регрессии можно дать
естественную экономическую интерпретацию.
Параметр b называется коэффициентом
регрессии. Его величина показывает,
насколько единиц изменится результат
с изменением фактора на одну единицу.
Параметр a, вообще говоря, не имеет
экономической интерпретации. Формально
– значение
при
.
Например, если a<0, то попытка его
экономической интерпретации приводят
к абсурду.
Зато можно интерпретировать знак при параметре а. Если, а>0, то относительное изменение результата происходит медленнее, чем изменение фактора.
