
- •1. Двумерная линейная регрессионная модель и её особенности.
- •2. Этапы построения регрессионной модели, предпосылки регрессионного анализа.
- •1. Зависимая переменная yi (возмущение εi) – случайная величина, а объясняющая переменная XI – неслучайная величина
- •5. Зависимая переменная yi (возмущение εi) имеет нормальный закон распределения n(μ, σ)
- •3. Проверка значимости коэффициентов регрессии и всего уравнения в целом.
- •4. Методы, используемые для оценки неизвестных параметров уравнения регрессии
- •5. Проверка значимости уравнения регрессии. Разложение дисперсий.
- •6. Интервальные оценки параметров регрессионной модели
- •8. Спецификация регрессионной модели. Выбор вида функции регрессии f(X).
- •9. Нелинейные регрессионные модели и оценка их параметров.
- •10. Метод наименьших квадратов. Вывести выражение для мнк-оценки вектора b для линейной регрессионной модели.
1. Двумерная линейная регрессионная модель и её особенности.
;
где Y– зависимая переменная;
X – объясняющая переменная;
εi –случайная переменная, характеризующая отклонение от функции регрессии;
βj - генеральные коэффициенты регрессии
Предпосылки регрессионного анализа:
1. Зависимая переменная yi (возмущение εi) – случайная величина, а объясняющая переменная xi – неслучайная величина
2. М(εi)=0;
3. Дисперсия случайных остатков постоянна для любого i: D(εi)=σ2
4. Переменные εi и εj не коррелированы: M(εi εj)=0
5. Зависимая переменная yi (возмущение εi) имеет нормальный закон распределения N(μ, σ)
В модели определению подлежат параметры уравнения регрессии β0 и β1, называемые коэффициентами регрессии, а также - остаточная дисперсия. σ2ост.
2. Этапы построения регрессионной модели, предпосылки регрессионного анализа.
1. Формулировка цели исследования, которая включает в себя отбор результативного показателя y и постановку задачи;
2. Отбор на содержательном уровне объясняющих переменных, оказывающих наибольшее влияние на результативный показатель y;
3. Сбор необходимой статистической информации, т.е. регистрация для каждого наблюдения значений результативного и объясняющих переменных, входящих в модель
4. Выбор вида функции регрессии f(X).
5. Идентификация модели. Оценивание неизвестных параметров регрессионной модели по исходным статистическим данным.
6. Верификация модели. Анализ адекватности модели, уровня согласованности исходных и модельных значений результативного показателя.
Предпосылки регрессионного анализа:
1. Зависимая переменная yi (возмущение εi) – случайная величина, а объясняющая переменная XI – неслучайная величина
2. М(εi)=0;
3. Дисперсия случайных остатков постоянна для любого i: D(εi)=σ2
4. Переменные εi и εj не коррелированы: M(εi εj)=0
5. Зависимая переменная yi (возмущение εi) имеет нормальный закон распределения n(μ, σ)
3. Проверка значимости коэффициентов регрессии и всего уравнения в целом.
Проверка значимости уравнения регрессии т.е. гипотезы H0: β1=0
Используется F-критерий, основанный на статистике:
По таб.4 F-распределения Фишера-Снедекора находится Fкр (α; ν1=1; ν2=n-2).
Если Fн > Fкр, то гипотеза H0 отвергается с вероятностью ошибки и уравнение регрессии считается значимым.
Проверка значимости коэффициентов регрессии проводится по t-критерию. Нулевая гипотеза βi=0
Рассчитывается статистика
tкр = t (α;n-2).
Если наблюдаемое больше критического, то нулевая гипотеза отвергается, коэффициент значим.
Если меньше – не отвергается, коэффициент не значим.
4. Методы, используемые для оценки неизвестных параметров уравнения регрессии
Для нахождения оценок параметров уравнения регрессии чаще всего используется метод наименьших квадратов (МНК).
Обозначим оценки параметров уравнения регрессии β0 и β1 как b0 и b1.
В соответствии с методом наименьших квадратов (МНК) оценки b0 и b1 можно получить из условия минимизации суммы квадратов ошибок оценивания, т.е. минимизации суммы квадратов отклонений фактических значений зависимой переменной от расчетных ее значений, полученных на основе уравнения регрессии.
МНК:
yi – фактические значения зависимой переменной,
ŷi - расчётные значения, полученные на основе уравнения регрессии.
Разность
называется
остатком и дает количественную оценку
значения ошибки, т.е. показывает
воздействие возмущающей переменной.
МНК позволяет получить несмещённые оценки, а в случае линейной модели – оценки с минимальной дисперсией, дающие хорошее приближение оценок bj к истинным значениям коэффициентов регрессии βj.
Для оценки неизвестных параметров уравнения помимо МНК используют следующие критерии адекватности (функции потерь):
Метод наименьших модулей;
Метод минимакса.
Согласно МНМ минимизируется сумма
абсолютных отклонений наблюдаемых
значений результативного показателя
от модельных значений
Получаемая регрессия называется среднеабсолютной (медианной).
Метод минимакса сводится к минимизации максимума модуля отклонения наблюдаемого значения результативного показателя от модельных значений
Получаемая регрессия называется минимаксной.