
- •1. Двумерная линейная регрессионная модель и её особенности.
- •2. Этапы построения регрессионной модели, предпосылки регрессионного анализа.
- •1. Зависимая переменная yi (возмущение εi) – случайная величина, а объясняющая переменная XI – неслучайная величина
- •5. Зависимая переменная yi (возмущение εi) имеет нормальный закон распределения n(μ, σ)
- •3. Проверка значимости коэффициентов регрессии и всего уравнения в целом.
- •4. Методы, используемые для оценки неизвестных параметров уравнения регрессии
- •5. Проверка значимости уравнения регрессии. Разложение дисперсий.
- •6. Интервальные оценки параметров регрессионной модели
- •8. Спецификация регрессионной модели. Выбор вида функции регрессии f(X).
- •9. Нелинейные регрессионные модели и оценка их параметров.
- •10. Метод наименьших квадратов. Вывести выражение для мнк-оценки вектора b для линейной регрессионной модели.
9. Нелинейные регрессионные модели и оценка их параметров.
Полиномиальные
Степенные
- многомерный случай
Гиперболические (обратная модель)
Экспоненциальные
Функция Гомперца
Показательные
где а - положительная константа
Логистические
Различают два класса нелинейных регрессионных моделей:
1. Нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам
Примером могут служить следующие модели: полиномиальная и гиперболическая (обратная модель)
2. Нелинейные как относительно включенных в анализ объясняющих переменных, так и по оцениваемым параметрам
Примером таких нелинейных моделей являются (например): степенная, показательная, экспоненциальная.
Для оценки параметров нелинейных моделей используют два подхода.
Первый подход основан на линеаризации модели.
Второй подход - нелинейная оптимизация на основе исходных переменных.
Линеаризация переменных - «замена переменных», логарифмирование обеих частей уравнения, комбинированный
10. Метод наименьших квадратов. Вывести выражение для мнк-оценки вектора b для линейной регрессионной модели.
Для нахождения оценок параметров уравнения регрессии чаще всего используется метод наименьших квадратов (МНК).
Обозначим оценки параметров уравнения регрессии β0 и β1 как b0 и b1.
В соответствии с методом наименьших квадратов (МНК) оценки b0 и b1 можно получить из условия минимизации суммы квадратов ошибок оценивания, т.е. минимизации суммы квадратов отклонений фактических значений зависимой переменной от расчетных ее значений, полученных на основе уравнения регрессии.
МНК:
yi – фактические значения зависимой переменной,
ŷi - расчётные значения, полученные на основе уравнения регрессии.
Разность называется остатком и дает количественную оценку значения ошибки, т.е. показывает воздействие возмущающей переменной.
МНК позволяет получить несмещённые оценки, а в случае линейной модели – оценки с минимальной дисперсией, дающие хорошее приближение оценок bj к истинным значениям коэффициентов регрессии βj.
Для того, чтобы найти минимум функции Q, сначала рассчитывают частные производные первого порядка, затем каждую из них приравнивают к нулю и решают полученную систему уравнений.
=>
=>
Таким образом получают систему из двух линейных уравнений, которая называется системой нормальных уравнений:
Решим систему относительно b0 и b1.