
- •1.Выборочная ковариация. Основные правила расчета ковариации. Теоретическая ковариация. Недостаток ковариации как меры связи.
- •6.Определение доверительных интервалов для коэффициентов и функций регрессии. Доверительный интервал для параметров регрессионной модели.
- •8. Несмещенность коэффициентов регрессии. Точность коэффициентов регрессии.
- •9. Стандартные ошибки коэффициентов регрессии
- •7. Оценка дисперсии возмущений
- •14. Функция спроса. Производственная функция Кобба—Дугласа и ее свойства: эластичность выпуска продукции, эффект от масштабов производства, прогнозируемые доли производственных факторов.
- •12.Оценка значимости уровня регрессии. Коэффициент детерминации.
- •13.Преобразование переменных в регрессионных моделях. Базовая процедура преобразования переменных. Логарифмические преобразования. Нелинейные регрессионные модели.
- •15 Проблема гетероскедастичности.
- •16. Проблема мультиколлинеарности.
- •17. Нелинейная регрессия. Виды моделей
- •18.Уравнение регрессии с переменной структурой (с фиктивными переменными)
- •19. Критерий г. Чоу
- •20. Частная корреляция
12.Оценка значимости уровня регрессии. Коэффициент детерминации.
Коэфф-т детерминац исп д/проверки кач-ва модели в целом. Показывает, какую долю общ вариации составляет объясненная регрессией вариация. Провер по F-крит =R2(n-k-1)/(1-R2)k, сравнив с Fтабл(α = 0,05; n-k-1; k) по табл распр Фишера. F превыш табл - R2 стат значим, модель адекватна. +На кажд шаге метода посл включ провер влияние включенн переменной на коэфф регр, если радикально измен все коэфф-ты регр, но R2 без улучш, х вредный.
;
,
что
равносильно
Максимальное значение коэффициента R2 равно единице. Это происходит в
том случае, когда линия регрессии точно соответствует всем наблюдениям, так
что
для
всех i
и все остатки равны нулю. Тогда Var(
)
=
Var (у),
Var
(e)
=
О
R2=1.
Если в выборке отсутствует видимая связь между у и х, то коэффициент R2
будет близок к нулю.
13.Преобразование переменных в регрессионных моделях. Базовая процедура преобразования переменных. Логарифмические преобразования. Нелинейные регрессионные модели.
Уравнения
вида
и
y=αxβ
являются
нелинейными, но в обоих случаях можно
применить линейный регрессионный
анализ. Уравнения являются линейными
в двух смыслах. Правая часть линейна
по переменным, если определить их в
представленном виде, а не как функции.
Следовательно, она состоит из взвешенной
суммы переменных, а
параметры являются весами. Правая часть также линейна по параметрам, так как она состоит из взвешенной суммы параметров, а переменные х в данном случае являются весами. Для целей линейного регрессионного анализа важное значение имеет только
второй тип линейности.
Логарифмические преобразования
соотношение у = αхβ может быть преобразовано в линейное
уравнение путем использования логарифмов.
Используя правила применения логарифмов, уравнение можно преобразовать
в линейное путем логарифмирования его обеих частей. Если соотношение у = αхβ верно, то
logy = log αхβ = logα + βlogх
Если обозначить у' = log у, z=log x и α' = logα, то уравнение у = αхβ можно
переписать в следующем виде: y' = α' +βz
Нелинейная регрессия
Предположим, что переменная у связана с переменной х следующим
соотношением: y = α+ βхɤ + u
необходимо получить оценки α, β и ɤ, имея значения у и х. Для получения оценок параметров мы можем
применить принцип минимизации суммы квадратов отклонений
Процедуру лучше всего описать как последовательность шагов.
1. Принимаются некоторые правдоподобные исходные значения параметров.
2. Вычисляются предсказанные значения у по фактическим значениям х с
использованием этих значений параметров.
3. Вычисляются остатки для всех наблюдений в выборке и, следовательно,
S — сумма квадратов остатков.
4. Вносятся небольшие изменения в одну или более оценку параметров.
5. Вычисляются новые предсказанные значения у, остатки и S.
6. Если S меньше, чем прежде, то новые оценки параметров лучше прежних
и их следует использовать в качестве новой отправной точки.
7. Шаги 4, 5 и 6 повторяются вновь до тех пор, пока не окажется невозможным
внести такие изменения в оценки параметров, которые привели бы
к уменьшению S.
8. Делается вывод о том, что величина S минимизирована и конечные оценки
параметров являются оценками по методу наименьших квадратов.