
- •Содержание
- •Предисловие
- •§ 1. Функциональная и корреляционная зависимости
- •§ 2. Определение статистической взаимосвязи
- •§ 3. Эмпирическая регрессия
- •§ 4. Дисперсионное и корреляционное отношения
- •§ 5. Аналитическая регрессия. Метод наименьших квадратов
- •§ 6. Линейная регрессия
- •§ 7. Ковариация и коэффициент корреляции
- •§ 8. Линейное уравнение регрессии в стандартных масштабах
- •§ 9. Некоторые нелинейные функции регрессии
- •§ 10. Множественная корреляция и регрессия
- •§ 11. Замена переменных в уравнениях регрессии
- •Приложения Приложение I. Теорема о разложении дисперсии
- •Приложение II. Теорема о среднем значении регрессии
- •Приложение III. Вторая теорема о разложении дисперсии
- •Приложение IV. Доказательство ограниченности ковариации
§ 11. Замена переменных в уравнениях регрессии
Все рассмотренные выше системы нормальных уравнений были линейными системами относительно неизвестных параметров уравнений регрессии (хотя сами уравнения регрессии были как линейными, так и нелинейными, например, в § 9). В подобных случаях параметры регрессии всегда могут быть определены точными методами.
Однако в некоторых случаях приходится сталкиваться с регрессиями такого вида, что система нормальных уравнений слишком сложна для решения. Например, для степенной функции
с параметрами A и B частные производные равны
и система нормальных уравнений принимает вид:
Такая система не может быть решена относительно A и B элементарными методами. Разумеется, она может быть решена численными методами с нужной степенью точности. Однако при этом оказывается невозможным применение тех инструментов анализа, которые описаны выше.
Эта сложность может быть преодолена линеаризацией регрессии — заменой переменных, сводящей поставленную задачу к нахождению линейной регрессии. При этом решение существенно упрощается. Кроме того, появляются возможности использовать при исследовании нелинейных зависимостей тот аналитический аппарат, который был выше рассмотрен применительно к системе линейных связей, — одновременно с нахождением параметров регрессии оценить тесноту связи, разделить непосредственные и косвенные влияния и т. д.
Рассмотрим степенную функцию нескольких переменных:
Логарифмируя обе части полученного выражения и вводя новые переменные
(11.1)
мы придем к линейной множественной регрессии:
Методы
определения коэффициентов регрессии
и свободного члена, который здесь
обозначен
,
подробно рассмотрены в предыдущем
параграфе.
Аналогичным образом может быть преобразована и показательная функция вида
Логарифмируя обе части этого равенства и вводя обозначения
,
(11.2)
мы снова придем к линейному уравнению
с коэффициентами, получившими здесь обозначения log A, log B1, log B2, …, log Bn.
Так как расчет линейных регрессий представляет собой стандартную операцию, то к замене переменных и приведению регрессии к линейному виду часто прибегают даже в тех случаях, когда коэффициенты могут быть определены непосредственно из системы нормальных уравнений. Так, например, имея функцию регрессии в виде полинома степени n
можно ввести замену переменных
ui xi, (11.3)
приводящую регрессию к линейному виду:
Следует отметить,
что уравнение, полученное заменой
переменных, будет соответствовать
принципу наименьших квадратов только
в тех случаях, когда результативный
признак не заменяется другой переменной.
Например, отклонения
и
не связаны однозначно друг с другом.
Поэтому решение, доставляющее минимум
среднему квадрату отклонений логарифмов,
строго говоря, не должно приводить к
минимуму среднего квадрата отклонений
самого результативного признака. Тем
не менее, если расчетные значения
логарифмов функции регрессии близки к
соответствующим фактическим значениям
логарифма результативного признака,
то и сами эти значения — фактическое и
регрессионное — мало отличаются друг
от друга.
Более того,
применение критерия наименьших квадратов
к логарифму результирующей переменной
(так называемый логарифмический
МНК) может
оказаться предпочтительнее «строгого»
МНК. Дело в том, что разность логарифмов
есть логарифм отношения, и если
результирующая переменная изменяется
в широких пределах, то минимизация
относительных отклонений в форме
обычно
представляет больший интерес, чем
минимизация разностей
.
Если же заменяются
только признаки-факторы, то регрессия
строго соответствует критерию наименьших
квадратов, так как и в исходном, и в
преобразованном уравнениях отыскиваются
коэффициенты, обращающие в минимум
средний квадрат отклонения
.
Таким образом, в рассмотренных степенном
и показательном уравнениях замена
переменных приводит к решению,
отличающемуся от точного результата,
отвечающего критерию наименьших
квадратов, так как результирующая
переменная заменяется [равенства (11.1)
и (11.2)]; замена переменных для полинома
(11.3) приводит к уравнению, строго
соответствующему методу наименьших
квадратов.
Рассмотрим пример.
В таблице 11.1 приведены результаты
наблюдения, в ходе которого фиксировались
значения признаков x
и y.
Вид корреляционного поля приведен на
рис. 11.1. Качественный анализ требует,
чтобы значение
при x
0 равнялось нулю. Поэтому зависимость
ищется в виде степенной функции
Таблица 11.1. Расчет параметров степенной регрессии
№ наблюдения |
x |
y |
u0 = ln x |
u1 = ln y |
|
u0u1 |
I |
1 |
0.8 |
0.000 |
– 0.223 |
0.000 |
0.000 |
II |
2 |
2.0 |
0.693 |
0. 693 |
0.480 |
0. 481 |
III |
3 |
4.5 |
1.099 |
1.504 |
1.207 |
1.652 |
IV |
4 |
6.2 |
1.386 |
1.825 |
1.922 |
2.529 |
V |
5 |
11.1 |
1.609 |
2.407 |
2.590 |
3.874 |
Сумма |
|
|
4.787 |
6.206 |
6.199 |
8.536 |
Система нормальных уравнений для B и ln A:
Отсюда
;
регрессия представляет собой следующую
функцию:
Рис. 11.1
График этой функции построен на корреляционном поле (сплошная линия на рис.11.1). Там же для сравнения построен график функции
определенной численно методом наименьших квадратов (штриховая линия).