- •1.1.2 Выборка и генеральная совокупность. Типы выборок.
- •1.1.3 Ранжирование (группировка, классификация) данных.
- •1.1.4 Распределение вариант и распределение средних. Выборочные характеристики как оценки характеристик генеральной совокупности. Свойства оценок: несмещенность, состоятельность, эффективность.
- •1.1.5 Оценка стандартного отклонения для распределения средних.
- •1.1.6 Доверительный интервал -1. Интервал для среднего случайной выборки, если генеральное среднее известно
- •1.1.7 Доверительный интервал -2. Интервал для генерального среднего
- •1.1.8 Нулевая гипотеза - 1. Основные понятия.
- •1.1.9 Нулевая гипотеза - 2. Зачем нам два уровня значимости
- •1.1.10 Критерий χ-квадарат.
- •1.2 Двумерные случайные величины
- •1.2.1 Правила вычислений моментов второго порядка
- •1.1.2 Коэффициент корреляции
- •2. Регрессионный анализ
- •2.1 Парная линейная регрессия
- •2.1.1 Простейшая модель – парная линейная регрессия
- •2.1.2 Мера оценки отклонений – метод наименьших квадратов (мнк).
- •2.1.3 Практические вычисления для линейной модели.
- •2.1.4 Условия применимости метода наименьших квадратов
- •2.1.5 Качество оценки переменной y, полученное с помощью уравнения регрессии.
- •2.1.6 Качество модели – f-критерий (критерий Фишера)
- •2.1.7 Оценки ошибок коэффициентов регрессии
- •2.1.8 Проверка гипотез для коэффициентов регрессии
- •2.2 Парная нелинейная регрессия
- •2.2.1 Распространение методов парной линейной регрессии на нелинейные задачи
- •2.2.2 Квадратичная регрессия
2.2 Парная нелинейная регрессия
Мы достаточно подробно описали как способы вычисления параметров линейной регрессии, так и способы оценок качества моделей, которые можно построить с ее использованием. Однако далеко не все зависимости, в том числе зависимости, часто встречающиеся в экономических задачах, носят линейный характер. И возникает естественный вопрос – а как нам поступать в подобных случаях?
2.2.1 Распространение методов парной линейной регрессии на нелинейные задачи
Есть ряд характерных экономических задач, требующих нелинейных зависимостей для своего описания. Например, для описания зависимости спроса на товар от семейного дохода (кривые Энгеля) используются зависимости:
(2.10)
(2.11)19
В приведенных примерах зависимости объясняемой переменной Y от объясняющей переменной Х очевидно нелинейны. Однако обе эти зависимости содержат всего два параметра, подлежащих определению. А это дает нам шанс воспользоваться линейным регрессионным анализом. Действительно, первое из этих уравнений (2.10) нелинейно по Х, но линейно по искомым параметрам 1 и 2. Следовательно достаточно вместо объясняющей величины Х ввести новую объясняющую величину и мы получим хорошо нам знакомый вид зависимости: Y= 1 + 2 Z, и далее весь аппарат линейной регрессионной модели прекрасно работает.
Вполне очевидно, что подобный подход применим не только к зависимости типа (2.10), но ко всем зависимостям типа: Y= 1 + 2 f(X), где f(X) – функция, строго монотонная на интересующем нас интервале20; достаточно перейти к новой объясняющей переменной Z= f(X), – и мы получим хорошо нам знакомую линейную модель Y= 1 + 2 Z.
Более того, предлагаемый подход можно расширить на боле сложные двухпараметрические модели, если допустить замену не только объясняющей, но и объясняемой переменной. Например, пусть предполагаемая зависимость между нашими переменными имеет вид:
Y= 1 X + 2 X3.
Разделив обе части этого равенства на , получим следующую зависимость:
Если теперь сделать двойную замену переменных, заменив X2 на Z, а на W, то получим для новых переменных линейную зависимость:
Случай, представленный формулой (2.11) выглядит более сложным, т.к. параметр зависимости 2 входит в формулу нелинейным образом. Однако и в этом случае можно подобрать подходящую замену переменных. В самом деле, эта формула описывает зависимость с постоянной эластичностью, равной 2. А зависимости постоянной эластичностью становятся линейными в логарифмическом масштабе. Следовательно, если осуществить двойную логарифмическую замену: W = lg(Y), Z = lg(X), а также ввести обозначение: 0 = lg(1), мы увидим, что нелинейная двухпараметрическая зависимость (2.11) превратится в хорошо нам знакомую линейную модель
W = 0 + 2 Z
Как мы видим, спектр применения модели линейной регрессии оказывается гораздо более широким, чем это кажется на первый взгляд.
Приведем в заключение таблицу наиболее часто встречающихся нелинейных зависимостей, которые определенными взаимно однозначными преобразованиями переменных могут быть приведены к линейной модели.
-
Исходная зависимость
Искомые параметры
Преобразованная зависимость
Введенные вспомогательные величины
1, 2
W = 0 + 2 Z
W = lg(Y), Z = lg(X), 0 = lg(1)
1, 2
Y= 1 + 2 Z
1, a
Y= 2 + 1 Z
Z = lg(X), 2 = 1 lg(a)
Y= 1 X + 2 X3
1, 2
W = 1 + 2 Z
W = , Z = X2,
1, 2
W = 0 + 2 X
W = ln(Y), 0 = ln(1)