Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Готовые шпоры (2).doc
Скачиваний:
1
Добавлен:
01.04.2025
Размер:
522.75 Кб
Скачать

12.1 Линеаризация уравнения регрессии путем замены переменных.

Многие эк-ие явления более лучшим способом, чем лин-ые уравнения, описываются нелин-ми уравнениями. И в этом случае мы не можем применить к ним обычный МНК, и используем станд-ые подходы к оценке стат. надежности. В связи с этим встает задача по возможности привести нелин-ое уравнение к лин-му виду. В тех случаях, когда нелин-ть касается факториальных переменных, но не связана с нелин-тью коэф-ов ур-ия регрессии, нелин-сть обычно устраняется путем замены переменных:

Вводим нов. перемен.: и

След-но , т. е. лин-ое ур-ие.

Во всех случаях, когда можно вычислить нов. перем-ую с использованием инф-ии об исход. перм-ой до опред-ия пар-ов ур-ия регрессии. Метод замены пер-ых решает поставл. задачи линеализацией ур-ия регрессии.

12.2 Линеаризация уравнения регрессии с использованием логарфмического преобразования (степенные и показательные функции).

В тех случаях, когда связь между фактор-ми перем-ми и результ-им приз-ом имеет вид степенного ур-ия (мультиколлин-ая функция) линеализация произв-ся путем логарифмирования исх. ур-ия.

12.3 Представление случайного члена в преобразованных нелинейных ур-ях регрессии.

(1)

(2)

Если в (1) удовл-ет четырем условиям случайности, т. е. мат. ожид-е =0, независимо др. от друга, то случ. Составляющая во (2) также будет удовл-ть этим усл-ям, и найденные из (2) с пом. МНК оценки параметров будут несмещ-ми, состоят-ми и эффектив-ми оценками. Если будем иметь ур-ие вида: (3) , то случ. состав-ая должна входить как сомножитель.

(4)

Четырем усл-ям случайности должен удовл-ть lnδi, а само δi подчин.др. законам. Н-р,

В получаемые с пом. МНК оценки состоятельные и эфектив-ые для ур-ия (4) и все стат. критерии справедливы для лин-го аддитивного ур-ия (4).

12.4 Определение параметров нелин-го ур-ия герессии, не приводимого к лин-му ур-ию.

Возьмем ур-ие: .Данное ур-ие не м. б. приведено к лин-му путем замены переменных или логарифмированием. Для оценки парам-ов данного ур-ия также используем метод минимизации суммы квадратов отклонений. Алгоритм нах-ия парам-ов α и b представим в виде послед-ти процедур:

1) примем некоторые правдоподобные исходн. знач-я α и b (α =1÷10, b = 0 ÷ 1,α0 =1,b=0,5)

2) исп-уя эти знач-я, найдем теоретич. знач-я и вычислим

3) вычислим

4)сделаем небольшой шаг по параметру α: Δ α =1+0,1= 1,1 и снова найдем величину μ(2). Если μ(2)< μ(1) , то шаг сделан в правильном направлении.

5) продолжаем увелич-ть α в дан. напр-ии по шагам до тех пор, пока μ не начнет расти.

6) аналогич-ую процедуру проводим с параметром b фиксиров. α.

7) фиксируем найденное b и снова начинаем изменять α. Процедура повтор-ся до тех пор, пока любые измен-ия α и b не будут приводиь к увнлич-ю μ.

12.5 Выбор вида ур-ия регрессии с использ-ем теста Бокса-Кокса.

Исп-ие нелин-ых ур-ий для построения ур-ия регрессии значит-но повышает универс-сть регр-го анализа, но и усложняет задачу исслед-ля, т.к. усложняется проблема спецификации ур-ия регрессии. Если мы имеем дело с парной регрессией, то вид ур-ия м.б. решен (выбран) путем построения графика зависимости у = f(x) и по виду этого графика можно дост-но просто выбрать ур-ия. Однако в случае множ-ой регрессии такой подход практич-ки невозможен. В этом случае часто задача решется путем подбора подходящей функции и в качестве критерия оптим-ти используют коэф-т множ-ой детерминации R2, иногда сумма квадратов отклонений. Такой подход неправомерен, если сравниваются принципиально различ-е функц-ые зависимости. Н-р: лин-ая аддитивная модель (1) мультипликтивная модель (2)

Использовать для срав-ия этих моделей сумму кавдратов отклонений невозм-но, т. к. lnyi yi, а значит-но < его

(3)

Величина R2 также не может быть использ-на, хотя она и безразмерна, т. к. она относ-ся к разным понятиям. В (1) она объясняет дисперсию у, объясн-ую дисперсией факториальных приз-ов (х1 и х2). Во (2) она объясняет дисперсию lny, вызванную дисперсией ln х1 или ln х2 . В тех случаях, когда R2 у одной модели значит-но >, чем у другой, тогда можно обоснованно осущ-ть выбор в пользу этой модели. Однако в тех случаях, когда R2 одной и др. модели соизмеримы др.с другом, то проблема выбора усложняется. В этом случае предлагается для выбора исп-ть тест Бокса-Кокса (это в общем случае). Для сравнения моделей (1) и (2) Пол Зарембко предложил упрощение теста Бокса-Кокса в 1968г. Суть теста в этом сл. след-ая:

  1. исход-ые данные по у исп-ся для вычисления средней геометрической

  2. значение у персчит-ся с исп-ем

  3. исп-ие нов. знач-я у находим параметры (оценки) ур-ия (1). А исп-уя ln y’из ур-ия (3) нах-ся оценки ао12.Для этих двух моделей (1) и (3) нах-ся сумма квадратов отклонений. Эти суммы являются сопоставимыми и след-но та модель, которая дает меньшую сумму квадратов отклонений и признается лучшей.

  4. для того, чтобы окончат-но решить вопрос, что действительно одна из моделей дает лучшее соответ-ие, рассчит-ся пок-ль: , где Т-число набл-й (n), Z-отнош-е ∑ кв. отклонений в 1 и 2 ур-ии. . Х2расч. сравнив-ся с табличным. Данное стат. распределение им. одну степень свободы и разное знач-е уровня значимости, если Х2расч. > Х2табл. при 5 %-значимости, то действ-но одна из моделей сущ-но лучше другой.