Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

В. Давнис Прогнозные модели экспертных предпочтений

.pdf
Скачиваний:
217
Добавлен:
14.08.2013
Размер:
3.39 Mб
Скачать

"повторяющихся" (или группированных) статистических наблюде­ ний, имеющих структуру вида

У,

хп

У\

< , < 2 . . х ;

УГ

Л. 9

(3.38)

tf tf

2

2

 

 

 

•у

 

1 Хп2

2

 

 

к2,

 

 

 

 

х"

х"

1»)

 

х"

Л 1 2

. X?

 

xN

"

'

'

21

^22

2/г

 

<

х"

х \

. . . xN

 

 

" Л '

 

nsit,

 

В каждой Л-й фуппе наборы

независимых переменных

равны

между собой, т.е. х* = х* = •••

= **,. где

х* = (*,-,, х*2' . . .,

х-т).

Фактически имеет место

ситуация,

когда

в выборке присутствуют

по нескольку наблюдений зависимой переменной у, соответству­

ющих одним и тем же значениям объясняющих

переменных (либо

в группе все наборы объясняющих переменных

в силу того, что

мало

отличаются друг от друга, заменены

одним

и тем же набо­

ром

с усредненными значениями х( ). В

этом

случае ф у н к ц и я

правдоподобия приобретает

следующий вид:

 

 

L(y; b) = ПП{р (х *ь >'' [1- F(x*b)]'"v' } =

 

2><

 

 

 

 

=пF(x*b)M

I-F(x*b) '•'

 

(3.39)

70

Если все пк достаточно велики, то можно вместо максимиза­ ции логарифмической функции правдоподобия для получения оценок параметров модели применить схему метода взвешенных наименьших квадратов. С этой целью перейдем от исходного на­ бора наблюдений к наблюдениям вида

(ДД.), / = 1,2, ...,7V,

(3-4°)

где р =2^у'- / rij— относительная частота события, состоящего в

/=' том, что зависимая переменная примет значение, равное едини­

це, при значениях объясняющих переменных,

равных х,.

В соответствии с теоремой Бернулли относительная частота Д

связана с истинным значением вероятности

P{j,-=l|x,.) = F(x;b)

неравенством

 

P{|p,.-F(x,.b)j<£}>l-<5,

(3.41)

которое позволяет записать соотношение

 

р{ = F(x,b) + £,.

(3.42)

Случайная составляющая е1 имеет нулевое математическое ожида­ ние Е(е,) = 0 и дисперсию, равную D(e,) = F(x/b)(l-F(x,b))/« .

Таким образом, соотношение для относительной частоты мож­ но рассматривать как нелинейную регрессию с гетероскедастичными (т.е. имеющими неравные дисперсии) остатками. Параметры та­ кой регрессии оцениваются с помощью итерационной вычислитель­ ной процедуры, минимизирующей взвешенную сумму квадратов

i f F ^ b K l - F ^ b ) ) ] - 1 ^ -F(x; b)]2 .

(3.43)

Упростить построение нелинейной регрессии можно в том слу­ чае, если удается подобрать такое преобразование, которое позво­ ляет заменить нелинейную модель линейной, эквивалентной ис­ ходной в смысле совпадения оцениваемых параметров. Таким преобразованием является функция F1 , обратная функции рас­ пределения вероятности соответствующего закона. Если операцию обращения применить к (3.42), то получается соотношение

5?, =х,.Ь + е,.,

(3.44)

представляющее собой линейную регрессию, обоснованность ко­ торой приводится ниже.

71

Промежуточное представление при переходе от (3.42) к (3.44)

F-1 (A) = F"1(F(x/b) + e/)

(3.45)

можно в окрестности точки е = 0 разложить в ряд Тейлора и, ограничившись точностью первого порядка, записать следующим образом:

F4(A-) = F-1(F(xI.b)) +

dF-(Ff )

 

 

(3.46)

 

 

 

dF

 

 

 

 

 

 

 

 

где F (F(x/b)) = x,b,

а остаточный

член легко

преобразуется к

виду

 

 

 

 

 

 

dF"'(F.)_

1

1

___ 1

 

dF;

~ dF(F,.) /<Щ. ~ f(x,b)

~ f;

( 3 , 4 7 )

В преобразованном остаточном члене величина

f

= f(x-b) рав­

на значению функции плотности закона распределения вероятно­ сти F в точке Х-Ь.

Введение обозначений y=Y'\p) и £ . = £ . / / позволяет запи­ сать уравнение регрессии (3.44). Зависимая переменная в этом уравнении представляет собой квантиль уровня pt функции распреде­ ления F. Случайные составляющие £г- имеют нулевые математические

ожидания Е(ё~) = 0 и неравные дисперсии D(£}) = F,(l -

F,)//?,- ff.

В результате проведенных преобразований задача

построения

нелинейных логит- и пробит-моделей свелась к оценке параметров линейной функции регрессии с гетероскедастичными остатками. В качестве зависимых переменных в этих функциях регрессии применяются квантили соответствующих распределений. В логитмоделях для расчета квантиля используется функция

Й = 1П[А-/(1-Д->],

(3.48)

которая является решением уравнения

 

ez/(l + ez) = pi

(3.49)

относительно z, т.е. действительно находит

квантиль уровня р{.

В пробит-моделях значения зависимой переменной yi опреде­

ляются в виде табличных квантилей уровня

Pi стандартного нор­

мального распределения.

72

После преобразования моделей к линейному виду их построение осложняется только гетероскедастичностью остатков е;-. Как извест­ но, избежать возможного искажения коэффициентов удается путем применения взвешенного метода наименьших квадратов. В каче­ стве весовых коэффициентов в этом методе используются величи­ ны, обратные дисперсии соответствующих остатков De}. Для ло- гит-модели весовые коэффициенты определяются из соотношения

 

 

Щf/2 =

.dA(x.b) 2

 

(') =

_J_ =

"' d(»,b)

= я,-Л2(1-Л,-)2 =

Щ

Det

Ц-а-Ц)

Л(х1-Ь)(1-Л(х/Ь)

Л;(1-Лг-)

 

 

 

= л,.Л,.(1-Л,).

(3.50)

Таким образом, оценка параметров логит-модели сводится к решению оптимизационной задачи вида

Х и ^ ф - Х / Ь ) 2

-* m in,

(3.51)

/=i

ь

 

где у,- рассчитано по формуле (3.48); w(/) определяется в соответ­ ствии с (3.50).

Оценка параметров b пробит-модели сводится к решению этой же оптимизационной задачи, но с другими значениями зависимой пе­ ременной и другими весовыми коэффициентами. Для пробит-модели значения зависимой переменной yt определяются в виде табличных квантилей уровня pi стандартного нормального распределения, а

весовые коэффициенты w- рассчитываются по формуле

 

w\n) =п,.ф2(х,Ь)/Ф(х,Ь)(1-Ф(х,.Ь)),

(3.52)

в которой ср — функция плотности, а Ф — функция распределе­ ния стандартного нормального закона вероятности.

При фиксированных значениях весовых коэффициентов w ре­ шение оптимизационной задачи (3.51) легко получается с помо­ щью обобщенной процедуры метода наименьших квадратов. Од­ нако в рассматриваемом случае веса w зависят от оцениваемых параметров Ь, и решение оптимизационной задачи можно полу­ чить, применив итерационную процедуру. На первом шаге этой процедуры оптимизация (3.51) проводится с помощью обобщен­ ного метода наименьших квадратов при w = 1. Полученные оцен­ ки Ь^1' используются для подсчета по соответствующим формулам

73

весовых коэффициентов w' '(b^') или w^p\h( ') в зависимости от модели (логит-модель или пробит-модель). Эти новые коэффици­ енты применяются в обобщенном методе наименьших квадратов на следующем шаге итерационной процедуры для получения оце­ нок Ь^ '. Итерационная процедура продолжается до тех пор, пока пересчитанные весовые коэффициенты очередного шага не совпа­ дут до определенного знака после запятой с весовыми коэффици­ ентами предыдущего шага.

Подобного рода итерационные процедуры применяются во мно­ гих статистических пакетах. В частности, возможность построения моделей бинарного выбора с использованием итерационной проце­ дуры реализована, например, в пакетах Eviews и STATISTICA.

3.3. Оценка качества пробит- и логит-моделей

3.3-1 • Адекватность

Оценка качества регрессионных моделей с бинарной зависимой переменной осуществляется практически по той же схеме, что и качества обычной линейной регрессии: определяет­ ся пригодность модели в целом, затем — статистическая значи­ мость каждого коэффициента модели и, наконец, проверяются гипотезы (если они имеют место) относительно ограничений, которым могут удовлетворять отдельные группы параметров.

Пригодность модели в целом (адекватность) определяется с по­ мощью двух показателей. В качестве первого рассмотрим предло­ женный Макфадденом (McFadden) индекс отношения правдоподобия

т о т 1

toLflj)

 

lnL(60)

где InL(b) — максимальное значение логарифмической функции правдоподобия, достигаемое в точке, координаты которой равны оценкам параметров модели b = (b0, bx,..., bm), a lnL(£0) — зна­ чение логарифмической функции правдоподобия, вычисленное в предположении, что Ьх = Ь2 = ... = Ът = 0. (Во многих пакетах предусмотрен расчет этих значений функции правдоподобия.)

Интуиция подсказывает, что значения такого показания долж­ ны быть заключены между 0 и 1. Действительно, в случае, когда все коэффициенты, кроме Ь0, равны нулю, индекс отношения правдоподобия тоже равен нулю. Если же модель оказалась такой,

74

что ее расчетные значения у = (F(x Ь) в точности совпадают с наблюдаемыми значениями уп т.е. имеют место только случаи или у( = у. =1, или у: = у. = 0 , то индекс LRI = 1. О такой модели принято говорить, что она совершенно согласована. В остальных случаях значение LRI заключено между 0 и 1, причем чем больше совпадений между расчетными и фактическими зна­ чениями, тем ближе значение индекса к 1. К сожалению, слу­ чаи, когда значения индекса заключены между нулем и едини­ цей, не имеют собственной интерпретации. Даже в случае когда построенная модель идентична истинной функции распре­ деления вероятностей, она не является совершенно согласованной.

Второй показатель принято называть псевдо (pseudo) R2. Его расчет осуществляется по формуле

j^2 _ j

\

 

n

2(lnL(b)-rnL(4))) '

( 3 5 4 )

 

п

 

где п — объем выборки.

Как и в случае индекса LRI, псевдо R2 равен 0, когда все коэффициенты модели, кроме Ьф равны нулю. Его значение приближается к 1 по мере того, как увеличивается разность между InL(b) и 1пЦЪ0), но 1 не достигает. Чем ближе к 1 значение псевдо R2, тем точнее модель воспроизводит фактические значе­ ния бинарной переменной.

3.3.2. Статистическая значимость коэффициентов

Проверка статистической значимости отдельных коэф­ фициентов модели осуществляется с помощью статистики Вальда. Для вычисления ее значения необходимо иметь стандартные ошибки коэффициентов модели. Стандартные ошибки, как и в случае линейной регрессии, определяются по диагональным эле­ ментам ковариационной матрицы оценок 6. Но прежде чем пе­ рейти к определению значимости, исследуем вопрос состоятель­ ности и асимптотической нормальности этих оценок.

Известно, что решение любого из уравнений правдоподобия (3.1) или (3.2), даже если оно существует, не обязательно име­ ет хорошие асимптотические свойства. Желаемые состоятельность и асимптотическая нормальность обеспечены только в том случае, когда выполняются определенные условия, налагаемые на пове-

75

дение объясняющих переменных в генеральной совокупности. Существуют два подхода к этой проблеме:

1) полагают, что объясняющие переменные являются стохас­ тическими. Тогда налагаемые на них условия предстают в форме "все х. являются независимыми, одинаково распределенными слу­ чайными переменными, для которых существуют моменты доста­ точно высокого порядка";

2) полагают, что объясняющие переменные фиксированы. В этом случае условия будут следующими:

для зависимой переменной у: существует асимптотическая матрица вариации-ковариации;

значения независимых переменных х. ограничены, т.е.

всегда найдутся такие константы т, М; т >— °°, М<^>, что т < х. < М, V/, /'.

Если одно из этих условий выполнено, то при достаточно больших п оценка b существует и сходится по вероятности к ис­ тинному значению Ь. Ковариационная матрица этой оценки рав­ няется матрице, обратной к информационной матрице Фишера, которая представляет собой математическое ожидание Гессиана, взятое с обратным знаком

V(b) = r' = J-E

Э2 ln(L)

(3.55)

 

ЭЬЭЬ'

 

Предполагается, что математическое ожидание здесь берется условно по х.

Таким образом, при выполнении сформулированных выше условий можно считать, что оценка вектора коэффициентов мо­ дели, полученная с помощью метода максимального правдоподо­ бия, является асимптотически нормальной, т.е.

R

 

 

J

(

- Е

Э2ln(L) _- 1 - 1

"i

 

ЭЬЭЬ' J

 

 

V

 

 

 

Как нетрудно понять, асимптотическая матрица ковариации зависит от неизвестного параметра Ь. Поэтому непосредственное использование ее в практических расчетах исключено. Рекоменда­ ции здесь те же самые, что и при использовании обычной регрес­ сии — неизвестные параметры, присутствующие в матрице, сле-

76

дует заменить соответствующими оценками. Руководствуясь этим общим правилом, можно записать

V(b)= - E

Э21п(Ъ)

(3.57)

 

ЭЬЭЬ'

ь=ь

 

 

и использовать в практических расчетах не ковариационную мат­ рицу, а ее оценку.

Рассмотрим детально, каким образом может быть получена оценка этой матрицы. Для этого вычислим матрицу вторых про­ изводных (Гессиан)

 

Э2 ln(L) _ Э

ain(L)

 

 

 

ЭЬЭЬ'

дЪ

эь

 

 

п

f'F-f2 ,

f'(l-F) + f 2

 

/=1

F2

 

(1 - F) 2

- X / X / O - J V )

(3.58)

 

 

 

где F = F(x,.b) и f = f(x,b).

Для получения информационной матрицы Фишера необходи­ мо Гессиан умножить на —1 и взять математическое ожидание. Используя тот факт, что Е(_у;) = F(x/b), и проведя несложные преобразования, получаем

1 = Е

- Э2

In (L)

= 2-

[f(x,b)r

(3.59)

ЭЬЭЬ'

 

 

/ ^F(x / b)[l - F(x / b)]

 

Соответственно асимптотическая матрица вариации-ковариации Ь примет вид

 

 

-1

-1

 

(3.60)

]aF(x,b)[l-F(x,b)J

 

а ее оценка равна

 

 

v(b) = r1 = js

[f(x,b)]2

(3.61)

F(x,b)[l-F(x,b)]

 

Корни квадратные из диагональных элементов этой матрицы Sf

Чкк

являются стандартными ошибками соответствующих оценок \)ъ Их используют для получения статистики Вальда

11

f

b,л

 

т.

(3.62)

 

, к=0,

1,

В случае логит-модели,

для которой

f = F ( l - F ) , матрица Фи­

шера упрощается:

 

 

 

 

21п(Ь)

XFCx^tl-FCx^JxX.

( 3 6 3 )

ЭЬЭЬ'

 

 

 

 

Кроме того, матрицу Фишера можно представить в более ком­ пактной и более удобной для расчетов форме. С этой целью обо­ значим через X матрицу наблюдений за экзогенными перемен­ ными, дополненную столбцом из единиц и имеющую размер пх(т+\). По-прежнему х(. будет обозначать /-ю строку матрицы наблюдений. Далее через D обозначим диагональную матрицу «-го порядка, у которой /-й элемент диагонали имеет следующий вид:

d;; =

[f(x,b)]2

(3.64)

F(x,b)[i -

F(x,b)]

 

 

Тогда информационная матрица Фишера может быть записана следующим образом:

_ 2

1п(Ь)"

= ХТ)Х.

(3.65)

1 = Е

ЭЬЭЬ'

 

 

 

Ковариационная матрица в этом случае равна

 

V(b) = (XDX)-1.

(3.66)

Такая форма ковариационной матрицы напоминает обобщенную оценку наименьших квадратов.

3.3.3- Стандартные ошибки предсказанных вероятностей и предельных эффектов

Расчетные значения F, = F(x,b), получаемые с помо­ щью оцененных пробит- и логит-моделей, представляют собой ве­ роятности того, что переменная у примет значение 1 или 0. Воз­ можные изменения этих вероятностей в зависимости от факторов оцениваются частными предельными эффектами

Э F(x,b)

f(X-b)b.

(3.67)

Эх

 

 

Это именно те характеристики, которые подлежат

интерпретации

и практическому использованию. Чтобы иметь представление о на-

78

дежности выводов, полученных на основе результатов моделирова­ ния, необходимо иметь оценки стандартных ошибок этих характе­ ристик, получить которые можно с помощью дельта-метода [63].

Для расчетной вероятности F, дельта-метод позволяет записать асимптотическую величину стандартной ошибки в виде

V( F,) = [Э F(x,b) /ЭЬ]'У(Ь)[Э F(x,b)/дЬ],

(3.68)

где V(b) — асимптотическая ковариационная матрица оценки Ь. Заметим, что доступность практического использования данной формулы гарантируется тем, что асимптотическую ковариацион­ ную матрицу в ней, следуя рекомендациям предыдущего парагра­

фа, можно заменить оценкой V(b).

Чтобы сделать формулу (3.68) более удобной для расчетов, проведем ее преобразование. С этой целью введем обозначение: Z, = х,Ь. Тогда вектор производных может быть представлен сле­ дующим образом:

[aF(x,b)/ab] = [aF(x,b)/8zi][3z./ab] = f(x,b)x,.

(3.69)

Замена в (3.68) вектора производных на (3.69) позволяет запи­ сать выражение для стандартной ошибки расчетной вероятности

F, в более компактной форме:

 

V(F,.) = [f(x,b) ]2 x,.V(b)x;

(3.70)

Стандартная ошибка зависит от вектора, по которому рассчи­ тывалась вероятность.

Теперь перейдем к рассмотрению предельных эффектов. Для удобства введем обозначение g =f(xb)b- Тогда асимптотическая ковариационная матрица предельных эффектов может быть запи­

сана так:

 

V(g,-) - [3g, /3b']V(b)[3g, /ЭЬ']'-

(3-71)

Для дальнейших преобразований матрицу производных предста­ вим в виде суммы

В полученном выражении вычисление производной дЪ/дЪ' привело к единичной матрице, а вычисление dZj/дЪ'— к векторстроке х(,

79

Соседние файлы в предмете Анализ данных