Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

diplom25 / suslov_ibragimov_ekonometrika

.pdf
Скачиваний:
31
Добавлен:
24.03.2015
Размер:
5.55 Mб
Скачать

272 Глава8.Нарушение гипотез основной линейной модели

а) Простая регрессия.Если имеется оценка W ковариационной матрицы Ω и w Ñковариационного вектора ω ,то можно использовать следующий оператор оценивания:

a = (M − W )−1(m − w),

который обеспечивает состоятельность оценок и делает их менее смещенными.

Это формула следует из

E (öz"xö) = E (öz"zö) α + ω − Ωα

заменой теоретических моментов на их оценки.

Обычно предполагается,что W Ñдиагональная матрица,а w = 0.

б) Ортогональная регрессия.Поскольку z теперь такие же случайные переменные,наблюдаемыесошибками,каки x,имеетсмыслвернутьсякобозначениям 6-го раздела,где через x обозначался n-мерный вектор-строка всех переменных. Пусть ε Ñвектор их ошибок наблюдения,а x0 Ñвектор их истинных значений, то есть

x = x0 + ε, X = X 0 + ε.

Предположения(8.5)записываются следующим образом:

E(öx0!, ε) = 0, E(öx0!, xö0) = M 0, E(ε!, ε) = σ2Ω.

Теперь через M 0 обозначается матрица,которую в обозначениях,используемых

вэтом пункте выше,можно зап исать следующим образом:

 

σ20

m0

,

m0

M 0

 

x

 

 

!

 

 

 

 

 

а через σ2Ω матрица

 

σ2

ω

.

 

ω!

Ω

 

 

 

 

 

Поскольку речь идет о линейной регрессии,предполагается,что между истинными значениями переменных существует линейная зависимость:

x0α = 0.

8.5.Метод инструментальных переменных

273

Это означает,что

M 0α = 0.

Рассуждаятакже,какпридоказательствесоотношения(8.7),легкоустановить,

что

E(M ) = M 0 + σ2Ω,

(M Ñфактическая матрица ковариации X )т.е.

(E(M ) − σ2Ω)α = 0.

Таким образом,если считать,что Ω известна,а σ2 Ñминимизируемый параметр (в соответствии с логикой МНК),то решение задачи

(M − σ2Ω)a = 0, σ2 → min!

даст несмещенную оценку вектора α .А это,как было показано в пункте6.4,есть задача регрессии в метрике Ω−1 (см. (6.37)).Преобраз ованием в пространстве переменных она сводится кÇо бычнойÈортогональной регрессии.

Т.е.если для устранения посл едствий нарушения гипотезы g4 используется преобразование в пространстве наблюдений,то при нарушении гипотезы g2 надо ÇработатьÈс преобразованием в пространстве переменных.

Несмотря на то,что методы ортогона льной регрессии и регрессии в метрике Ω−1 внаибольшейстепенисоответствуютреалиямэкономики(ошибкиестьвовсех переменных,стоящих как в левой,так и в правой частях уравнения регрессии),они мало используются в прикладных исследованиях.Основная причина этого заключается в том,что в большинстве случаев н евозможно получить надежные оценки матрицы Ω.Кроме того,ортогональная регрессия гораздо сложнее простой с вычислительнойточкизрения,истеоретическойточкизренияонасущественноменее изящна и прозрачна.

Вследующемпараграфеизлагаетсяещеодинметод,которыйпозволяетрешить проблему ошибок в переменных(и в целом может использоваться при любых нарушениях гипотезы g2).

8.5.Метод инструментальных переменных

Предполагаем,что в регрессии x = zα + ε переменные-факторы z являются случайными,инарушенагипотеза g2 вобобщеннойформулировке:ошибка ε зависит от факторов z,так что корреляция между z и ошибкой ε не равна нулю.Такую

274

Глава8.Нарушение гипотез основной линейной модели

регрессию можно оценить,имея наб ор вспомогательных переменных y,называемых инструментальными переменными.Часто инструментальные переменные называют просто инструментами.

Для того,чтобы переменные y можно было использовать в качестве инструментальных,нужно,чтобы они удовлетворяли следующим требованиям:

1)Инструменты y некоррелированы с ошибкой ε. (В противном случае метод даст несостоятельные оценки,как и МНК.)Если это условие не выполнено,то такие переменные называют негодными инструментами4.

2)Инструменты y достаточно сильно коррелированы с факторами z.Если данное условие не выполнено,то это так называемые ÇслабыеÈинструменты . Если инструменты слабые,то оценки по методу будут неточными и при малом количестве наблюдений сильно смещенными.

Обычно z и y содержатобщиепеременные,т.е.частьфакторовиспользуетсяв качествеинструментов.Например,типичнаситуация,когда z содержитконстанту; тогда в y тоже следует включить константу.

Пусть имеются N наблюдений,и X , Z и Y Ñсоответствующие данные в матричном виде.Оценки по методу инструментальных переменных (сокращенно

IVот англ. instrumental variables )вычисляются по следующей формуле:

aI V = (Z !Y

0Y !Y

1−1 Y !Z )−1

Z !Y

0Y !Y

1−1 Y !X.

(8.8)

В случае,если количество инструментальных переменных в точности равно количеству факторов, (rank Y = n + 1)получаем собственно классический метод инструментальных переменных.При этом матрица Y !Z квадратная и оценки вычисляются как

aI V = 0Y !Z 1−1 Y !Y 0Z !Y 1−1 Z !Y 0Y !Y 1−1 Y !X.

Средняя часть формулы сокращается,поэтому

aI V = 0Y !Z

11 Y !X.

(8.9)

Рассмотрим вывод классического метода инструментальных переменных, т.е.случай точной идентификации(ср.с(6.15)в главе6):

Умножим уравнение регрессии x = zα + ε слева на инструменты y (с транспонированием).Получим следующее уравнение:

y!x = y!zα + y!ε.

4В модели ошибок в переменных ошибка регрессии имеет вид ε − εzα,где

ε

Ñошибка в

исходном уравнении,а εz Ñошибка измерения факторов

z .Чтобы переменные

y

можно было

использовать в качестве инструментов,достаточно,чтобы y

были некоррелированы с ε и εz .

8.5.Метод инструментальных переменных

275

Если взять от обеих частей математическое ожидание,то получится

E(y!x) = E(y!zα),

где мы учли,что инструменты некоррелированы с ошибкой, E(y!ε) = 0.

Заменяятеоретическиемоментынавыборочные,получимследующиенормальные уравнения,задающие оценки a:

Myx = Myz a,

где Myx = N1 Y !X и Myz = N1 Y !Z .Очевидно,что эти оценки совпадут с(8.9). Фактически,мы применяем здесь метод моментов.

Метод инструментальных переменных можно рассматривать как так называе-

мый двухшаговый метод наименьших квадратов. (О нем речь еще пойдет ниже в пункте10.3.)

1-й шаг.Строим регрессию каждого фактора Zj на Y .Получим в этой регрессии расчетный значения Zjc .По формуле расчетных значений в регрессии

Zjc = Y (Y !Y )−1 Y !Z .Заметим,что если Zj входит в число инструментов,то по этой формуле получим Zjc = Zj ,т.е.эта переменная останется без изменений. Поэтому данную процедуру достаточно применять только к тем факторам,которые не являются инструментами(т.е.могут быть коррелированы с ошибкой).В целом для всей матрицы факторов можем записать Z c = Y (Y !Y )−1 Y !Z .

2-й шаг.В исходной регрессии используются Z c вместо Z .Смысл состоит в том,чтобы использовать факторыÇочищенные от ошибокÈ.

Получаем следующие оценки: a2M = 0Z c!Z c1−1 Z c!x =

=(Z !Y 0Y !Y 1−1 Y !Y 0Y !Y 1−1 Y !Z )−1 Z !Y 0Y !Y 1−1 Y !x =

=(Z !Y 0Y !Y 1−1 Y !Z )−1 Z !Y 0Y !Y 1−1 Y !x = aI V .

Видим,что оценки совпадают.

Если записать оценки в виде aI V = (Z c!Z )−1 Z c!x,то видно,что обобщенный метод инструментальных переменных можно рассматривать как простой метод инструментальных переменных с матрицей инструментов Z c .

Такая запись позволяет обосновать обобщенный метод инструментальных переменных.Если исходных инструментов Y больше,чем факторов Z ,и мы хотим построить на их основе меньшее количество инструментов,то имеет смысл сопоставить каждому фактору Zj вкачестве инструмента такуюлинейнуюкомбинацию исходных инструментов,которая была бы наиболее сильно коррелирована с Zj . Этому требованию как раз и удовлетворяют расчетные значения Zjc .

276

Глава8.Нарушение гипотез основной линейной модели

Другое обоснование обобщенного метода инструментальных переменных состоит,как и выше для классического метода,в использовании уравнений E(y!x) = = E(y!zα).Заменой теоретических моментов выборочными получим уравнения Myx = Myz a,числокоторыхбольшечисланеизвестных.Идея состоит втом,чтобы невязки Myx − Myz a были как можно меньшими.Это достигается минимизацией следующей квадратичной формы от невязок:

(Myx − Myz a)!Myy−1(Myx − Myz a),

где Myy = N1 Y !Y .Минимум достигается при

( )−1

a = Mzy Myy−1Myz Mzy Myy−1Myx .

Видим,что эта формула совпадает с(8.8 ).Эти рассуждения представляют собой применение так называемого обобщенного метода моментов,в котором количество условий на моменты может превышать количество неизвестных параметров.

Чтобы можно было использовать метод инструментальных переменных на практике,нужна оценка ковариационной матрицы,с помощью которой можно было бы вычислить стандартные ошибки коэффициентов и t-статистики.Такая оценка имеет вид

MaIV = s2 0Z c!Z c1−1 .

Здесь s2 Ñоценка дисперсии ошибок σ2,например s2 = e!e/N или s2 = = e!e/(N − 1).Остатки рассчитываются по обычной формуле e = x − Z aI V . (Здесь следует помнить,что остатки,получаемые на втором шаге тут не годятся,поскольку они равны x − Z c aI V .Если использовать их для расчета оценки дисперсии,то получим заниженную оценк у дисперсии и ковариационной матрицы. Отсюда следует,что из регрессии второго шагаможно использовать только оценки коэффициентов.Стандартные ошибки и t-статистики требуется пересчитывать.)

Обсудим теперь более подробно проблему идентификации5.

Чтобы можно было вычислить оценки(8.8),нужно,чтобы выполнялись следующие условия:

1)Матрица инструментов должна иметь полный ранг по столбцам,иначе (Y !Y )−1 не существует.

2) Z !Y (Y !Y )−1 Y !Z должна быть невырожденной.

Вчастности,матрица Z !Y (Y !Y )−1 Y !Z необратима,когда rank Y < rank Z . Предположим,чтоматрицафакторов Z имеетполныйранг,т.е. rank Z = n+1.

5См.также обсуждение идентификации в контексте систем уравнений ниже в пункте10.2.

8.5.Метод инструментальных переменных

277

Т.е.если rank Y < n + 1,то уравнение неидентифицируемо,т.е.невозможно вычислить оценки(8.8).Таким образом,количество инструментов(включая константу)должно быть не меньше n + 1 (количество регрессоров,включая константу).Если rank Y > n + 1,то говорят,что уравнение сверхидентицировано. Если количество инструментов равно n + 1,то это точная идентификация.

Если возможен случай сверхидентификации,то это обобщенный метод инструментальных переменных.При точной идентификации( rank Y = n + 1)получаем собственно классический метод инструментальных переменных.

Таким образом,необходимое условие идентификации имеет следующий вид:

rank Y " rank Z (= n + 1).

Это так называемое порядковое условие идентификации,условие на размерность матриц.

Словесная формулировка порядкового условия:

Количество инструментов Y должно быть не меньше количества регрессоров Z (учитывая константу).

Заметим,чтоможносначалаÇвычеркнутьÈобщиепеременныев Z и Y исмотреть только на количество оставшихся.Количество оставшихся инструментов должно быть не меньше количества оставшихся регрессоров.

Почему это только необходимое условие?Пусть,например,некоторый фактор Zj ортогонален Y .Тогда Zjc = 0,и невозможно получить оценки aI V ,т.е.данное условие не является достаточным.

Необходимое и достаточное условие идентификации формулируется следующим образом:

Матрица Z c имеет полный ранг по столбцам: rank Z c = n + 1.

Это так называемое ранговое условие идентификации.

Встречаются случаи,когда ранговое условие идентификации соблюдается, но матрица Z c близка к вырожденности,т.е.в Z c наблюдается мультиколлинеарность.Например,если инструмент Zj является слабым( Zj и Y почти ортогональны),то Z c близка к вырожденности.Один из способов проверки того, является ли инструмент слабым,состоит в анализе коэффициентов детерминации и F -статистик в регрессиях на первом шаге.

278

Глава8.Нарушение гипотез основной линейной модели

8.6.Упражнения и задачи

Упражнение1

Таблица8.1

Z1

Z2

1

 

 

 

26.8

541

1

 

 

 

25.3

616

1

 

 

 

25.3

610

1

 

 

 

31.1

636

1

 

 

 

33.3

651

1

 

 

 

31.2

645

1

 

 

 

29.5

653

1

 

 

 

30.3

682

1

 

 

 

29.1

604

1

 

 

 

23.7

515

1

 

 

 

15.6

390

1

 

 

 

13.9

364

1

 

 

 

18.8

411

1

 

 

 

27.4

459

1

 

 

 

26.9

517

1

 

 

 

27.7

551

1

 

 

 

24.5

506

1

 

 

 

22.2

538

1

 

 

 

19.3

576

1

 

 

 

24.7

697

1

 

 

 

Дано уравнение регрессии X = Z α + ε = −1.410z 1 + + 0.080z 2 + 56.962 + ε,где ε Ñвектор-столбец нормальный случайных ошибок с нулевым средним и ковариационной матрицей

E 0εε!1 = σ2Ω =

 

1

ρ

ρ2

ááá ρN −1

 

 

 

 

 

 

ρ

1

ρ

ááá

ρN −2

 

 

 

σ

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ρ

 

ρ

1

ááá

ρ

 

 

 

1 ρ2

 

 

 

 

 

 

.

.

 

.

 

 

=

 

 

 

 

2

..

..

 

..

 

N 3

 

(8.10)

 

 

 

..

 

 

..

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

ρ

 

ρ

ρ

ááá

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N 1

N

2

N

3

 

 

 

 

 

 

с ρ = 0.9 и σ2 = 21.611.

Используя нормальное распределение с незасисимыми на-

блюдениями,средним

0 и ковариационной матрицей(8.10),

получите 100 выборок

вектора ε

размерности

(N × 1),

k = 1, . . . , 100,где

N

=

20.Эти

случайные

векторы

потом используйте

вместе

с известным вектором α! =

= (−1.410, 0.080, 56.962) и матрицей регрессоров(табл. 8.1).

Сначала получите ожидаемое значения X 0 = Z α,затем, чтобыполучить 100 выбороквектора X размерности (20 × 1), добавьте случайные ошибки: X 0 + ε = X .

1.1.Рассчитайте невырожденную матрицу D такую,что

D−1D!−1 = Ω.

1.2.Найдите истинную матрицу ковариации для МНК-оценки

(a = (Z !Z )−1 Z !X ):

6 7

E(a − α) (a − α)! =

=E 60Z !Z 1−1 Z !εε!Z 0Z !Z 1−17 =

=σ2 0Z !Z 1−1 Z !ΩZ 0Z !Z 1−1

8.6.Упражнения и задачи

 

 

 

 

 

 

 

 

 

 

279

и истинную матрицу ковариации для ОМНК-оценки

 

 

 

 

 

(aомнк = Z !Ω−1Z −1 Z !Ω−1X ):

7

 

 

0

 

 

 

1

 

6

 

 

 

 

 

 

 

 

E

0(aомнк

 

α) (a

омнк

 

α)!

= σ2 (Z

D

DZ ) = σ2

 

Z

Ω

1Z −1 .

 

1

 

 

!

!

 

 

!

 

 

Результат поясните.

1.3.Используйте 10 из 100 выборок,чтобы посчитать по каждой выборке значения следующих оценок:

ÐМНК-оценки

a = (Z !Z )−1 Z !X ;

 

 

 

 

 

 

 

 

ÐОМНК-оценки

 

 

 

 

 

 

 

 

aомнк =

0Z !Ω−1Z 1−1 Z !Ω−1X ;

 

 

 

 

 

 

 

 

ÐМНК-оценки остаточной дисперсии

 

 

 

 

 

 

2 =

(x − Z a) (x − Z a)!

;

 

 

 

 

 

 

 

 

e

N − n − 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ÐОМНК-оценки остаточной дисперсии

 

 

 

 

 

 

2

= (x − Z aомнк) Ω−1 (x − Z aомнк)! .

 

 

 

 

ej омнк

 

N − n − 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Объясните результаты.

 

 

 

 

 

 

 

 

1.4.Вычислите среднее и дисперсию для

10 выборок для каждого из параметров,

полученных в упражнении1.3и сравните эти средние значения с истинными

параметрами.

 

 

 

 

 

 

 

 

1.5.На основе упражнения1.3рассчитайте

Sa21 омнк,который является первым

диагональным элементом матрицы sö2

 

Z !Ω−1Z

−1 и S2

,который явля-

 

 

 

 

 

e омнк

 

 

2

a1

.Сравните раз-

 

 

 

 

 

 

матрицы

−1

ется первым диагональным элементом

0

 

 

e1

(Z !Z )

 

 

личные оценки Sa21 и Sa21 омнк друг с другом и с соответствующими значени-

ями из упражнения1.2.

 

 

 

 

 

 

 

 

1.6.На основе результатов упражнений1.3и1.5рассчитайте значения

t-статис-

тики,которые могут быть использованы для проверки гипотез:

H0 : α1 = 0.

1.7.Повторите упражнение1.3для всех

100 выборок,постройт е распределения

частот для оценок и прокомментируйте результаты.

280 Глава8.Нарушение гипотез основной линейной модели

Упражнение2

 

 

 

Предположим,есть данные,состоящие из

100 выборок X ,

Таблица8.2

по 20 значений в каждой,сгенерированных при помощи моде-

ли X = Z α + ε = α1z1 + α2z2 + 1N β + ε,где εi Ñнормально

 

 

 

 

 

 

и независимо распределенная случайная величина с E (εi ) = 0,

 

 

 

z1

z2

1N

0

1

= σ2

 

= e1zi22).Наблюдения за

 

 

 

 

α =

 

 

 

E ε2

 

и σ2

X были полу-

 

 

 

i

 

 

i

i

 

 

 

 

 

 

 

 

 

 

 

 

13,9

364

1

чены с использованием следующих значений параметров:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= (α

 

α

2

β)! = ( 1.410, 0.080, 56.962)! и γ = (γ

 

γ )!

=

15,6

390

1

 

 

1

 

 

 

 

 

 

 

 

1

 

2

 

 

 

 

= (0.25, −2)! ,а матрица значений факторов,упорядоченных

 

 

 

 

 

18,8

411

1

в соответствии с величиной z2,имеет следующий вид(табл.

 

27,4

459

1

8.2).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

24,5

506

1

2.1.Найдите матрицу ковариации для

 

 

 

 

 

 

 

 

23,7

515

1

 

 

ÐОМНК-оценки

aомнк = Z !Ω−1Z

−1

Z !Ω

 

1X ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

26,9

517

1

 

 

ÐМНК-оценки

a = (Z !Z )01 Z !X .

1

 

 

 

 

 

22,2

538

1

 

 

 

 

 

 

 

 

 

Что вы можете сказать об относительной эффективности

 

 

 

 

 

 

 

 

26,8

541

1

 

этих оценок?

 

 

 

 

 

 

 

 

 

 

 

27,7

551

1

2.2.Используйте

10

из 100

выборок,чтобы посчитать по

19,3

576

1

 

каждой выборке значения следующих оценок:

 

 

 

 

 

 

 

 

 

 

ÐМНК-оценки

a = (Z !Z )−1 Z !X ;

 

 

 

 

 

 

 

29,1

604

1

 

 

 

 

 

 

 

 

 

25,3

610

1

 

 

 

 

 

 

 

N

−1

N

 

 

 

 

 

 

 

 

 

Ðоценки

γ

=

,i=1 yiyi!.

i=1 yi ln(ei2),где

yi

=

25,3

616

1

 

 

 

 

 

 

 

 

 

%

 

%

 

 

 

 

 

 

 

31,1

636

1

 

 

 

= (zi2, 1) иei = xi − zi!a;

 

 

 

 

 

 

 

 

 

 

 

 

 

ÐОМНК-оценки

a,используя найденую оценку γ .

 

31,2

645

1

 

 

 

 

Сравните все эти оценки друг с другом и с соответствую-

 

 

 

 

33,3

651

1

 

 

щими истинными значениями.

 

 

 

 

 

 

 

 

29,5

653

1

2.3.На основе упражнения2.2рассчитайте

 

Sa21 омнк,кото-

 

 

 

 

30,3

682

1

 

рый является первым диагональным элементом матри-

 

 

 

 

цы

e2 омнк(Z !Ω−1Z )−1, Sa21 ,который является первым

24,7

697

1

 

 

диагональным элементом матрицы sö2 (Z !Z )−1,а также

 

 

 

 

e

Sa21 Уайта,который является первым диагональным элементом скорректированной оценки ковариационной матрицы(оценка Уайта или устойчивая к гетероскедастичности оценка).Сравните различные оцен-

ки Sa21 , Sa21 омнк и Sa21 Уайта друг с другом и с соответствующими значениями из упражнения2.1.

8.6.Упражнения и задачи

281

2.4.На основе результатов упражнений2.1и2.3рассчитайте значения

t-статис-

тики,которые могут быть использованы для проверки гипотез H0 : α1 = 0.

2.5.Возьмите те же выборки,что и в упражнении2.2,и проведите проверку на гетероскедастичность с помощью:

Ð критерия Бартлета;

Ðметода второй группы(метод ГолдфельдаÑКвандта)с пропуском4-х значений в середине выборки;

Ðметода третьей группы(метод Глейзера).

2.6.Выполните упражнение2.2для всех 100 выборок и,используя результаты, оцените математическое ожидание и матрицу среднеквадратических ошибок для каждой оценки.Есть ли среди оценок смещенные?Что можно сказать об относительной эффективности МНК-оценки и ОМНК-оценки?

Упражнение3

Предположим,есть данные,состоящие из 100 выборок X ,по 20 значений вкаждой,сгенерированныхприпомощимодели X = Z α+ε = α1z1 2z2 +1N β +

+ ε,где εi

= ρεi−1 + ηi , и η Ñнормально распределенная случайная величина

с E (ηi) = 0, E η2

1

= σ2.Наблюдения за X были получены с использованием

следующих

i

 

η

α!

= (α1

α2

 

 

β) = ( 1.410, 0.080, 56.962)

 

0

 

 

 

 

,

 

значений параметров:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ρ = 0.8 и ση2 = 6.4,а матрица значений факторов взята из упражнения1.

 

3.1.Найдите матрицу ковариации для:

 

 

1

 

 

 

 

 

 

 

ÐОМНК-оценки

aомнк =

0−1!

Ω

Z

−1 Z

!

Ω

X

;

 

 

Z

1

 

 

 

1

 

 

ÐМНК-оценки

a = (Z !Z )

Z !X .

 

 

 

 

 

 

 

 

Что вы можете сказать об относительной эффективности этих оценок?

3.2.Используйте 10 из 100 выборок,чтобы посчитать по каждой выборке значения следующих оценок:

ÐМНК-оценки a = (Z !Z )−1 Z !X ;

 

 

N

 

 

 

eiei−1

 

 

=2

 

Ðоценку

r =

i%

;

N

 

 

i%

 

 

 

e2

 

 

 

i

 

 

=1

 

ÐОМНК-оценки,используя найденую оценку r.

Соседние файлы в папке diplom25