Теорема еквівалентності
У
тому випадку, коли дисперсія σ2
відома, будь-яка процедура попереднього
тестування використовує t
і F-
статистики, які залежать тільки від Ѳ.
У разі, коли σ2
не відома, можна отримати її оцінку Su2
(оцінка, заснована на МНК-
оцінках
регресії без обмеження). У цьому останньому
випадку всі t
- і F-статистики
залежать від
.
Нарешті, в тому випадку, якщо дисперсія
σ2
не
відома і береться її оцінка S(i)2
по
регресії з (частковим) обмеженням,
відповідним матриці обмежень Si,
t-
й
F-
статистики
залежать не тільки від
.
Однак
вони як і раніше залежать тільки від
Му.
Т
еорема
14.2. (Теорема еквівалентності).
Важливість
цієї теореми полягає в тому, що якщо ми
знайдемо λ
і
такі, що Wɳ
буде оптимальною оцінкою ɳ, то такі самі
λ
і
дадуть оптимальну
WALS-оцінку
вектора параметрів β. Проблема оцінювання
вектора параметрів β в контексті регресії
зводиться, таким чином, до задачі
оцінювання вектора ɳ по єдиному вектору
спостережень
Попереднє тестування і ефект «заниження»
У
рамках стандартної лінійної моделі
,
з нормальними помилками
м
и
визначаємо процедуру попереднього
тестування як двох крокову процедуру.
На першому кроці відбувається вибір
моделі. На другому кроці ми оцінюємо
невідомі параметри β і σ2
обраної моделі. Така процедура породжує
pretest-оцінку
β(і S2).
Для процедури попереднього тестування
всі вагові коефіцієнти λі
рівні 0, крім одного, рівного 1. Як і в
теоремі 14.2, ми накладаємо умову, що
відбір моделі залежить від у тільки
через Му,
крім того, надалі ми будемо припускати,
що параметр σ2
відомий.
Матриця середньоквадратичних відхилень оцінки β згідно теоремі 14.2 дорівнює
т
ут
W=Wi
якщо
вибрана i-а
модель. Зауважимо, що матриця
випадкова,
оскільки матриця W
випадкова. Для того, щоб порівняти
середньоквадратичне відхи-ня оцінки
(3)
з відповідним значенням, отриманим при ігноруванні процедури попереднього тестування
(4)
визначимо коефіцієнт заниження «істинного» МSЕ по відншенню до «інформаційного» МSЕ UR, як 1 мінус відношення (4) і (3). А саме:
(5)
де
Зауважимо,
що q'q
= 1. Величина UR
є випадковою, оскільки вона залежить
від матриці W,
яка залежить від ɳ. Як UR,
так і її математичне сподівання не
спостережувані, оскільки вони залежать
від ɳ через R(ɳ).
Математичне сподівання Е (UR) є функцією величин q (з нормування q'q= 1), q 02, ɳ, Z’MZ (і m). Максимізація по q призводить до нерівності
Вводячи наступне позначення:
(7)
Отриманий вираз залежить від ɳ, Z’MZ (і m) . З (7) видно, що очікуване значення UR може бути як завгодно близько до 1, якщо матриця середньоквадратичних відхилень R не обмежена по ɳ. Це не може статися при m= 1 (крім випадку, коли ми завжди вибираємо модель з обмеженням, не звертаємо уваги на отримані значення t- статистик), але можливо при m >=2.
Оскільки Е (UR) залежить від ɳ, Z’MZ (і m), розглянемо коротко роль цієї матриці. Без шкоди спільності можна нормувати всі змінні zj так, що zj 'M zj = 1 для всіх j= 1, ...m. Розглянемо окремий випадок, коли ми вибираємо «ортогональні» змінні zj. Тоді Z'МZ =Im , що приводить до суттєвих спрощень.
Теорема 14.3. Нехай λ(х) = 1 якщо \ х \> с, інакше λ (х) = 0, для деякого с>0. Для окремого випадку, коли Z'МZ=Im і параметр σ2 відомий, маємо:
(А)Усі моделі, що включають регрессор zj , мають однакові значення t-статистики для γj.
(
Б)
Припустимо, що ми включаємо zj
тоді і тільки тоді,коли t-статистика
значима, тобто
,
для деякого с> 0. Тоді матриця W-
діагональна, з елементами
де
V - діагональна mxm
матриця, а d,
- тx1
вектор з елементами відповідно
Оскільки процедура відбору моделі може вплинути на оцінки параметрів, які нас цікавлять, то бажано вибрати допоміжні регресори так, що Z'МZ =Im. У більшості випадків такий вибір дозволяє не тільки зробити pretest-оцінку незалежної від процедури вибору моделі, але також отримати точні аналітичні вирази для моментів оцінок і гарантувати обмеженість середньоквадратичного відхилення оцінок при m=1
