Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
реферат_ ІАд.docx
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
688.34 Кб
Скачать

Теорема еквівалентності

У тому випадку, коли дисперсія σ2 відома, будь-яка процедура попереднього тестування використовує t і F- статистики, які залежать тільки від Ѳ. У разі, коли σ2 не відома, можна отримати її оцінку Su2 (оцінка, заснована на МНК- оцінках регресії без обмеження). У цьому останньому випадку всі t - і F-статистики залежать від . Нарешті, в тому випадку, якщо дисперсія σ2 не відома і береться її оцінка S(i)2 по регресії з (частковим) обмеженням, відповідним матриці обмежень Si, t- й F- статистики залежать не тільки від . Однак вони як і раніше залежать тільки від Му.

Т еорема 14.2. (Теорема еквівалентності).

Важливість цієї теореми полягає в тому, що якщо ми знайдемо λ і такі, що Wɳ буде оптимальною оцінкою ɳ, то такі самі λ і дадуть оптимальну WALS-оцінку вектора параметрів β. Проблема оцінювання вектора параметрів β в контексті регресії зводиться, таким чином, до задачі оцінювання вектора ɳ по єдиному вектору спостережень

Попереднє тестування і ефект «заниження»

У рамках стандартної лінійної моделі , з нормальними помилками м и визначаємо процедуру попереднього тестування як двох крокову процедуру. На першому кроці відбувається вибір моделі. На другому кроці ми оцінюємо невідомі параметри β і σ2 обраної моделі. Така процедура породжує pretest-оцінку β(і S2). Для процедури попереднього тестування всі вагові коефіцієнти λі рівні 0, крім одного, рівного 1. Як і в теоремі 14.2, ми накладаємо умову, що відбір моделі залежить від у тільки через Му, крім того, надалі ми будемо припускати, що параметр σ2 відомий.

Матриця середньоквадратичних відхилень оцінки β згідно теоремі 14.2 дорівнює

т ут W=Wi якщо вибрана i-а модель. Зауважимо, що матриця випадкова, оскільки матриця W випадкова. Для того, щоб порівняти середньоквадратичне відхи-ня оцінки

(3)

з відповідним значенням, отриманим при ігноруванні процедури попереднього тестування

(4)

визначимо коефіцієнт заниження «істинного» МSЕ по відншенню до «інформаційного» МSЕ UR, як 1 мінус відношення (4) і (3). А саме:

(5)

де Зауважимо, що q'q = 1. Величина UR є випадковою, оскільки вона залежить від матриці W, яка залежить від ɳ. Як UR, так і її математичне сподівання не спостережувані, оскільки вони залежать від ɳ через R(ɳ).

Математичне сподівання Е (UR) є функцією величин q (з нормування q'q= 1), q 02, ɳ, Z’MZ (і m). Максимізація по q призводить до нерівності

Вводячи наступне позначення:

(7)

Отриманий вираз залежить від ɳ, Z’MZ (і m) . З (7) видно, що очікуване значення UR може бути як завгодно близько до 1, якщо матриця середньоквадратичних відхилень R не обмежена по ɳ. Це не може статися при m= 1 (крім випадку, коли ми завжди вибираємо модель з обмеженням, не звертаємо уваги на отримані значення t- статистик), але можливо при m >=2.

Оскільки Е (UR) залежить від ɳ, Z’MZ (і m), розглянемо коротко роль цієї матриці. Без шкоди спільності можна нормувати всі змінні zj так, що zj 'M zj = 1 для всіх j= 1, ...m. Розглянемо окремий випадок, коли ми вибираємо «ортогональні» змінні zj. Тоді Z'МZ =Im , що приводить до суттєвих спрощень.

Теорема 14.3. Нехай λ(х) = 1 якщо \ х \> с, інакше λ (х) = 0, для деякого с>0. Для окремого випадку, коли ZZ=Im і параметр σ2 відомий, маємо:

(А)Усі моделі, що включають регрессор zj , мають однакові значення t-статистики для γj.

( Б) Припустимо, що ми включаємо zj тоді і тільки тоді,коли t-статистика значима, тобто , для деякого с> 0. Тоді матриця W- діагональна, з елементами де V - діагональна mxm матриця, а d, - тx1 вектор з елементами відповідно

Оскільки процедура відбору моделі може вплинути на оцінки параметрів, які нас цікавлять, то бажано вибрати допоміжні регресори так, що Z'МZ =Im. У більшості випадків такий вибір дозволяє не тільки зробити pretest-оцінку незалежної від процедури вибору моделі, але також отримати точні аналітичні вирази для моментів оцінок і гарантувати обмеженість середньоквадратичного відхилення оцінок при m=1

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]