- •Класична лінійна модель множинної регресії (клммр)
- •В клммр досліджуються лінійні функції регресії (2)
- •Метод найменших квадратів (мнк) і метод максимуму правдоподібності.
- •Аналіз варіації результуючого показника
- •4.Оцінка якості статистичної моделі.
- •Статистичні властивості оцінок параметрів клммр. Обґрунтованість оцінок і .
- •Незміщеність оцінок.
- •Коваріаційна матриця мнк – оцінок.
- •Перевірка наявності зв’язку між екзогенними і ендогенною змінними за критерієм Фішера. Перевірка значимості коефіцієнтів моделі за критерієм Стьюдента.
- •Перевірка гіпотези про відсутність будь-якого лінійного зв’язку між і сукупністю пояснюючих змінних . В припущенні справедливості гіпотези
- •Мультиколінеарність та способи відбору найбільш суттєвих пояснюючих змінних.
- •3. Версія покрокового відбору змінних.
- •1) Версія всіх можливих регресій.
- •2) Версія покрокового підбору змінних.
- •Помилки специфікації клммр моделі, пов’язані із вибором пояснюючих змінних.
- •Узагальнена лінійна модель множинної регресії (улммр з гетероскедантичними та автокорельованими регресійними залишками).
- •Узагальнений метод найменших квадратів (умнк).
- •Тест Спірмана для перевірки гетероскедантичності моделі.
- •Тест Глейcера для перевірки гетероскедантичності моделі.
- •Тест Гольфельда-Куандта для перевірки гетероскедантичності моделі.
- •Улммр з автокорельваними залишками (побудова матриць ).
- •Статистика Дарбіна –Уотсона
- •17. Оцінка авторегресійного параметра в моделі з автокорельованими залишками.
- •18. Двокроковий метод Дарбіна оцінки авто регресійного параметру.
- •Нелінійні моделі. Деякі властивості нелінійних залежностей, які підлягають безпосередній лінеаризації (моделі гіперболічного, експоненціального, степеневого та логарифмічного типів.
- •20. Підбір лінеаризуючого перетворення (підхід Бокса-Кокса)галіме!!!!
- •Точковий прогноз та побудова інтервалів довіри прогнозу на основі регресійних моделей.
- •22. Дослідження точності моделі в реальній ситуації (розбиття вибірки на дві підвибірки, метод ”ковзного екзамену”).
- •Умови ототожнення слвр (умови 1,2,3).
- •Умови ототожнення окремого рівняння слвр (умови 4,5).
- •???26.Оцінювання структурних параметрів окремого рівняння двокроковим методом найменших квадратів.
Аналіз варіації результуючого показника
Загальна
варіація (змінюваність)
обумовлена як зміною величини
,
так і зміною випадкових залишків
.
Знайдемо вибіркову(спостережувану)
варіацію результуючої змінної
:
,
(1)
де
– вибіркова середня,
,
–
-вимірний
вектор.
Позначимо
через
–
значення оціненої (емпіричної) функції
регресії :
Тоді:
(2)
Покажемо, що останній доданок в (2) дорівнює нулю. Для цього спочатку покажемо, що
(3)
Обчислимо:
Тепер
покажемо, що:
(4)
Тоді (2) може бути записане у вигляді:
(5)
Поділимо (5) на варіацію :
(6)
або
,
(7)
де
-
вибірковий коефіцієнт кореляції.
Властивості:
Формула (7) є вибірковим аналогом коефіцієнта детермінації і одночасно квадратом множинного коефіцієнта кореляції між і .
Формула (7) характеризує загальні варіації результуючої характеристики , яка пояснюється поведінкою (варіацією) вибіркової функції регресії
.
У матричні формі (2) може бути подано у вигляді :
(8)
4.Оцінка якості статистичної моделі.
Статистичні властивості оцінок параметрів клммр. Обґрунтованість оцінок і .
Оцінка
параметра
називається обґрунтованою, якщо
(або
).
Має місце наступна теорема (с. 641)
Оцінки
і
є обґрунтованими тоді і тільки тоді,
коли найменше число матриці
прямує до
при
.
Незміщеність оцінок.
Оцінювач
істинного параметра
називається незміщеним (unbiased),
якщо
.
Якщо ця умова виконується для
,
то вектор
є незміщеною оцінкою
.
В противному випадку оцінювач називається
зміщеним. Для знаходження середнього
значення
обчислимо:
. (1)
Візьмемо
математичне сподівання від обидвох
частин (1) і враховуючи те, що величини
і
невипадкові, знаходимо:
. (2)
Таким чином оцінка для в рамках КЛММР є незміщеною.
Покажемо,
що оцінка для
параметра
є зміщеною. Для цього знайдемо
.
З цією метою
виразимо вектор нев’язок
через
випадкові компоненти моделі
:
де
.
Матриця
є симетричною і ідемпотентною (
для ідемпотентної матриці власні числа
рівні
або
;
повинна бути квадратною).
Обчислимо величину варіації:
(
Тоді
Скористаємось замість оцінкою
(4)
яка є незміщеною.
Оптимальність МНК – оцінок
Оцінка
є кращою (ефективнішою), ніж
,
якщо
.
Відповідно оцінка
є оптимальною в класі оцінок
,
якщо
(7)
Маємо
вектор оцінок
.
Покладаючи
,
отримуємо оптимальність
з точки зору оцінки невідомої функції
регресії
при любих значеннях пояснюючих змінних.
Властивості оцінок, які справедливі тільки при додатковій умові нормальності регресійних залишків.
В цьому випадку нормальна КЛММР має вигляд:
(9)
означає
-вимірний
нормальний закон розподілу імовірностей
з вектором середніх
,
і коваріаційною матрицею
.
Припущення про нормальність регресійних
залишків дозволяє будувати інтервал
довіри для істинних значень
і
.
