- •1. Основні теоретичні положення регресійного аналізу
- •1.1. Кореляційна залежність
- •1.2. Основні математичні поняття,
- •1.3. Передумови використання
- •2. Парний регресійний аналіз
- •2.1. Лінійна парна регресія
- •2.2. Властивості оцінок
- •2.3. Лінійний коефіцієнт кореляції
- •2.4. Коефіцієнт детермінації
- •2.5. Оцінка значущості рівняння регресії
- •2.6. Прогноз залежної змінної.
- •2.7. Приклад 1.
- •2.8. Нелінійна парна регресія
- •2.9. Дослідження нелінійних рівнянь
- •2.10. Приклад 2.
- •2.11. Побудова функції парної регресії
- •2.12. Побудова графіку функції
- •2.13. Питання для самоперевірки
- •3. Багатофакторний регресійний аналіз
- •3.1. Класична нормальна лінійна модель
- •3.2. Коефіцієнти детермінації і кореляції.
- •3.3. Перевірка значущості параметрів
- •3.4. Прогноз залежної змінної
- •3.5. Приклад 3. Знаходження двофакторної моделі
- •3.6. Використання пакету анализ данных
- •3.7. Використання Excel для розрахунку
- •Введення і підготовка даних
- •4. Мультиколінеарність
- •4.1. Поняття і наслідки мультиколінеарності
- •4.2. Алгоритм Фаррара – Глобера
- •4.3. Приклад 4.
- •4.5. Питання для самоперевірки
- •5. Гетероскедастичність
- •5.1. Поняття гетероскедастичності
- •5.2. Виявлення гетероскедастичності.
- •5.3. Приклад 5. Дослідження даних
- •5.4. Виявлення гетероскедастичності.
- •5.5. Приклад 6. Дослідження даних
- •5.6. Непараметричний тест Гольдфельда-Квандта
- •5.7. Питання для самоперевірки
- •6. Автокореляція
- •6.1. Поняття автокореляції.
- •6.2. Критерій Дарбіна-Уотсона
- •6.3. Приклад 7. Дослідження моделі на наявність
- •6.4. Питання для самоперевірки
- •7. Індивідуальні комплексні завдання
- •Завдання 2
- •Завдання 3
- •Завдання 4
- •Завдання 5
- •Предметний покажчик
- •Література
- •Коефіцієнтів автокореляції залишків
- •Критичні значення і для коефіцієнта автокореляції залишків критерія Дарбіна-Уотсона для
- •Критичні значення і для коефіцієнта автокореляції залишків критерія Дарбіна-Уотсона для
- •Значення критерія Пірсона
- •Квантилі розподілу Стьюдента
- •83050, М. Донецьк, вул. Щорса, 31.
- •83023, М. Донецьк, вул. Харитонова, 10
1.3. Передумови використання
методу найменших квадратів
Для того, щоб отримати оцінки параметрів моделі ,…, які б були найкращими, тобто незміщеними, обґрунтованими і ефективними, необхідно щоб виконувалися ряд умов:
В моделі (так само, як і в інших моделях) пояснююча змінна (пояснюючі змінні) є величиною детермінованою, а не випадковою.
Математичне сподівання збурення дорівнює нулю:
.
Або те саме, що математичне сподівання залежної змінної дорівнює функції регресії , тобто в лінійному випадку .
Дисперсія збурення (або залежної змінної ) постійна для довільного спостереження , .
.
Збурення і не корелюють
.
Збурення є нормально розподіленою випадковою величиною.
Якщо такі умови виконуються, то модель називається класичною нормальною лінійною регресійною моделлю (Classical Normal Linear Regression Model). Умови 1 – 5 називаються умовами Гаусса – Маркова.
При виконанні цих умов за допомогою методу найменших квадратів (ІМНК) можна отримати оцінки , які мають найменшу дисперсію в класі всіх незміщених оцінок.
У викладеному далі матеріалі вважається, якщо не зазначено інше, що всі ці умови виконуються.
2. Парний регресійний аналіз
2.1. Лінійна парна регресія
Найбільш простим і одночасно таким, що найчастіше зустрічається є парний лінійний зв’язок між ознаками.
Нехай маємо вибіркові дані про сукупні доходи населення в містах (ум.од.) і роздрібний товарооборот (ум.од).
Таблиця 2.1
Доходи населення, (ум.од.) |
10 |
12 |
14 |
15 |
16 |
18 |
20 |
Роздрібний товарооборот, (ум.од) |
8 |
11 |
13 |
14 |
15 |
15 |
18 |
Представимо вибіркові дані точками на координатній площині. Отримане зображення статистичної залежності називається кореляційним полем (рис 2.1). З виду кореляційного поля можна зробити припущення, що залежність між і лінійна. Тобто, вид кореляційного поля дозволяє зробити попереднє припущення про вид рівняння регресії.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
18 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
16 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
14 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
12 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
10 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
8 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
10 |
12 |
14 |
16 |
18 |
20 |
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Рис. 2.1. – Кореляційне поле
Найбільш простим видом парної регресії є лінійна: .
Оцінки параметрів знаходяться методом найменших квадратів (1МНК): тобто вибираються такими, щоб сума квадратів відхилень фактичних значень від теоретичних була мінімальною:
, (2.1.1)
де – обсяг вибірки.
Зауважимо, що для знаходження можливі і інші підходи, наприклад може застосовуватися метод найбільшої правдоподібності.
Із (2.1.1.) на основі необхідної умови екстремуму функції двох змінних , прирівнюючи до нуля її перші частинні похідні, запишемо систему рівнянь
Звідки після елементарних перетворень отримуємо систему нормальних рівнянь для знаходження 1МНК оцінок параметрів
(2.1.2)
або, розділивши обидва рівняння на
(2.1.3)
де
, , , . (2.1.4)
Розв’язуючи (2.1.3) з врахуванням (2.1.4) отримаємо,
. (2.1.5)
. (2.1.6)
Для коефіцієнта справедливі також формули
В (2.1.5) , –дисперсія змінної , вибірковий кореляційний момент, або вибіркова коваріація.
Коефіцієнт називається вибірковим коефіцієнтом регресії (коефіцієнтом регресії) на . Він показує на скільки одиниць зміниться при зміні на одну одиницю.
Таким чином, обчисливши за формулами (2.1.5), (2.1.6) оцінки параметрів , отримаємо рівняння регресії
, (2.1.7)
або
. (2.1.8)
Як видно з останнього рівняння лінія регресії проходить через точку .