- •7 Регресійний аналіз
- •7.1 Попередній аналіз даних
- •7.2 Припущення, які використовує регресійний аналіз
- •7.3 Вибір вигляду функції для монотонних процесів
- •7.4 Метод найменших квадратів для оцінки параметрів функції регресії
- •Властивості регресії
- •7.5 Оцінка якості моделі
- •7.6 Критерій Фішера для оцінки адекватності моделі
- •7.7 Перевірка значущості коефіцієнтів регресії
- •7.8 Функції Excel для побудови регресійних залежностей
- •Розв’язання
- •7.9 Парна регресія в матричній формі
- •7.10 Метод найменших квадратів при оцінюванні параметрів поліномів
- •Розв’язання
- •7.11 Множинний регресійний аналіз
- •7.11.1 Матричний спосіб оцінки параметрів множинної регресії
- •7.11.2 Перевірка значущості коефіцієнтів регресії
- •7.11.3 Перевірка якості моделі. Скоригований коефіцієнт детермінації
- •7.11.4 Парна й часткова кореляції
- •Розв’язання.
- •7.12 Методи побудови багатофакторної регресійної моделі
- •7.12.1 Вибір "найкращого" рівняння регресії
- •7.12.2 Метод усіх можливих регресій
- •7.12.3 Метод виключень
- •7.12.4 Кроковий регресійний метод
- •Питання і завдання до розділу 7
- •Лабораторна робота Тема. Парний регресійний аналіз
- •Лабораторна робота Тема. Множинний регресійний аналіз
- •8 Дисперсійний аналіз
- •8.1 Однофакторний дисперсійний аналіз
- •Розв’язання.
- •Питання і завдання до розділу 8
- •Лабораторна робота Тема. Однофакторний дисперсійний аналіз
- •9 Ранговий аналіз
- •9.1 Коефіцієнт рангової кореляції Кенделла (Кендалла)
- •9.2 Коефіцієнт рангової кореляції Спірмена
- •Розв’язок.
- •9.3 Коефіцієнт конкордації
- •Питання і завдання до розділу 9
7.3 Вибір вигляду функції для монотонних процесів
При моделюванні монотонних процесів (зростаючих або спадних), коли число спостережень n невелике, може бути використана одна з таких регресійних функцій, що залежать від двох параметрів:
1)
2)
3)
![]()
4)
5)
6)
7)
8)
9)
![]()
Ці
залежності примітні тим, що якщо табличні
значення задовольняють одне із цих
рівнянь, то й середні значення
та
також його задовольняють. При цьому в
ролі
та
може бути середнє арифметичне, геометричне
й гармонічне:
,
,
.
|
N |
|
|
|
|
Вигляд функції |
|
1 |
х(ар) |
Y(ар) |
|
|
|
|
2 |
х(геом) |
Y(ар) |
|
|
|
|
3 |
|
Y(ар) |
|
|
|
|
4 |
х(ар) |
Y(геом) |
|
|
|
|
5 |
х(геом) |
Y(геом) |
|
|
|
|
6 |
х(гарм) |
Y(геом) |
|
|
|
|
7 |
х(ар) |
y(гарм) |
|
|
|
|
8 |
х(геом) |
Y(гарм) |
|
|
|
|
9 |
х(гарм) |
y(гарм) |
|
|
|
Для
вибору вигляду функції регресії
обчислюють
для
у такий спосіб:
=
, якщо
збігається з одним із вузлів xi.
Якщо
,
то
.
Як критерій вибору кращої функціональної залежності використовують
![]()
Після того, як обрано вигляд функції, модель перетворюють до лінійного вигляду, якщо це необхідно.
7.4 Метод найменших квадратів для оцінки параметрів функції регресії
Після
того як обрано вигляд функції регресії
,
необхідно знайти невідомі параметри
а0,
а1,
…, аm.
Метод найменших квадратів полягає в наступному: коефіцієнти а0, а1, …, аm вибираються таким чином, щоб
.
Сума квадратів відхилень експериментальних значень yi від розрахованих за рівнянням регресії в точках хi повинна бути мінімальною.
Для випадку лінійної функції
.
,
– необхідна умова існування екстремуму.
Отримаємо систему рівнянь
(7.3)
або
Функція S необмежена зверху, обмежена знизу, має тільки одну критичну точку 1-го роду, може досягати в ній тільки мінімуму.
Розв’язуючи систему рівнянь, знаходимо
Використовуючи коефіцієнт кореляції, можна записати
(7.4)
Властивості регресії
-
Регресійна пряма проходить через точку (
).
Ми визначили параметри лінійної регресії a1, a0 (7.4), отже рівняння лінійної регресії таке
. (7.5)
З рівняння (7.4)
.
(7.6)
Віднімаючи від (7.5) рівняння (7.6), отримаємо
.
(7.7)
Отже
бачимо, що оцінювана лінія регресії
проходить через центр (
).
Рівняння (7.7) можна записати у вигляді
.
-
Обчислимо
:
.
Сума відхилень всіх точок від прямої дорівнює 0. Цю властивість використовують для перевірки обчислень. Розглянемо, з яких частин складаються відхилення рівнянь.
.
(7.8)
У
статистиці різницю
називають загальним
відхиленням заданої випадкової величини.
– відхилення,
які можна пояснити, виходячи з регресійної
залежності. Дійсно, якщо x
змінюється, ці відхилення можна знайти
за рівнянням регресії.
–
називають
непоясненими
відхиленнями, тобто
відхиленнями, які не можна пояснити за
допомогою регресійної прямої.
Зведемо (7.8) у квадрат і обчислимо суму за всіма значеннями і:
;
Розділимо на n:
;
.
Оскільки модель відображає вплив на результативну ознаку лише частину реальних факторів, регресійний аналіз пояснює тільки частину дисперсії відгуку (загальної дисперсії).
Загальна дисперсія = дисперсія, що пояснюється регресійним аналізом + залишкова дисперсія.
,
,
де 2заг – загальна дисперсія;
2регр – дисперсія, що пояснюється регресією;
2зал – дисперсія помилок.
