
- •Частина 2 Вступ до дисперсійного, кореляційного та регресійного аналізу
- •1. Виділення аномальних об’єктів і однорідних груп серед сукупності Два типи задач
- •Однофакторний непараметричний дисперсійний аналіз Краскала–Волліса
- •Узагальнений критерій Стьюдента
- •Виділення груп об’єктів, однорідних за середнім значенням Критерій хі-квадрат, що ґрунтується на статистиці Велча
- •Критерій хі-квадрат, що ґрунтується на статистиці Вілкоксона
- •2. Дисперсійний аналіз Головні ідеї дисперсійного аналізу
- •Однофакторний дисперсійний аналіз
- •Двофакторний дисперсійний аналіз
- •Перевірка гіпотез
- •3. Кореляційний аналіз Задачі кореляційного аналізу
- •Парна кореляція
- •Властивості коефіцієнта кореляції
- •Вибірковий коефіцієнт кореляції
- •Кореляційне поле
- •Перевірка гіпотези про значущість коефіцієнта кореляції
- •Кореляційна матриця
- •4. Вступ до регресійного аналізУ Рівняння прямої регресії
- •Двовимірний нормальний закон розподілу та геометрична інтерпретація прямої регресії
- •Інтервал довіри для умовного середнього
- •Метод найменших квадратів для визначення параметрів рівняння регресії
- •Оцінка якості апроксимації
- •5. Непараметрична кореляція Кореляція дихотомічних (якісних) ознак
- •Перевірка гіпотези про значущість вибіркового коефіцієнта кореляції
- •Кореляція порядкових геологічних даних
- •Перевірка гіпотези про значущість коефіцієнта кореляції Спірмена
- •Оцінка коефіцієнта кореляції методом “дробового пострілу”
- •6. Нелінійна кореляція Кореляційне співвідношення як універсальна міра взаємозв’язку
- •Властивості кореляційного відношення
- •Перевірка гіпотези про значущість
- •Гіпотеза про правомірність застосування лінійної моделі
- •7. Тренд аналіз
- •Фон, аномалії та поверхня тренда
- •Білінійна просторова апроксимація
- •Експрес-методи оцінки наявності або відсутності тренда (одномірний випадок)
- •Метод зміни знака
- •Метод стрибків
- •Список Рекомендованої літератури
- •Список Довідкової Літератури
- •Геостатистика
Інтервал довіри для умовного середнього
Знаходження інтервалу довіри для
умовного середнього геометрично можна
інтерпретувати як побудову двох
паралельних до лінії регресії прямих,
що відступають від рівня регресії
на відстань
(уздовж вертикалі або горизонталі
залежно від вибраного рівняння регресії).
В утвореній смузі з ймовірністю
будуть центри умовних розподілів
.
Зазначимо, що ширина смуги стала для
всіх значень
.
; (4.9)
, (4.10)
де
– критичне значення розподілу Стьюдента,
що відповідає рівню значущості
та
ступеням вільності.
Метод найменших квадратів для визначення параметрів рівняння регресії
На підставі головної властивості рівняння регресії (4.3) з урахуванням (4.1) можемо побудувати функцію двох змінних – поки що невідомих параметрів рівняння регресії і (індекс 1 опущено):
. (4.11)
Мінімум функції
знайдемо з умов, де її часткові похідні
дорівнюють нулю:
(4.12)
Функція
є квадратичною відносно кожного з
параметрів
і
,
та
уважаємо фіксованими. Виконаємо
диференціювання:
;
.
У матричному вигляді матимемо:
(4.13)
або
; (4.14)
. (4.15)
Щоб побудувати матрицю і праву частину
системи (4.13), послідовно (стовпці 1-4)
заповнюють таблицю, що містить необхідні
комбінації степенів пар вхідних даних
(табл. 4.1). Нижній рядок цієї таблиці –
це суми відповідних стовпців, з яких і
формуємо систему (4.13). Після розв’язування
цієї системи матричним методом (4.14)
можна протабулювати рівняння регресії
(4.1) і, нарешті, знайти суму квадратів
відхилень експериментальних даних від
прогнозованих, що лежать на лінії
регресії (стовпці 6-7). Зазначимо, що
сумарні значення стовпців 2 і 6 однакові
(тобто рівняння регресії зберігає
середнє значення залежної величини), а
сума стовпця 7 буде найменшою серед усіх
прямих (кажуть: у класі лінійних функцій
вигляду (4.1)).
Таблиця 4.1
Схема обчислень за методом найменших квадратів
-
X
Y
XX
XY
Y(X)
(Y-Y(X))^2
…
…
…
…
…
…
Цей метод можна узагальнити і на інші різновиди рівняння регресії, зокрема, нелінійного типу. Наприклад, для квадратичного рівняння регресії
(4.16)
маємо
вже три параметри
,
і
,
а система рівнянь матиме вигляд
. (4.17)
Метод найменших квадратів (МНК) дає змогу оцінити параметри рівняння регресії, побудувати рівняння регресії (прогноз) та оцінити якість наближення за сумою квадратів відхилень.
Вправа. Побудувати схему обчислень для квадратичної регресії (4.16).
Рис. 4.3. Кореляційні поля й гіпотетичні
рівняння регресії [4]: а – лінійне
;
б – квадратичне
;
в – гіперболічне
;
г) поліноміальне
;
д – логарифмічне
;
е – експоненціальне
.
Аналогічно методом найменших квадратів можна оцінити параметри нелінійного рівняння регресії, деякі з характерних різновидів якого показано на рис. 4.3.