- •Змістовий модуль 1 первинна математико-статистична обробка експериметальних даних
- •Вимірювання величин. Точність вимірювання
- •1.2. Випадкові величини та їх статистична характеристика
- •1.3. Експериментальні дослідження, їх статистична характеристика
- •1.4. Вибірковий метод дослідження
- •2.1. Основні етапи первинної обробки експериментальних даних
- •2. 2. Обчислення основних числових статистичних характеристик вибірки та їх суттєва інтерпретація
- •2.3. Перевірка статистичних гіпотез
- •2.3.1. Відсів грубих похибок
- •Перевірка однорідності декількох вибірок початкових даних
- •2.3.3. Перевірка гіпотези про значущість різниць двох середніх
- •2.3.4. Перевірка гіпотези нормальності розподілу експериментальних даних
- •Змістовий модуль 2 математико-статистичні методи аналізу парних залежностей дослідних даних
- •3.1. Види залежностей величин
- •3.2. Загальні поняття про статистичні методи аналізу парних залежностей
- •4.1 Загальні поняття
- •4.2. Статистична оцінка кореляційного зв'язку між показниками, які контролюються
- •5.1. Загальні поняття
- •5.2. Загальна схема регресійного аналізу
- •5.3. Вибір загального вигляду функції регресії
- •5.4. Метод найменших квадратів
- •5.5. Обчислення оцінок невідомих параметрів лінійної функції регресії
- •5.6. Обчислення оцінок невідомих параметрів квадратичної функції регресії
- •5.7. Обчислення оцінок невідомих параметрів кубічної функції регресії
- •5.8. Статистична оцінка адекватності рівняння регресії
- •Змістовий модуль 3 багаточинникові експерименти
- •7.1. Загальні поняття
- •7.2. Планування порівняльних експериментів
- •7.3. Планування екстремальних експериментів
- •7.4. Статистична обробка та інтерпретація результатів екстремального експерименту
- •7.4.1. Обчислення дисперсії експерименту
- •7.4.2. Обчислення значень коефіцієнтів функції відгуку параметра оптимізації
- •7.4.3. Перевірка адекватності функції відгуку параметра оптимізації
- •7.4.4. Перевірка значущості коефіцієнтів множинної функції регресії
- •7.4.5. Інтерпретація результатів експерименту
- •Література
5.1. Загальні поняття
Регресійний аналіз досліджує кількісні зв'язки між двома (чи декількома) ознаками. Наприклад, якщо між двома ознаками існує лінійний статистичний зв'язок (залежність), то рівняння, задане лінією регресії, дає можливість для будь-якого значення незалежної змінної величини (значення аргумента-регресора) розрахувати відповідне значення залежної змінної величини (значення функції). Регресійний аналіз є основним статистичним методом побудування математичних моделей об'єктів чи явищ за експериментальними даними.
Необхідно відмітити, що функція регресії, яка визначається в ході аналізу, встановлює кількісну відповідність між результуючими та чинниковими змінними величинами лише формально, хоча в дійсності ці змінні величини можуть і не стояти в причинно-наслідкових відношеннях. Тому зв'язки, які встановлюються, можуть інколи невірно тлумачитись як причинно-наслідкові. Отож, перед застосуванням статистичного апарату необхідно на основі професійно-логічного аналізу вирішити, яку із змінних величин розглядати як результуючу, а які із зареєстрованих величин - як чинникові.
Регресійний аналіз дозволяє оцінити коефіцієнт регресії, який являє собою міру середньої зміни результуючої ознаки при зміні чинникової ознаки (яка вважається незалежною) на одну одиницю, а також оцінити сумарні та середні значення ознаки без докладного дослідження цієї ознаки у великої кількості одиниць сукупності.
Функція f(х1, х2, ..., хп), що описує залежність умовного середнього значення у результуючого показника від заданих фіксованих значень передбачаючих змінних величин, називається функцією регресії. Найпростіший вигляд функції регресії - лінійний:
f(х) = Y = А + Вх .
Оцінка вільного члена А рівняння регресії для сукупності - є вільний член а рівняння регресії для вибірки.
.
(5.1)
Так
як
та
-
випадкові величини (
),
то і а
- теж випадкова величина.
Оцінкою коефіцієнта регресії В для сукупності є вибірковий коефіцієнт регресії b.
.
(5.2)
Так як b є функцією вибірки, тому також є випадковою величиною.
Параметри лінійної функції регресії а і b мають геометричну інтерпретацію: вільний член рівняння регресії а являє собою відстань від початку координат до точки перетину лінії з ординатою чи, іншими словами, це відрізок, який відсічений на ординаті лінією регресії; коефіцієнт регресії b являє собою тангенс кута нахилу лінії регресії до осі абсцис.
Якщо результативна ознака (у) корелює з чинниковою ознакою (х), то це означає, що середнє значення результативної ознаки, що досліджується, залежить від чинникової ознаки, тобто середнє значення розглядається як функція чинникової ознаки. Такі середні значення називають умовними. Умовні середні оцінюються за допомогою емпіричної функції регресії
= а+
bх
,
(5.3)
побудованої за п парами (хі , уі) значень ознак одиниць вибірки за допомогою найменших квадратів.
Оскільки параметри емпіричної функції регресії (а і b) випадкові величини, то значення цієї функції теж випадкова величина.
,
(5.4)
де Sу - середнє квадратичне відхилення окремих значень від лінії регресії
,
(5.5)
де
значення
функції регресії у точці хі
;.
Формула
розрахунку
показує, що при обчисленні оцінки та
її стандартної помилки для визначеного
значення чинникової ознаки враховуються
всі значення цієї ознаки, що спостерігаються,
а не лише ті, що лежать достатньо близько
від значення, що розглядається. Ця
формула дає міру точності умовного
середнього, яке оцінюється за допомогою
лінійної регресії. За допомогою цієї
формули та квантилів tα
- розподілу Стьюдента можна побудувати
певну зону для лінії регресії при рівні
певної ймовірності (1−α)
×100%.
{
}
(5.6)
Ширина певної зони залежить від трьох величин:
середнього квадратичного відхилення окремих значень від лінії регресії (вона пропорційна
)
;обсягу вибірки п (вона зменшується зі збільшенням обсягу вибірки) ;
відстані (
)
між
поточними значенням хі
та
середнім
значенням
(вона
володіє мінімумом за хі
=
).
