- •Лекція №1
- •1.1 Опрацювання результатів прямих вимірювань
- •1.1.1 Принципові основи оцінювання похибок вимірювань
- •1.1.2 Оцінка результату і похибки прямих вимірювань
- •1.1.3 Оцінка похибки прямих одноразових вимірювань
- •1.1.4 Оцінка результату і похибки прямих багаторазових вимірювань
- •1.1.5 Опрацювання результатів прямих одноразових вимірювань
- •1.1.6 Опрацювання результатів багаторазових прямих вимірювань
- •1.1.7 Опрацювання результатів прямих нерівноточних вимірювань
- •1.2 Опрацювання результатів опосередкованих вимірювань
- •1.2.1 Оцінка результату і похибки опосередкованих вимірювань
- •1.2.2 Опрацювання результатів опосередкованих вимірювань з лінійною залежністю
- •1.2.3 Опосередковані вимірювання при нелінійній залежності
- •1.2.4 Систематична похибка опосередкованих вимірювань при нелінійній залежності
- •1.2.5 Результат і похибка опосередкованих вимірювань
- •1.3 Оцінка результатів і похибок сумісних та сукупних вимірювань
- •Питання для самоперевірки
- •Лекція №2
- •2 Статистична перевірка гіпотез
- •2.1 Поняття статистичної гіпотези. Припустима і критична області. Статистичний критерій
- •Питання для самоперевірки
- •2.2 Гіпотези про параметри розподілу. Виникнення помилок першого та другого роду. Визначення обсягу випробувань
- •Питання для самоперевірки
- •2.3 Параметричні критерії розбіжностей для двох сукупностей. Критерії Фішера і Кохрена
- •Питання для самоперевірки
- •2.4 Критерії згоди
- •Питання для самоперевірки
- •2.5 Непараметричні критерії
- •Питання для самоперевірки
- •2.6 Перевірка гіпотез відносно частки ознаки порівняння двох вибірок
- •Питання для самоперевірки
- •Завдання планування експерименту
- •Лукція №3
- •3. Регресійний аналіз
- •3.1 Кореляційна залежність
- •3.2 Два основних завдання вимірювання зв’язків
- •3.3 Емпірична лінія регресії
- •3.4 Метод найменших квадратів
- •3.5 Множинний регресійний аналіз
- •3.6 Нелінійна регресія
- •Лекція №4
- •4. Активний експеримент
- •4.1 Ортогональні плани першого порядку
- •4.2 Повний факторний експеримент
- •4.3 Дисперсія відтворюваності
- •4.4 Оцінка адекватності апроксимуючої залежності досліджуваного
- •4.5 Оцінка значущості коефіцієнтів апроксимуючої залежності, взятій у вигляді алгебраїчного полінома, в сенсі відмінності значень цих коефіцієнтів від нуля
- •4.6 Обробка результатів експерименту
- •4.7 Дрібний факторний експеримент
- •4.8 Складання планів другого порядку
- •4.9 Ортогональні центрально-композиційні плани
- •Лекція №5
- •5. Планування експерименту при відшуканні екстремальної області
- •5.1 Класичні методи визначення екстремуму
- •5.2 Факторні методи визначення екстремуму
- •Лекція №6
- •6. Дисперсійний аналіз при експериментальному дослідженні
- •6.1 Однофакторний дисперсійний аналіз
- •Лекція №7
- •7. Приклади та завдання
- •Список літератури
3.4 Метод найменших квадратів
Нехай маємо N пар спостережень (x,y) , причому xt – фіксовані значення вхідної величини. Цьому набору відповідає деяке поле кореляції.
Необхідно підібрати лінію регресії виду
яка б найкращим чином описувала поведінку об'єкта. Як вже відмічалося, через наявність, наприклад, похибки вимірювання значення вихідної величини також будуть випадковими.
Для оцінки коефіцієнтів регресії і використовується метод найменших квадратів (МНК), який дозволяє мінімізувати суму квадратів різниці відхилення експериментальних даних і розрахункових значень, отриманих за рівнянням регресії
МНК полягає в мінімізації функції
Для лінійної парної залежності маємо
При знаходженні оцінок коефіцієнтів, які задовольняють даним умовам, необхідно взяти час ткові похідні і прирівняти до нуля. Отримаємо систему рівнянь, яка називається системою нормальних рівнянь. Число цих рівнянь відповідає числу невідомих:
Може бути нескінченна множина гіпотез про конкретний вид моделі (значення коефіцієнтів). Завдання полягає у виборі моделі, що найкращим чином описує поведінку об'єкта. Для цього скористуємося методом максимальної правдоподібнос ті:
Якщо маємо N вибраних точок, де проводились експерименти, то функція правдоподібнос ті дорівнюватиме добутку ймовірностей
Для отримання оцінок максимальної правдоподібності
Ця умова співпадає з умовою МНК.
Таким чином, МНК є частковим випадком методу максимальної правдоподібності при нормальному законі розподілу.
3.5 Множинний регресійний аналіз
На практиці випадкова вихідна величина Y час то залежить не від однієї, а кількох змінних. У такому разі можна говорити про поверхню регресії.
М(Y/X1 = X1, X2 = X2, … Xn=Xn)=φ(X1, X2, … Xn).
Будемо розглядати лінійні моделі, для яких функція регресії лінійна за параметрами
Для проведення регресійного аналізу необхідно виконання наступних умов:
- точніс ть, з якою задаються вхідні змінні (фактори_______) хj , що не є випадковими величинами, повинна бути високою;
- похибки вимірювань вихідної величини є випадковими з математичним очікуванням, рівним нулю;
- результати спостережень являють собою однорідні незалежні нормально розподілені величини;
- кожний фактор не є лінійною комбінацією інших факторів.
Таким чином регресія, що розглядається, має вигляд безумовного математичного очікування. Завдання множинного регресійного аналізу полягає в побудові такої прямої в n-мірному просторі, квадрат відхилення результатів спостереження від якого був би мінімальним.
Виходячи із властивостей, які має система нормальних рівнянь, на основі якої визначається оцінка коефіцієнтів рівняння регресії, для n факторного експерименту можна записати:
(3.1)
Рішення даної системи рівнянь і дає значення оцінок коефіцієнтів âj методу найменших квадратів.
Аналіз рівнянь і методика с тає більш наглядними, а розрахункові процедури суттєво спрощуються, якщо використовуємо матричну форму запису. Сукупність вхідних величин представляємо у вигляді вектора, що
Рис.3.4 - Геометричне представлення методу найменших квадратів
подається на об’єкт, який досліджується, і вимірюються вихідні величини, які відповідають даній точці фактичного простору, утвореного вхідними величинами:
Результатами даних спостережень при відомих Х необхідно знайти вектор який є оцінкою методу найменших квадратів. Геометрично це може бути інтерпретовано наступним чином. В ідеальному випадку вектор вихідних величин представляється у вигляді Y=XA. Через наявніс ть похибок вектор спостережень результатів експерименту буде За методом найменших квадратів мінімізується значення
Область в якій розташовані вектори вхідних величин, являє собою гіперплощину (на рис. 3.4 показаний двомірний випадок). У цій же площині відображається вектор регреії Мінімальній відс тані між векторами спостережень і гіперплощиною відповідатиме довжина перпендикуляра, опущеного із кінця цього вектора на гіперплощину, тобто є проекцією на область і квадрат довжини вектора буде мінімальним. Умова ортогональнос ті різницевого вектора до гіперплощини F може бути записана у вигляді де Хt – транспонована матриця вхідних величин ( по відношенню до матриці Х в ній стовпці й рядки помінялися місцями). Одержуємо нормальне рівняння у матричній формі:
(3.2)
Матриця ХtХ=С називається інформаційною матрицею. Тоді нормальне рівняння можна переписати у вигляді
(3.3)
і воно завжди має рішення.
Дійсно, для матриці Х, яка є матрицею плану (кожен рядок показує умови проведення і-го досліду), транспонована матриця буде:
Інформаційна матриця в цьому випадку
буде квадратною розмірністю (n+1)×(n+1).
Для визначення вектора оцінок МНК необхідно вираз (3.3) домножити зліва на отриману матрицю С-1. Оскільки матриця С квадратна, то її можна обернути. Обернена матриця С-1 називається коваріаційною (дисперсійною).
Перепишемо вираз (3.3) таким чином:
Добуток оберненої матриці на пряму дає одиничну матрицю. У результаті одержимо вираз для вектора оцінок коефіцієнтів:
(3.4)
Кожний коефіцієнт множинної регресії визначається з виразу:
(3.5)
де Сij – елементи матриці С-1 .
Знаходження варіаційної матриці С-1 при значній кількості факторів n -складне і трудоємне завдання. Якщо при перевірці моделі встановлено, що точність апроксимації мала, то все треба починати спочатку, оскільки будь-яка добавка (значення) елементів у рівнянні прогресії відповідно до (3.5) приведе до зміни значень усіх коефіцієнтів аj. Таким чином, після уточнення рівняння регресії необхідно знову транспонувати матрицю, а потім відповідно до (3.5) визначати аj, тобто всі коефіцієнти рівняння регресії взаємопов’язані.
Відомо, що прос то обертається діагональна матриця – матриця, в якій всі елементи, крім тих, що стоять на головній діагоналі, дорівнюють нулю. Для обернення матриці С в діагональну треба виконати умову
яка називається умовою ортогональності і може використовуватися в томувипадку, коли в n-мірному факторному просторі кожному з факторів поставити у відповідність одну із взаємноперпендикулярних осей. Тоді матриця С і відповідна їй коваріаційна матриця С-1 матимуть вигляд
Прийнявши умову, що
а також, що матриця С-1 діагональна, вираз можна подати
наступним чином:
У результаті ос танній вираз, а значить, вираз розпадається на (n+1) незалежних рівнянь, які дозволяють незалежно знаходити оцінки коефіцієнтів рівняння множинної регресії:
(3.6)
Розглянемо, які властивості мають оцінки найменших квадратів коефіцієнтів рівняння множинної регресії, одержаних із матричного рівняння . Оскільки вважається, що похибки вимірювань вихідної величини є зміщеними, то математичне очікування матриці ( точніше вектор – стовпчики) похибок дорівнює нулю Е[ε]=0. Визначимо, чому дорівнює математичне очікування оцінки вектора коефіцієнтів , тобто
Взявши до уваги, що і Е[ε]=0, одержимо
тобто вектор є незміщеною оцінкою вектора А. Для визначення дисперсії одержаних оцінок коефіцієнтів скористуємося виразом (3.4), тоді
Оскільки матриця C-1X t детермінована, а - випадкова матриця, то можна записати
(3.7)
Дисперсія спостережень (результатів вимірювань) визначається так:
Якщо похибки вимірювання вихідної величини некорельовані і мають однакову дисперсію, тобто , , де ln – одинична матриця.
Підставимо у вираз (3.7):
(3.8)
і одержимо, що коли як оцінку вектора А вибираємо саме вектор-стовпчик А(оцінку найменших квадратів), то дана оцінка має найменшу дисперсію. Якщо похибки незалежні і однаково розподілені, то до того ж є і ефективною.
Для випадку, коли похибки корельовані, , де W – відома, позитивно визначена матриця, тоді оцінка найменших квадратів для вектора А
і називається узагальненою оцінкою найменших квадратів, а для випадку, коли матриця W діагональна, то зваженою оцінкою.
Якщо матриця W діагональна з елементами W-1, то зважена оцінка найменших квадратів для вектора А і дисперсія цієї оцінки визначаться так: