- •Лекція 1. Математичне моделювання в проектуванні і технології. Класифікація моделей.
- •1.1. Математичне моделювання виробничих об'єктів і процесів.
- •1.2.Структуризація математичних моделей
- •1.3. Структура і елементи моделі
- •1.4. Загальна класифікація сучасних моделей.
- •1.5. Глибина моделювання і вимоги до моделей.
- •2.1. Стаціонарні і нестаціонарні моделі.
- •2.2. Динамічні моделі
- •2.3. Лінійні і нелінійні моделі.
- •2.4. Моделі розподілені і зосереджені в просторі.
- •2.6. Моделі детерміновані і випадкові.
- •2.7. Інформаційні моделі.
- •2.8.Загальна характеристика двохполюсних моделей
- •2.9. Модель ідеального перемішування.
- •2.10. Модель ідеального витіснення.
- •2.11. Дифузійна модель.
- •2.12. Змішувальні, розділові і складні моделі.
- •2.13. З’єднання типових моделей.
- •Лекція 3. Експериментальні методи ідентифікації моделей. Оцінки зовнішніх впливів.
- •3.1.Основні етапи розробки моделей технологічних об'єктів.
- •3.2. Експериментальний підхід.
- •3.3. Ідентифікація статики і динаміки.
- •3.4. Активні і пасивні експерименти.
- •3.5. Параметри випадкових зовнішніх впливів
- •3.6. Помилки вимірювання. Закони розподілу.
- •3.7. Математичне очікування випадкової величини
- •3.8. Дисперсія випадкової величини
- •3.9. Оцінка зв'язаних зовнішніх впливів.
- •3.10. Оцінка тимчасових характеристик зовнішніх впливів.
- •3.11. Методи визначення інтервалу кореляції
- •3.12. Типові кореляційні функції.Спектри.
- •4.1.Особливості запису й обробки вимірювання вхідних впливів.
- •4.2. Статистична перевірка гіпотез.
- •4.3. Характеристики зовнішніх впливів.
- •4.5. Типи залежностей між змінними
- •4.6. Визначення коефіцієнтів кореляції вхідних і вихідних величин.
- •4.7. Лінійна регресія.
- •4.8.Метод найменших квадратів.
- •4.9. Рівняння лінійної регресії.
4.7. Лінійна регресія.
Найбільш простим є випадок лінійної регресії, коли функція (х) лінійна відносно х. Оцінки для параметрів при цьому розподілені нормально із середніми значеннями, рівними шуканим параметрам і з найменшими можливими дисперсіями. У випадку нелінійної регресії зводять, якщо це можливо, задачу до лінійного регресивного аналізу з декількома незалежними змінними (наприклад, якщо , то, покладаючи , одержуємо . На площині (х,у) рівняння при фіксованих визначає деяку криву, названу теоретичною кривої регресії.
Розглянемо найпростіший вигляд рівняння моделі, у якій на вихідну величину у впливає одна вхідна величина х: . Для визначення параметрів моделі варто знайти значення коефіцієнтів . При відсутності перешкод для цього достатньо двох дослідів і розв’язати рівняння
; .
Якщо досліджувана система характеризується лінійною залежністю і в ній не виникають перешкоди, то всі інші експериментальні дані повинні укладатися на прямій. Однак на практиці завжди існує розкид результатів, обумовлений впливом випадкових факторів. У таких випадках для знаходження коефіцієнтів і проводять N дослідів і одержують невизначену систему рівнянь
Після цього виникає задача усереднення експериментальних даних.
4.8.Метод найменших квадратів.
Найпоширенішим, хоча і не єдиним, методом усереднення експериментальних даних є метод найменших квадратів, який базується на мінімізації F — суми квадратів відхилень вихідного параметра об'єкта від моделі. Аналітично ця умова записується у вигляді
,
або для найпростішої моделі
.
Використання принципу найменших квадратів має ряд переваг як у простоті обчислювальних операцій, так і в точності їхніх результатів (при достатньому обсязі експериментальних даних).
Розглянемо більш загальний випадок, коли маємо р вхідних змінних х і модель представлена у вигляді полінома
Експериментальні дані, що використовуються при цьому, являють собою сукупність наборів значень і відповідають кожному набору значення (де — номер експерименту).
Задачу визначення коефіцієнтів розв’язують таким чином, щоб розкид експериментальних точок щодо розрахункової залежності був мінімальний і підкорявся закону нормального розподілу. Мірою цього розкиду є вибіркова дисперсія. Якщо позначити через розрахункове, а через — експериментальне значення у в досліді , то вибіркову дисперсію визначають за співвідношенням
,
де п — число дослідів; — число незалежних дослідів, або число ступенів свободи (тобто загальне число дослідів мінус число дослідів, необхідне для визначення коефіцієнтів у рівнянні регресії).
Підбор коефіцієнтів повинний відповідати умові , або, що те ж саме, . Умовою мінімуму або є рівність нулю їхніх частинних похідних по :
.
Приведені висновки справедливі для поліномів будь-якого степеня. У зв'язку з цим розглянемо лінійне рівняння регресії
,
де — підлягаючі визначенню коефіцієнти.
Для зручності обчислень використовуємо новий масштаб і запишемо
;
,
де — середні арифметичні значення х і у відповідно.
Тепер центр координатної системи перенесений у точку середніх значень. Лінійне рівняння регресії в новому центрованому масштабі запишеться у виді
Якщо в це рівняння послідовно підставимо табличні значення, то в результаті одержимо систему рівнянь, що несумісна (тобто рівняння, що входять в неї не можуть бути роз’язані спільно) через помилки вимірів і перешкод . Тому, як і вище, складемо функцію F для такого лінійного полінома (тут і далі символи центрування не вказуються);
,
де — експериментальне значення в досліді . Звідси одержимо для визначення систему нормальних лінійних рівнянь, у якій число рівнянь р співпадає з числом невідомих:
;
......................
.
Позначимо через матрицю коефіцієнтів системи. Якщо матриця В є виродженою (особливою), тобто , розв’язок системи не існує. У цьому випадку система є несумісною. Безпосередня перевірка виродженості В можлива лише у випадку ручного розрахунку при малих числах р; при обчисленні det В на ЕОМ завжди виникає випадкова погрішність округлення, внаслідок чого не можна достовірно твердити, що детермінант В дорівнює нулю.
Матриця В буде виродженою, якщо в ній є два чи більше лінійно залежні рядки (стовпців), тобто елементи цих рядків пропорційні один одному. Наприклад, якщо перший і другий рядки лінійно залежні, то
Перевірка лінійної залежності рядків (чи стовпців) матриці високого порядку практично неможлива. Для встановлення виродженості В використовують поняття рангу матриці, під яким розуміють найвищий порядок R відмінних від нуля мінорів. Якщо R=р, то матриця В невироджена; якщо R < р, те det В = 0 і матриця вироджена. Для визначення R обчислюють усі мінори 2 * 2, потім 3 * 3; 4 * 4. Виконання таких розрахунків громіздке і не дає (через помилки округлення) точних результатів.
Для успіху ідентифікації математичних моделей методом найменших квадратів необхідно ретельно підходити до вибору змінних: при включенні в модель лінійно залежних координат розв’язок системи не є єдиним, В — виродженна матриця, а det В=0. При правильному виборі змінних х це буває рідко.