- •1 Питання
- •Вступ Актуальністьпроблеми автоматизації проектування.
- •4.Аспекти описів проектованих об’єктів.
- •2.Стандартими одиницями;
- •3. Покупними виробами;
- •4.Деталями.
- •5. Складові частини процесу проектування.
- •6,Нисхідне і висхідне проектування
- •7.Зовнішнє і внутрішнє проектування.Уніфікація проектних процедур і рішень.
- •8.Види описів проектованих об’єктів та класифікація їх параметрів.
- •3.Типові проектні процедури
- •11.Вкладеність
- •12.Режими проектування сапр
- •13Види забезпечення сапр
- •14Підсистеми сапр
- •Матиматичні моделі та вимоги до них
- •Методи оптимізації.
- •Критерії закінчення пошуку
- •Методи нульового порядку
- •Метод конфігурацій.
- •Метод Розенброка
- •Методи 1-го порядку
- •Метод спряжених градієнтів
- •Метод проекцій вектор градієнт.
- •1.Технічне забезпечення сапр служить для забезпечення роботи, основних видів забезпечення сапр,являє собою сокупність технічних пристроїв, серед яких виділяють наступні 5 груп.
- •2.Рівні технічного забезпечення сапр
- •3.Шинна мережа.
- •Інформаційне забезпечення.
Методи оптимізації.
1.методи оптим ізацій сутність та види, значна частина заданих оптимізацій відноситься до задач нелінійного програмування, в цих задачах використовують алгоритмічні задачі, моделі шо обумовлюють необхідність пошукової оптимізації, пошукова оптимізація полягає у визначенні малого околу точки х* в області допуску параметрів хд, на основі розрахунку цільової функції F(x) та функції обмеження, послідовність відображаючих похибок визначається методом пошуку екстрена.Методи оптимізації(пошук екстрена, можна шукати за наступними ознаками.:Кількість керованих параметрів: за цією ознакою методи оптимізації поділяють на методи одномірного та багатомірного пошуку.як правило метод одномірного пошуку грає лише допоміжну роль в задачах програм, де кількість керованих параметрів звичайно знаходиться в межах від декількох одиниць до декількох десятків, взалежності від характеристик екстрена на який орієнтований параметр розрізняють методи:безумовної, умовної, локальної та глобальної оптимізації.Взалажності від характеру інформації,яка використовується для вибору напрямку пошуку , розрізняють:методи:0,1,2-го порядків.
Вметоді 1-го порядку використовуються перші похідні цвілевої функції по керованим параметрам(складають вектор градієнт цвілевої функції) тому ці методи також називають градієнтними методами.
Методи
2 го порядку
, крім похідних першого порядку
використовуються і похідні 2-го порядку
,які складають матрицю Гесе(квадратна
матриця елементами якої є часткові
похідні деякої функції)Формально нехай
дійсну функцію від n
змінних:f(x1,x2,xn),якшо
у цієї функції існують всі похідні 2 –го
порядку то можна визначити матрицю
Гесе.
(x)=
В методах 0-го порядку похідні не використовуються. Таким чином змістом будь якого методу або алгоритму пошукової оптимізації повинні бути способи вибору:1.напрямку пошуку,2.вибір кроку(значення кроку),3Формули для нормування керованих параметрів.(Оскільки керовані параметри різні фізичні величини то для можливості їх порівняння необхідно порівняти у віносних одиницях.
Критерії закінчення пошуку
При зображенні геометрично різних методів пошуку, значення цільових функцій, зображенне лініями однакового рівня( в межах 1 го рівня функціонує приймає однакові значення),сам пошук відображення відрізку який з’єднують точки.
Методи безумовної оптимізації
Розглянемо основні параметри пошуку безумовних локальних екстремум які використовуються в САПР , вважаємо що виконання задач мінімізації цвілевої функції minF(X),XЄXд
Крок в просторі керованих параметрів в цих методах задається формулою:
=
+
-приріст
кроку,
-попередній
крок,
-даний
крок.
-значення
кроку,p-напрям
пошуку( вектор який вказує напрям),
-
норма вектору,х-відображаюча точка,
h-індекс
кроку,вибір значення цього кроку може
здійснюватися 2 методами.
1.метод значення кроку при якому значення кроку вибирається на початку і не змінюється.
2.метод оптимального кроку тут для вибору кроку розв’язується задача одномірної мінімізації цвілевої функції на промені з напрямком gk.
MinF(
+
-
gk).Закінчення
пошуку повязується з попаданням в
заданий
-окіл
оптимальної точки х*{{xk-x*}}
Критерій різниця між останнім кроком і оптимальноюточкою менша проте оскільки х* є невідомим то як правило в ітераційних методах замість умови:{{xk-x*}} виконується умова, {{xk-xk-r}}
Де
r
число яке розділяє кроки
,
як правило його приймають рівним
кількості керованих параметрів тобто
пошук припиняється у випадку, якщо
відстань на яку просунулась відображаємо
точка за 2 останні кроки виявляється
меншою заданого значення
.
