- •Введение
- •1. Структура и классификация сапр
- •1.1.Разновидности сапр
- •1.2.Функции, характеристики и примеры cae/cad/cam-систем
- •1.3.Понятие о cals-технологии
- •1.4.Комплексные автоматизированные системы
- •1.5.Системы управления в составе комплексных автоматизированных систем
- •1.6.Автоматизированные системы делопроизводства (асд)
- •2.Системы автоматизированного проектирования и их место среди других автоматизированных систем
- •3.Системные среды и программно-методические комплексы сапр
- •3.1.Функции сетевого программного обеспечения
- •3.1.1.Системы распределенных вычислений
- •3.1.2.Прикладные протоколы и телекоммуникационные информационные услуги
- •3.1.3.Информационная безопасность
- •3.2.Назначение и состав системных сред сапр
- •3.2.1.Системные среды автоматизированных систем
- •3.2.2.Подходы к интеграции по в сапр
- •3.2.3.Технологии интеграции по типа dde и ole
- •3.2.4.Управление данными в сапр
- •3.2.5.Варианты управления данными в сетях ас
- •3.2.6.Интеллектуальные серверы бд
- •3.2.7.Распределенные базы данных (рбд)
- •3.2.8.Программные средства управления проектированием в сапр
- •3.2.9.Примеры подсистем управления данными и проектированием
- •3.3.Инструментальные среды разработки программного обеспечения
- •3.3.1.Среды быстрой разработки приложений
- •3.3.2.Компонентно-ориентированные технологии
- •3.3.3.Пример реализации компонентно-ориентированной технологии в сапр
- •4.Системный подход к проектированию
- •4.1.Понятие инженерного проектирования
- •4.2.Принципы системного подхода
- •4.3.Основные понятия системотехники
- •5.Структура процесса проектирования
- •5.1.Иерархическая структура проектных спецификаций и иерархические уровни проектирования.
- •5.2.Стадии проектирования
- •5.3.Содержание технических заданий на проектирование
- •5.4.Классификация моделей и параметров, используемых при автоматизированном проектировании
- •5.5.Типовые проектные процедуры
- •6.Виды обеспечения и требования к их компонентам (гост 23501.101-87)
- •6.1.Программное обеспечение сапр
- •6.2.Информационное обеспечение сапр
- •6.3.Методическое обеспечение сапр
- •6.4.Математическое обеспечение сапр
- •6.5.Лингвистическое обеспечение сапр
- •6.6.Техническое обеспечение сапр
- •6.7.Организационное обеспечение сапр
- •7.Математическое моделирование автоматизированных систем
- •7.1.Математическое обеспечение анализа проектных решений
- •7.1.1.Математический аппарат в моделях разных иерархических уровней
- •7.1.2.Требования к математическим моделям и численным методам в сапр.
- •7.1.3.Место процедур формирования моделей в маршрутах проектирования
- •7.2.Математические модели в процедурах анализа на макроуровне
- •7.2.1.Исходные уравнения моделей
- •7.2.2.Примеры компонентных и топологических уравнений
- •7.2.3.Представление топологических уравнений
- •7.2.4.Особенности эквивалентных схем механических объектов.
- •7.2.5.Характеристика методов формирования ммс
- •7.2.6.Узловой метод
- •7.3.Методы и алгоритмы анализа на макроуровне
- •7.3.1.Выбор методов анализа во временной области
- •7.3.2.Алгоритм численного интегрирования соду
- •7.3.3.Методы решения систем нелинейных алгебраических уравнений
- •7.3.4.Методы решения систем линейных алгебраических уравнений
- •7.3.5.Анализ в частотной области
- •7.3.6.Многовариантный анализ
- •7.3.7.Организация вычислительного процесса в универсальных программах анализа на макроуровне.
- •7.4.Имитационное моделирование
- •7.4.1.Имитационное моделирование систем массового обслуживания
- •7.4.2.Событийный метод моделирования
- •7.4.3.Краткое описание языка срss
- •7.4.4.Сети Петри
- •7.4.5.Анализ сетей Петри
- •7.5.Математическое обеспечение синтеза проектных решений
- •7.5.1.Постановка задач параметрического синтеза
- •7.5.1.1.Место процедур синтеза в проектировании
- •7.5.1.2.Критерии оптимальности
- •7.5.1.3.Задачи оптимизации с учетом допусков
- •7.5.2.Обзор методов оптимизации
- •7.5.2.1.Классификация методов математического программирования
- •7.5.2.2.Методы одномерной оптимизации
- •7.5.2.3.Методы безусловной оптимизации
- •7.5.2.4.Необходимые условия экстремума
- •7.5.2.5.Методы поиска условных экстремумов.
- •7.5.3.Постановка задач структурного синтеза
- •7.5.3.1.Процедуры синтеза проектных решений
- •7.5.3.2.Задача принятия решений
- •7.5.3.3.Представление множества альтернатив
- •7.5.3.4.Морфологические таблицы
- •7.5.3.5.Альтернативные графы
- •7.5.3.6.Исчисления
- •7.5.4.Методы структурного синтеза в сапр
- •7.5.4.1.Системы искусственного интеллекта.
- •7.5.4.2.Дискретное математическое программирование
- •7.5.4.3.Элементы теории сложности
- •7.5.4.4.Эволюционные методы.
- •7.5.4.5.Постановка задачи поиска оптимальных решений с помощью генетических алгоритмов
- •7.5.4.6.Простой генетический алгоритм
- •7.5.4.7.Разновидности генетических операторов
- •7.5.4.8.Генетический метод комбинирования эвристик
- •8.Эффективность сапр
- •9.Понятие об открытых системах
- •9.1.История развития открытых систем
- •9.2.Существующие определения открытых систем и терминология
- •9.3.Различные подходы к понятию "открытые системы"
- •10.Технологии и стандарты информационной поддержки жизненного цикла изделий
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
7.5.2.3.Методы безусловной оптимизации
Среди методов нулевого порядка в САПР находят применение методы Розенброка, конфигураций (Хука-Дживса), деформируемого многогранника (Нелдера-Мида), случайного поиска. К методам с использованием производных относятся методы наискорейшего спуска, сопряженных градиентов, переменной метрики.
Метод Розенброка является улучшенным вариантом покоординатного спуска.
Метод покоординатного спуска характеризуется выбором направлений поиска поочередно вдоль всех п координатных осей, шаг рассчитывается на основе одномерной оптимизации, критерий окончания поиска |Xk-Xkn|<ε, где ε – заданная точность определения локального экстремума, п – размерность пространства управляемых параметров. Траектория покоординатного спуска для примера двумерного пространства управляемых параметров показана на рис. 7.21, где Xk–точки на траектории поиска, хi–управляемые параметры. Целевая функция представлена своими линиями равного уровня, около каждой линии записано соответствующее ей значение F(X). Очевидно, что Э есть точка минимума.
Рисунок 7.21 – Траектория покоординатного спуска
При использовании метода покоординатного спуска велика вероятность "застревания" поиска на дне оврага вдали от точки экстремума. На рис. 7.22 видно, что после попадания в точку А, расположенную на дне оврага, дальнейшие шаги возможны лишь в направлениях аа или bb, но они приводят к ухудшению целевой функции. Следовательно, поиск прекращается в точке А.
Рисунок 7.22 - "Застревание" покоординатного
спуска на дне оврага
Примечание. Оврагом называют часть пространства управляемых параметров, в которой наблюдаются слабые изменения производных целевой функции по одним направлениям и значительные изменения с переменой знака – по некоторым другим направлениям. Знак производной меняется в точках, принадлежащих дну оврага.
В то же время при благоприятной ориентации дна оврага, а именно при положении одной из координатных осей, близком к параллельности с дном оврага, поиск оказывается весьма быстрым. Эта ситуация показана на рис. 7.23.
Рисунок 7.23 – Траектория покоординатного спуска при благоприятной ориентации координатных осей
Метод Розенброка заключается в таком повороте координатных осей, чтобы одна из них оказалась квазипараллельной дну оврага. Такой поворот осуществляют на основе данных, полученных после серии из п шагов покоординатного спуска. Положение новых осей si может быть получено линейным преобразованием прежних осей хi: ось s1 совпадает по направлению с вектором Xk+n -Хk; остальные оси выбирают из условия ортогональности к X1 друг к другу.
Другой удачной модификацией покоординатного спуска является метод конфигураций. В соответствии с этим методом вначале выполняют обычную серию из п шагов покоординатного спуска, затем делают дополнительный шаг в направлении вектора Хk-Xk-n, как показано на рис. 7.24, где дополнительный шаг выполняют в направлении вектора Х3- Х1 что и приводит в точку Х4.
Рисунок 7.24 – Иллюстрация метода конфигураций
Поиск экстремума методом деформируемого многогранника основан на построении многогранника с (n+1) вершинами на каждом шаге поиска, где п–размерность пространства управляемых параметров. В начале поиска эти вершины выбирают произвольно, на последующих шагах выбор подчинен правилам метода.
Эти правила поясняются рис. 7.25 на примере двумерной задачи оптимизации. Выбраны вершины исходного треугольника: Xl X2, Х3. Новая вершина Х4 находится на луче, проведенном из худшей вершины Xt (из вершины с наибольшим значением целевой функции) через центр тяжести ЦТ многогранника, причем рекомендуется Х4 выбирать на расстоянии d от ЦТ, равном ЩТ-XJ. Новая вершина Х4 заменяет худшую вершину Xt. Если оказывается, что Х4 имеет лучшее значение целевой функции среди вершин многогранника, то расстояние d увеличивают.
Рисунок 7.25 - Иллюстрация метода
деформируемого многогранника
На рисунке именно эта ситуация имеет место и увеличение d дает точку Х5. В новом многограннике с вершинами Х2, Х3, Х5 худшей является вершина Х2, аналогично получают вершину Х6, затем вершину Х7 и т.д. Если новая вершина окажется худшей, то в многограннике нужно сохранить лучшую вершину, а длины всех ребер уменьшить, например вдвое (стягивание многогранника к лучшей вершине). Поиск прекращается при выполнении условия уменьшения размеров многогранника до некоторого предела.
Случайные методы поиска характеризуются тем, что направления поиска g выбирают случайным образом.
Особенностью метода наискорейшего спуска является выполнение шагов поиска в градиентном направлении
Хk+1=Хk+hgradF(X) / |gradF(X)|,
шаг h выбирается оптимальным с помощью одномерной оптимизации.
При использовании метода наискорейшего спуска, как и большинства других методов, эффективность поиска существенно снижается в овражных ситуациях. Траектория поиска приобретает зигзагообразный вид с медленным продвижением вдоль дна оврага в сторону экстремума. Чтобы повысить эффективность градиентных методов, используют несколько приемов.
Один из приемов, использованный в методе сопряженных градиентов (называемом также методом Флетчера-Ривса), основан на понятии сопряженности векторов. Векторы А и В называют Q-co-пряженными, если ATQB=0, где Q–положительно определенная квадратная матрица того же порядка, что и размер N векторов А и В (частный случай сопряженности – ортогональность векторов, когда Q является единичной матрицей порядка N), Ат -вектор-строка, В – вектор-столбец.
Особенность сопряженных направлений для Q = Г, где Г – матрица Гессе, при в задачах с квадратичной целевой функцией F(X) заключается в следующем: одномерная минимизация F(X) последовательно по N сопряженным направлениям позволяет найти экстремальную точку не более, чем за N шагов.
Примечание. Матрицей Гессе называют матрицу вторых частных производных целевой функции по управляемым параметрам.
Основанием для использования поиска по Г-сопряженным направлениям является то, что для функций F(X) общего вида может быть применена квадратичная аппроксимация, что на практике выливается в выполнение поиска более, чем за N шагов.
Пример. Поиск экстремума выполняют в соответствии с формулой
-
Xi=Xi+1 + hSi .
(7.42)
Направление Si+1 поиска на очередном шаге связано с направлением поиска Si,на предыдущем шаге соотношением
-
Si = -gradF(Xi) + wiSi,
(7.43)
где wi–коэффициент. Кроме того, учитывают условие сопряженности
-
Si+1TГSi = 0
(7.44)
и линейную аппроксимацию gradF(X) в окрестностях точки Xi
-
grad F(Xi+1) = grad F(Xi) + Г(Хi+1 - Xi)
(7.45)
Поскольку шаг h рассчитывается исходя из условия одномерной оптимизации, то, во-первых, справедливо соотношение
-
SiTgradF(Xi) = 0,
(7.46)
во-вторых, имеем
Xi = Xi-l + h wi-l Si-l-hgradF(Xi-l)
откуда получаем
-
dF/dh = (dF(X))/dX)(dX/dh) = grad F(Xi) grad F(Xi-1) = 0
(7.47)
Алгоритм поиска сводится к применению формулы (7.43), пока не будет выполнено условие окончания вычислений
|grad F(Xk)| < ε
Чтобы определить коэффициент wi решают систему уравнений (7.42)-(7.47) путем подстановки в (7.44) величин Si+1 из (7.43) и Si,из (7.42)
Si+1TГSi = (wi Si - grad F(Xi))T Г(Хi - Xi-1) / h =
= (wi Si - grad F(Xi))T ГГ-1 (grad F(Xi) - grad F(Xi-1)) /h = Q;
или
(wi Si - grad F(Xi))T(grad F(Xi) - grad F(Xi-1)) = 0,
откуда
wi SiT(grad F(Xi) - grad F(Xi-1)) - grad F(Xi)T grad F(Xi) + grad F(Xi)T grad F(Xi-1) = 0
и с учетом (7.46) и (7.47)
wi SiT grad F(Xi-1) + grad F(Xi)T grad F(Xi) = 0.
Следовательно,
-
wi = grad F(Xi)T grad F(Xi) / SiT grad F(Xi-1)
(7.48)
На первом шаге поиска выбирают S1 = – grad F(X0) и находят точку X1. На втором шаге по формуле (7.48) рассчитывают wi, по формулам (7.44) и (7.43) определяют S2 и Х2 и т.д.
Метод переменной метрики (иначе метод Девидона-Флетчера-Пауэлла) можно рассматривать как результат усовершенствования метода второго порядка – метода Ньютона. Метод Ньютона основан на использовании необходимых условий безусловного экстремума целевой функции F(X)
-
grad F(X) = 0.
(7.49)
Выражение (7.49) представляет собой систему алгебраических уравнений, для решения которой можно применить известный численный метод, называемый методом Ньютона. Корень системы (7.49) есть стационарная точка, т.е. возможное решение экстремальной задачи. Метод Ньютона является итерационным, он основан на линеаризации (7.49) в окрестности текущей точки поиска Хk.
-
grad F(X) = grad F(Xk) + Г(Х-Х k) = 0.
(7.50)
Выражение (7.50) – это система линейных алгебраических уравнений. Ее корень есть очередное приближение Хk к решению Xk+l = Xk - Г-l(Xk) grad F(Xk).
Если процесс сходится, то решение достигается за малое число итераций, окончанием которых служит выполнение условия
| Xk+l - Xk | < ε.
Главный недостаток метода – высокая трудоемкость вычисления и обращения матрицы Г, к тому же ее вычисление численным дифференцированием сопровождается заметными погрешностями, что снижает скорость сходимости.
В методе переменной метрики вместо трудно вычисляемой обратной матрицы Гессе используют некоторую более легко вычисляемую матрицу N, т.е.
Xk+l = Xk + grad F(Xk).
Введем обозначения:
dgk= grad F(Xk) - grad F(Xk-1);
dXk= Xk - Xk-1;
E – единичная матрица. Начальное значение матрицы N0 = Е. Матрицу N корректируют на каждом шаге, т.е.
Nk+1 = Nk+AkTBk
где
Ak=dXkdXkT/(dXT dgk),
Bk = Nk dgk dgkT NkT / (dgkT Nk dgk).
Поэтому
Можно показать, что Аi-стремится к Г-1, Вi - к Е при k→п, где п – размерность пространства управляемых параметров. Спустя п шагов, нужно снова начинать с Nn+1 = Е.