- •Тесты-вопросы по дисциплине «Системное проектирование в машиностроении»
- •Вопросы по дисциплине «Математические методы в инженерии»
- •1. Виды задач линейного программирования (зпл)
- •2. Основные определения злп
- •3. Геометрическая интерпретация и графический метод решения злп.
- •4 Симплексный метод решения злп
- •5 Оптимизация раскроя листовых и прутковых заготовок методом злп.
- •6. Оптимизация методом последовательного симплекса
- •7. Методы решения задач с нецелочисленным планом
- •14. Проектирование оптимального производственного плана машиностроительного предприятия методом Гомори
- •15. Градиентный метод
- •16. Оптимизация методом обобщенного приведенного градиента
- •17 Оптимизация методом динамического программирования
- •18 Оптимизация методом штрафных функций
- •19. Оптимизация методом Эйлера-Лагранжа
- •20. Многокритериальная оптимизация
- •Вопросы по дисциплине «Основы научных исследований, организация и планирование эксперимента»
- •8. План полного факторного эксперимента
- •9. Классификация планов эксперимента
- •Вопросы по дисциплине «Автоматизированное проектирование технологий обработки давлением»
- •Виды объемного геометрического моделирования. Твердотельное моделирование. Булевы операции.
- •5. Основные этапы расчета параметров деформирования заготовки при штамповке при использовании конечно-элементных пакетов.
- •6. Типы файлов, используемых при геометрическом моделировании. Взаимодействие cad и сае программных комплексов.
- •Вопросы по дисциплине «Автоматизация", робототехника и гпс кузнечно-штамповочного производства»
- •1. Задачи, решаемые при автоматизации технологических процессов обработки металлов давлением.
- •Основные направления и тенденции развития автоматизации кшп на современном этапе.
- •3.Требования к технологическому процессу, к технологичности заготовок, к конструкции штампов и оборудованию при создании автоматизированных производств.
- •4. Применение цикловых диаграмм и блок схем при разработке схем автоматизации процессов омд.
- •5. Классификация захватных устройств. Принципы выбора и расчета захватных устройств. Пример метода расчета.
- •6.Подающие устройства. Классификация, принципы выбора и расчета.
- •8. Преобразующие механизмы. Классификация, принципы выбора и расчета.
- •9. Составные преобразующие механизмы. Принципы выбора и расчета. Примеры.
- •10. Автоматизация листовой штамповки. Классификация, назначение, принципы работы. Особенности выбора сам в зависимости от исходной заготовки.
- •11. Автоматизация процессов холодной объемной штамповки.
- •12. Механизация и автоматизация свободной ковки на молотах и прессах.
- •13. Автоматизация процессов горячей объемной штамповки.
- •14. Промышленные роботы в кшп. Устройство, принципы выбора и расчета. Схемы рботизированных линий и комплексов
- •15. Классификация автоматических линий (ал). Производительность и надежность ал.
- •16. Кузнечно-прессовые обрабатывающие центры.
- •17. Кузнечно-штамповочные автоматы. Классификация
- •18. Гибкие производственные системы кшп.
14. Проектирование оптимального производственного плана машиностроительного предприятия методом Гомори
15. Градиентный метод
Градиентом непрерывной однозначной функции j (обозначается grad j или Ñj ) называется вектор
,
где
– частная производная функции по m-му
параметру xm ,
– единичные векторы в направлении
координатных осей.
Градиент функции Ñj представляет собой вектор перпендикулярный к
контуру
поверхности j в
пространстве параметров, который
указывает направление наибольшего
возрастания j в данной
точке. Противоположный вектор задает
направление наискорейшего спуска (рис.
2.3.1). Изменяя в функции отклика независимые
переменные пропорционально величинам
коэффициента регрессии, будем двигаться
в направлении градиента функции отклика
по самому крутому пути. Поэтому процедура
движения называется "крутым
восхождением". Величины составляющих
градиента определяются формой поверхности
отклика, начальной (нулевой) точкой
и
интервалами варьирования.
Длина вектора Ñj определяется по формуле:
(2.3.1)
Движение по градиенту осуществляется в следующем порядке:
1.
Вычисляются составляющие вектора
в точке
(основной
уровень):
.
2.
Последовательно прибавляют составляющие
к основному уровню факторов:
,
где hj – шаг движения.
3.
Итерационный процесс заканчивается,
когда выполняется неравенство:
< e
Шаг движения по градиенту выбирается из следующих соображений. Небольшой шаг потребует значительного числа опытов при движении к оптимуму. Большой шаг увеличивает вероятность проскакивания области оптимума. Нижняя граница шага ограничена возможностью фиксирования двух соседних опытов, а верхняя – областью определения фактора.
Функция, величины коэффициентов которой различаются несущественно, называется симметричной относительно коэффициентов. Движение по градиенту наиболее эффективно для симметричной функции. Движение по градиенту считается эффективным, если реализация опытов приводит к улучшению значения целевой функции.
Градиентный метод оптимизации не решает вопроса о самой лучшей точке поверхности отклика при наличии нескольких экстремальных точек.
Рис. 2.3.1. Градиент функции в точке А.
16. Оптимизация методом обобщенного приведенного градиента
Рассмотренные методы линейного программирования успешно применяются для решения задач большой размерности при ограничениях, записанных как в виде равенств, так и в виде неравенств. Способ решения задач нелинейного программирования с помощью процедуры, использующей линеаризацию только ограничений, оставляя целевую функцию нелинейной на всех этапах минимизации, используется в методе обобщенного приведенного градиента. Структура данного метода предполагает реализацию (по отношению к нелинейным функциям) линейно-аппроксимирующих процедур; определение новых переменных, ортогональных к некоторым ограничениям; приведение градиента целевой функции к преобразованному таким способом базису. В оптимизационной схеме могут использоваться ограничения в виде неравенств.
Методом приведенного градиента решаются задачи минимизации функции
j(х), где хÎ En , (2.4.1)
при ограничениях в виде равенств:
hi (x) = 0, i = 1, ... , m (2.4.2)
и ограничениях в виде неравенств:
Lj £ gj (x) £ Uj , j = 1, ... , k. (2.4.3)
Ограничения в виде неравенств (2.4.3) удается включить в оптимизационную схему путем вычитания из левых частей ограничений неотрицательных переменных, что превращает ограничения-неравенства в ограничения-равенства вида:
hi (x) = gi (x) - vi2 = 0 (2.4.4)
где - ¥ £ vi £ ¥
Переменные vi добавляются к n переменным исходной задачи.
Различают две системы переменных: m базисных (зависимых) переменных xi и (n - m) небазисных (независимых) переменных хК . При этом зависимые переменные определяются через независимые переменные. Следовательно, функция j(х) есть функция лишь (n - m) независимых переменных. Уравнения задающие ограничения не могут быть разрешены относительно зависимых переменных.
Задача оптимизации функции j(х) методом приведенного градиента решается следующим образом.
Пусть требуется минимизировать функцию j(х1, х2) при ограничении hi(х1, х2) = 0, (i = 1, ... , m). При бесконечных малых приращения х1 и х2 имеем:
dj
(х1, х2) =
dx1 +
dx2 . (2.4.5)
Кроме того,
dh(х1,
х2) =
dx1 +
dx2 = 0 . (2.4.6)
Выражения (2.4.5) и (2.4.6) линейны относительно dx1 и dx2 . Поэтому из выражения (2.4.5) либо dx1, либо dx2 можно исключить. Единственно допустимым перемещением является перемещение вдоль ограничения: dh(х1, х2) = 0.
Решим уравнение dh(х1, х2) =0 относительно dx2 :
dx2
= -
dx1 .(2.4.7)
Полученное решение подставим в выражение (2.4.5)
dj (х1, х2) =( - ´ ) dx1 .(2.4.8)
Отсюда получим выражение для приведенного градиента:
=
-
´
´
(2.4.9)
Обозначим компоненты градиента целевой функции через ÑТХ1 j = и ÑТХ2 j = . Тогда выражение (2.4.9) записывается в форме:
Ñj = = ÑТХ1 j - ÑТХ2 j ´ ´ . (2.4.10)
Выражение (2.4.10) в общем случае имеет вид:
Ñj
=
=
ÑТХК j
- ÑТХM j´
´
, (2.4.11)
где
=
. . .
– [1 ´ (n - m)] – мерная
матрица
(матрица приведенного градиента),
ÑТХM
j =
. . .
– [1 ´ (n - m)] –мерная
матрица,
ÑТХКj
=
. . .
– (1 ´ m) –мерная
матрица,
h =
– (m ´ 1) –мерная
матрица,
. . .
=
– m ´ m –мерная
квадратная матрица («базисная» матрица),
. . .
. . .
= [m (n - m)] –мерная матрица.
. . .
Следует отметить, что число составляющих вектора приведенного градиента равняется числу независимых переменных.
Алгоритм
обобщенного приведенного градиента
начинает работать с начальной точки
.
Значения составляющих приведенного
градиента z(K)=
служат ориентиром при отыскании
оптимального вектора
.
Направления оптимизационного поиска
j(K) (j=m+1, ... , n),
соответствующие независимым переменным,
через значения составляющих приведенного
градиента определяются следующим
образом:
если хj(K) = Uj и zj(K) 0,
j(K) = 0 (2.4.12)
если хj(K) = Lj и zj(K) 0,
j(K) = - zj(K), если Lj хj(K) Uj (2.4.13)
Поиск состоит в отыскании точки, в которой приведенный градиент целевой функции обращается в нуль.
