- •Оглавление
- •Часть 1 7
- •Часть 2 115
- •Часть 3 228
- •Введение
- •Лекция №2 Форма и принципы представления математических моделей
- •Лекция №3 Иерархия математических моделей и формы их представления
- •Лекция №4 Подобие физических явлений
- •Лекция №5 Моделирование механических состояний и процессов
- •Лекция №6 Моделирование систем массового обслуживания и сложных технических объектов
- •Лекция №7 Моделирование кузнечно-штамповочных машин
- •Лекция №8 Алгоритмизация математических моделей кузнечно-штамповочных машин
- •Лекция №10 Задачи оптимизации конструкций механизмов и кузнечно-штамповочных машин
- •Лекция №11 Оптимизация технологических решений и загрузки кузнечно-штамповочного оборудования
- •Построение математических моделей загрузки оборудования
- •Лекция №13 Виды и взаимодействие различных видов энергии в системах кузнечно-штамповочных машин
- •Лекция №15 Оптимальное проектирование главных приводов кузнечно-штамповочных машин с применением методов математического моделирования
- •Лекция №16 Моделирование процессов разрушения деталей. Прочность и долговечность
- •Лекция №17 Кузнечно-штамповочные машины как объект динамического анализа
- •Лекция №18 Ударные нагружения в системах кузнечно-штамповочных машин. Уравнение движения механического пресса
- •Лекция №19 Модернизация кузнечно-штамповочных машин на основе методов математического моделирования
- •Лекция №20 Методы обеспечения надежности работы механизмов и кузнечно-штамповочных машин
- •Основные понятия планирования эксперимента
- •Лекция №22 Исследование параметров точности механических прессов
- •Лекция №23 Алгоритмизация оптимизационных расчетов
- •Алгоритм случайного спуска
- •Случайный поиск с возвратом
- •Релаксационный алгоритм случайного спуска
- •Случайный поиск по наилучшей пробе
- •Адаптивные параметрические алгоритмы случайного поиска
- •Ограничения типа неравенств
- •Ограничения типа равенств
- •Ограничения типа неравенств и равенств
- •Дискретные ограничения
- •Дискретные ограничения с неравенствами
- •Дискретизация структуры
- •Эволюционная оптимизация структуры
- •Лекция №24 Оптимальное проектирование регулируемых маховиковых электроприводов кривошипных кузнечно-прессовых машин
- •Лекция №25 Моделирование и технический прогресс
- •Заключение
- •Библиографический список
- •394026 Воронеж, Московский просп., 14
Ограничения типа неравенств
Ограничения типа неравенств (S=SH) образует обычно область размерности n. Выход за границу этой области (C S) является сигналом о необходимости учета ограничений S. При случайном поиске это можно осуществить множеством способов. Рассмотрим наиболее эффективный из них.
С пособ возврата заключается в том, что нарушение ограничений S отождествляется с неудачным шагом, т. е. c не убыванием показателя качества ( ), для чего вводится оператор возврата. Таким образом, в процессе поиска различаются лишь две ситуации удачного и неудачного шагов:
: (C S) ( Q<0), : (C S) ( Q 0) (23.14)
т.е. удачным шагом считается случай , когда ограничения не нарушены и одновременно уменьшился показатель качества. Неудачным шагом считается тот, при котором нарушены ограничения или увеличился показатель качества. Реакцией на является возврат в предыдущее состояние ( C[N+1]=- C[N]) и случайный шаг. ( C[N+2]=a ). На удачу – можно реагировать по-разному. При случайном спуске (см. П. 15.3.2) - повторять удачный шаг ( C[N+1]= C[N]). При алгоритме с возвратом (п. 15.3.1) - вводить случайный шаг ( C[N+1]=a ).
Ограничения типа равенств
Учет ограничений типа равенств (S=SG) в процессе случайного поиска связан с организацией движения вдоль этих ограничений. Это можно осуществить различными путями. Простейшим из них является введение “коридора”, т.е. переход к ограничениям типа неравенств:
||gj(C)||<e, f= (23.15)
При этом величина – должна стремиться к нулю в процессе поиска.
Ограничения типа неравенств и равенств
Учет такого рода ограничений (SH SG) в процессах случайного поиска осуществляется путем прямого комбинирования методов, используемых в двух рассмотренных выше случаях.
Дискретные ограничения
Простейшая схема следующего поиска в случае ограничений SD опирается на случайный выбор новой точки в e - окрестности исходной точки. Пусть e - окрестность исходной точки С[N] имеет вид
||C-C[N]|| e (23.16)
и пусть для простоты множество Sp образовано целочисленными векторами С. Это означает, что все координаты этих векторов имеют целочисленные значения (более общий случай легко сводится к этому). Пусть De[N] - множество целочисленных точек, попавших в --окрестность, т.е. удовлетворяющих условию. Так, например, при e=1 таких точек будет 2n.
Тогда процедура случайного поиска на (N+1)-м шаге будет связана со случайным выбором такой точки множества De[N], для которой выполняются очевидные условия
Q(C[N+1])<Q(C[N], C[N+1] De[N]. (23.17)
Можно точки, удовлетворяющие этому условию, сделать неравномерно распределенными и изменять их вероятности в соответствии с выбранным законом самообучения, например, увеличивая вероятности тех векторов смещений, которые на предыдущем шаге дали уменьшение критерия качества (с последующим нормированием, разумеется). Процесс самообучения здесь естественно дополнить условием запоминания уже проверенных точек с тем, чтобы не повторять проверку условия в одной и той же точке. Критерием остановки процесса является отсутствие такой точки при достаточно большом e. Очевидно, что этот процесс можно варьировать в широких пределах. Например, изменять характер меры в неравенстве или адаптировать ее в процессе поиска. Большинство существующих эффективных методов решения дискретных задач оптимизации в той или иной степени используют изложенное.