
- •1 Введение в теорию моделирования
- •1.1 Общие вопросы теории моделирования
- •1.1.1 Основные понятия моделирования
- •1.1.2 Принципы системного подхода в моделировании систем
- •1.1.3 Классификация видов моделирования систем
- •1.2 Методология математического моделирования
- •1.3 Постановка задач оптимизации и методы поиска оптимальных решений
- •1.3.1 Общая постановка и классификация задач оптимизации
- •1.3.2 Классификация методов оптимизации
- •1.3.3 Детерминистские методы оптимизации
- •1.3.4 Стохастические методы оптимизации
- •1.3.5 Выбор метода решения задачи оптимального проектирования
- •1.4 Планирование машинных экспериментов с моделями систем
- •1.4.1 Методы планирования экспериментов
- •1.4.2 Стратегическое планирование машинных экспериментов с моделями
- •1.4.3 Тактическое планирование машинных экспериментов с моделями
- •1.4.4 Обработка и анализ результатов моделирования
- •1.4.4.1 Особенности фиксации и статистической обработки результатов моделирования систем на эвм
- •1.4.4.2 Анализ и интерпретация результатов машинного моделирования
- •1.4.4.3 Обработка результатов машинного эксперимента при синтезе систем
- •1.5 Организация натурного эксперимента на действующих образцах и физических моделях
- •1.5.1 Методология экспериментальных исследований
- •1.5.2 Выбор и составление плана эксперимента
- •Составление планов эксперимента с учетом возможности проведения корреляционного анализа.
- •Составление планов эксперимента для проведения дисперсионного анализа.
- •Составление планов экспериментов для проведения однофакторного дисперсионного анализа.
- •Составление планов экспериментов для проведения двухфакторного дисперсионного анализа.
- •Составление планов экспериментов для проведения многофакторного дисперсионного анализа.
- •Математическое планирование эксперимента для проведения регрессионного анализа.
- •1.5.3 Планирование эксперимента для решения оптимизационных задач
- •Метод крутого восхождения или наискорейшего спуска по поверхности функции отклика объекта.
- •Метод симплекс-планирования.
- •1.6 Проведение натурного эксперимента с использованием современных средств исследований
- •1.6.1 Технические средства проведения натурного эксперимента
- •1.6.1.1 Общая характеристика технических средств
- •1.6.1.2 Технические средства от фирмы National Instruments
- •1.6.1.3 Классификация технических средств, в зависимости от типа объектов исследования
- •1.6.2 Программные средства от фирмы National Instruments
1.3.3 Детерминистские методы оптимизации
Детерминистские математические методы были разработаны, прежде всего, для решения простых проблем оптимизации, когда определен путь поиска целевой функции. Каждый повторный оптимизационный поиск с одинаковыми стартовыми условиями и идентичными критериями ведет к одному результату [24, 27, 28, 29].
Самые простые и не надежные детерминистские методы, это методы поиска без ограничений. Для поиска целевой функции с одной независимой переменной используют такие методы как, методы Фибоначи, Пауэлла, Брэнта, Давидона, а также метод золотого сечения. Недостаток этих методов заключается в том, что нам заранее надо знать интервал, в котором лежит минимум функции, а он в большинстве инженерных задач неизвестен. Еще одно ограничение применения этих методов заключается в том, что на данном интервале может быть только один минимум, иначе программа может найти локальный, а не глобальный минимум. Суть этих методов заключается в поиске минимума функции вычислением значений функции в выбранных точках интервала поиска. Наиболее приемлемым из этих методов является метод Брэнта, который базируется на квадратичной интерполяции функции.
Метод Хука-Дживса и симплексный метод (метод Нелдера-Мида) используются для прямого поиска целевой функции с несколькими независимыми переменными [25, 27, 30]. Эти методы могут быть успешно и эффективно применены для большинства задач оптимизации, но только в том случае, если функция имеет единственный минимум. Наиболее хорошо себя зарекомендовал симплексный метод, но только до тех задач, пока количество независимых переменных меньше пяти.
Следующая группа, это градиентные методы [25, 27, 30]. К ним относятся методы наискорейшего спуска, Давидона-Флетчера-Паули и метод Флэтчера-Ривса. Они также предназначены для поиска целевой функции с несколькими неизвестными переменными. В градиентных методах поиска помимо значений функции еще рассматривается ее градиент, поэтому они не получили широкого распространения. Эти методы базируются на основе тех методов, что осуществляют поиск из базисной точки в направлении параллельном оси координат в сторону минимума функции. В градиентных методах за направление поиска берется направление противоположное направлению градиента функции, т.к. в этом направлении функция убывает наиболее быстро, а это сокращает время оптимизационного поиска.
Наибольшее распространение в практической оптимизации получили детерминистские методы поиска при наличии ограничений [25, 27, 31]. Это вызвано только математической стороной методов оптимизации, т.к. сокращается время и увеличивается точность оптимизационного поиска. К методам поиска при наличии ограничений относятся методы Бокса (комплексный метод) и модифицированный метод Хука-Дживса. Наилучшие результаты показал метод Бокса. Он разработан на основе симплексного метода с возможностью вводить ограничения. Он является очень надежным инструментом, который относительно быстро находит искомый оптимум. Существенный недостаток этого метода заключается в том, что точность определения глобального минимума существенно зависит от выбора стартовых точек, особенно если численная модель вызывает большой численный шум. Тогда на помощь приходят стохастические методы оптимизации.
К последней группе детерминистских алгоритмов можно отнести методы последовательной оптимизации без ограничений. К этой группе относятся метод SUMT (метод Фиакко и Маккормика), а также метод штрафных функций. Наибольшее распространение получили методы штрафных функций [25, 28].
С помощью штрафной функции исходная задача оптимизации с наложенными ограничениями преобразуется в задачу поиска оптимального решения функции без ограничений. Суть данного метода заключается в создании вдоль границы допустимой области поиска оптимума как бы "барьера" из бесконечно больших значений функции – штрафов. Штраф определяется так, чтобы допустимые точки поиска минимума функции имели бы преимущество перед недопустимыми.