
- •1. Введение
- •1.1. Задачи, стадии и этапы проектирования
- •1.2. Задачи коммерциализации: бизнес-план и жизненный цикл продукции
- •1.3. Вопросы для самоконтроля
- •2. Проектирование элементов мехатронных систем
- •2.1. Мехатроника – инструментарий для разработки робототехники
- •2.2. Программный инструментарий для проектирования мехатронных систем
- •2.3. MexBios Development StidioTm
- •2.4. Программное обеспечение VisSim
- •2.6. Вопросы для самоконтроля
- •3. Оптимизация пид-регулятора по заданному целевому функционалу
- •3.1. Основные требования к системе и математический аппарат
- •3.2. Требования к физической реализуемости модели
- •3.3. Формализация требований к системе: целевая функция
- •3.4. Особенности целевых функций при оптимизации регуляторов
- •3.5. Синтетические критерии оптимальности
- •3.6. Оптимизация ансамбля систем
- •3.7. Методы одномерной оптимизации
- •3.7.1. Прямые методы отыскания экстремума
- •3.7.2. Итеративный поиск
- •3.7.3. Метод Монте-Карло
- •3.7.4. Дихотомическое деление отрезка
- •3.7.5. Метод чисел Фибоначчи
- •3.7.6. Метод золотого сечения
- •3.8. Методы многопараметрической оптимизации
- •3.8.1. Случайный поиск
- •3.8.2. Метод исключения касательными
- •3.8.3. Градиентный метод
- •3.8.4. Метод Ньютона
- •3.8.5. Метод секущих
- •3.8.6. Метод покоординатного спуска
- •3.8.7. Метод Розенброка
- •3.8.8. Метод Хука – Дживса
- •3.8.9. Метод Нелдера – Мида (деформируемого многогранника)
- •3.8.10. Метод Флетчера-Рився (сопряженных градиентов)
- •3.8.11. Метод Девидона – Флетчера – Пауэлла (переменной метрики)
- •3.8.12. Метод локальной оптимизации
- •4. Эволюционные методы
- •4.1. Введение в эволюционные методы
- •4.2. Генетический алгоритм
- •4.3. Простой генетический алгоритм
- •4.4. Преимущества генетических алгоритмов
- •4.5. Пример с транспьютерными технологиями
- •4.6. Генетический метод комбинирования эвристик
- •5. ДинамическОе программирование
- •5.1. Принцип динамического программирования
- •Литература
- •ПриложенИя Приложение 1. Система технической документации на асу
- •Приложение 2. Выдержки из гост 34.601-90. Автоматизированные системы. Стадии создания
- •1. Общие положения
- •2. Стадии и этапы создания ас
- •Приложение 3. Выдержки из гост 34.602-89. Техническое задание на создание автоматизированной системы
- •1. Общие положения
- •2. Состав и содержание
- •3. Правила оформления
- •1. Исходные предпосылки создания комплекса
- •2. Взаимосвязь екс ас с другими системами и комплексами стандартов
- •1. Общие положения
- •2. Предварительные испытания
- •2.2. Автономные испытания
- •2.3. Комплексные испытания
- •3. Опытная эксплуатация
- •4. Приемочные испытания
- •1. Общие положения
- •2. Требования к содержанию документов
- •2.1. Схема организационной структуры
- •2.2. Описание организационной структуры
- •2.3. Технологическая инструкция
- •2.4. Инструкция по эксплуатации
- •2.5. Должностная инструкция
- •1. Виды и наименование документов
- •2. Комплектность документации
- •3. Обозначения документов
- •1. Введение 3
- •2. Проектирование элементов мехатронных систем 13
- •3. Оптимизация пид-регулятора по заданному целевому функционалу 19
- •4. Эволюционные методы 43
- •5. ДинамическОе программирование 56
3.8. Методы многопараметрической оптимизации
Рассмотрим методы отыскания функции нескольких аргументов. В случае двух переменных задача имеет простую геометрическую интерпретацию: целевую функцию можно представить кривой поверхностью, а ее аргументы - координатами по осям x и y.
При большем количестве аргументов такой наглядной аналогии привести не удается. При многопараметрической аргументации вероятность унимодальных свойств целевой функции уменьшается. Эффективность поиска может быть оценена по сокращению проекции площади неопределенности от шага к шагу.
3.8.1. Случайный поиск
Случайный перебор по методу Монте-Карло алгоритмически наиболее прост, только в отличие от одномерного поиска случайно выбираются все параметры целевой функции.
При случайном поиске повторение уже использованных комбинаций нецелесообразно. Поэтому формально предпочтительны не случайные величины, а такие величины, которые отличаются от случайных детерминированным правилом, исключающим повторение эксперимента с набором уже испытанных аргументов.
Если при случайном одномерном поиске, например, требуется M = 1000 экспериментов, то при N-мерном поиске потребуется MN экспериментов, число которых растет по степенной зависимости. В случае отыскания коэффициентов ПИД-регулятора при тех же условиях потребуется 109 экспериментов против 103 для одномерного поиска.
Случайным поиск может быть применен как частный инструментарий глобального поиска, например, на конечной стадии.
3.8.2. Метод исключения касательными
Метод исключения касательными состоит в последовательном усечении области определения искомого параметра путем отбрасывания той части поверхности, которая лежит по одну из сторон от касательной плоскости [10, с. 367]. Недостаток метода состоит в необходимости иметь аналитическое описание целевой функции, так как касательные плоскости вычисляются из производных. Кроме того, метод применим только для строго унимодальных целевых функций.
3.8.3. Градиентный метод
Метод градиента предполагает движение по нормали к линиям равного уровня. Основная проблема состоит в определении направления нормали и вычислении длины очередного шага.
При движении к минимуму этот метод теоретически дает алгоритм скорейшего спуска. Для вычисления направления и величины очередного шага необходимо знать частные производные целевой функции по каждому аргументу. Частные производные могут быть определены только экспериментально, например, путем пробных экспериментов в точках, отличающихся приращением только по одному из аргументов. Но при этом получается парадоксальная ситуация: для того, чтобы узнать, в какой точке следует сделать следующий эксперимент, требуется предварительно сделать столько экспериментов, сколько аргументов имеется в целевой функции.
ПРИМЕР 1. Пусть требуется оптимизировать ПИД-регулятор. На определенном шаге известно значение целевой функции при значениях пропорционального, интегрального и дифференциального коэффициентов регулятора Kp=10, Ki=5, Kd=10. Для краткости можно обозначить эту точку [10 / 5 / 10]. Для вычисления частных производных целевой функции нам требуется сделать испытания, например, с шагом приращения по каждому коэффициенту равным 0,1. Тогда необходимо сделать эксперименты в следующих точках:
1. С приращением по Kp [10,2 / 5 / 10].
2. С приращением по Ki [10 / 5,2 / 10].
3. С приращением по Kd [10 / 5 / 10,2].
Таким образом, для вычисления нового шага требуется три новых шага.
Кроме того, этот метод работает крайне неудовлетворительно при малом значении градиента, поскольку при этом достоверность результатов эксперимента резко падает в связи с падением отношения сигнал / шум. Действительно, шум измерений (или неопределенность результата эксперимента) всегда имеется, и если градиент падает до нуля, то в итоге измерений получается преимущественно шум. Поэтому градиентные методы при приближении к экстремуму приводят к неоправданному возрастанию количества шагов около точки истинного экстремума, причем, очередные шаги зачастую направлены в сторону, противоположную экстремуму, или превышают требуемую длину шага в разы. Все же первый недостаток является определяющим – на этом основании градиентный метод нецелесообразно применять при оптимизации регулятора. Следует исходить из того, что каждый лишний эксперимент нежелателен, требуется отыскание экстремума за наименьшее число шагов.