Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ПОСОБИЕ ПО САПР-2012.doc
Скачиваний:
1
Добавлен:
01.03.2025
Размер:
2.04 Mб
Скачать

3.8. Методы многопараметрической оптимизации

Рассмотрим методы отыскания функции нескольких аргументов. В случае двух переменных задача имеет простую геометрическую интерпретацию: целевую функцию можно представить кривой поверхностью, а ее аргументы - координатами по осям x и y.

При большем количестве аргументов такой наглядной аналогии привести не удается. При многопараметрической аргументации вероятность унимодальных свойств целевой функции уменьшается. Эффективность поиска может быть оценена по сокращению проекции площади неопределенности от шага к шагу.

3.8.1. Случайный поиск

Случайный перебор по методу Монте-Карло алгоритмически наиболее прост, только в отличие от одномерного поиска случайно выбираются все параметры целевой функции.

При случайном поиске повторение уже использованных комбинаций нецелесообразно. Поэтому формально предпочтительны не случайные величины, а такие величины, которые отличаются от случайных детер­минированным правилом, исключающим повторение эксперимента с набором уже испытанных аргументов.

Если при случайном одномерном поиске, например, требуется M = 1000 экспериментов, то при N-мерном поиске потребуется MN экспериментов, число которых растет по степенной зависимости. В случае отыскания коэффициентов ПИД-регулятора при тех же условиях потребуется 109 экспериментов против 103 для одномерного поиска.

Случайным поиск может быть применен как частный инструментарий глобального поиска, например, на конечной стадии.

3.8.2. Метод исключения касательными

Метод исключения касательными состоит в последовательном усечении области определения искомого параметра путем отбрасывания той части поверхности, которая лежит по одну из сторон от касательной плоскости [10, с. 367]. Недостаток метода состоит в необходимости иметь аналитическое описание целевой функции, так как касательные плоскости вычисляются из производных. Кроме того, метод применим только для строго унимодальных целевых функций.

3.8.3. Градиентный метод

Метод градиента предполагает движение по нормали к линиям равного уровня. Основная проблема состоит в определении направления нормали и вычислении длины очередного шага.

При движении к минимуму этот метод теоретически дает алгоритм скорейшего спуска. Для вычисления направления и величины очередного шага необходимо знать частные производные целевой функции по каждому аргументу. Частные производные могут быть определены только экспериментально, например, путем пробных экспериментов в точках, отличающихся приращением только по одному из аргументов. Но при этом получается парадоксальная ситуация: для того, чтобы узнать, в какой точке следует сделать следующий эксперимент, требуется предварительно сделать столько экспериментов, сколько аргументов имеется в целевой функции.

ПРИМЕР 1. Пусть требуется оптимизировать ПИД-регулятор. На определенном шаге известно значение целевой функции при значениях пропорционального, интегрального и дифференциального коэффициентов регулятора Kp=10, Ki=5, Kd=10. Для краткости можно обозначить эту точку [10 / 5 / 10]. Для вычисления частных производных целевой функции нам требуется сделать испытания, например, с шагом приращения по каждому коэффициенту равным 0,1. Тогда необходимо сделать эксперименты в следующих точках:

1. С приращением по Kp [10,2 / 5 / 10].

2. С приращением по Ki [10 / 5,2 / 10].

3. С приращением по Kd [10 / 5 / 10,2].

Таким образом, для вычисления нового шага требуется три новых шага.

Кроме того, этот метод работает крайне неудовлетворительно при малом значении градиента, поскольку при этом достоверность результатов эксперимента резко падает в связи с падением отношения сигнал / шум. Действительно, шум измерений (или неопределенность результата эксперимента) всегда имеется, и если градиент падает до нуля, то в итоге измерений получается преимущественно шум. Поэтому градиентные методы при приближении к экстремуму приводят к неоправданному возрастанию количества шагов около точки истинного экстремума, причем, очередные шаги зачастую направлены в сторону, противо­положную экстремуму, или превышают требуемую длину шага в разы. Все же первый недостаток является определяющим – на этом основании градиентный метод нецелесообразно применять при оптимизации регулятора. Следует исходить из того, что каждый лишний эксперимент нежелателен, требуется отыскание экстремума за наименьшее число шагов.