Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Лекции по САПР

.pdf
Скачиваний:
465
Добавлен:
02.05.2014
Размер:
2.16 Mб
Скачать

51Конспект лекций по САПР

12.4.2.Метод статистических испытаний (метод Монте-Карло)

Сущность метода заключается в многократном повторении расчета схемы, при котором внутренние параметры схемы Х моделируются по заданному случайному закону.

Алгоритм статистического анализа схем методом Монте-Карло представлен на рис. 12.1.

Моделирование входных параметров по случайному закону

Расчет схемы

Обработка результатов очередного испытания

да k≤N

нет

Построение гистограмм

Рис.12.1

Здесь N — запланированное число статистических расчетов; k — номер очередного расчета схемы или испытания.

13. КРИТЕРИИ ОПТИМАЛЬНОСТИ

13.1. Особенности задач технической оптимизации

13.1.1. Область применения задач оптимизации

Оптимизация состоит в определении такой совокупности внутренних параметров схемы (емкостей, сопротивлений, параметров активных элементов), при которой заранее выбранные выходные параметры (например, быстродействие, время задержки сигнала, потребляемая схемой мощность) принимают наилучшие возможные значения.

Оптимизация позволяет решить ряд попутных задач: определить внутренние параметры, обладающие наибольшими коэффициентами влияния на выходные характеристики, оценить влияние различного рода дестабилизирующих факторов. С помощью оптимизации решаются также задачи статического характера по увеличению вероятности безотказной работы схем или числа работоспособных схем при их производстве.

Решение любой задачи оптимизации схемы начинается с выбора и построения критерия оптимальности схемы или целевой функции и формулировки системы ограничений, в рамках которой отыскивается оптимальное решение.

52Конспект лекций по САПР

13.2.Общие сведения о критериях оптимальности

13.2.1 Частные критерии оптимальности

В простейшем случае в качестве критерия оптимальности F(x), где х — вектор внутренних параметров схемы, выбирается один из выходных параметров схемы fj(x) и подвергается оптимизации (максимизации или минимизации) при наложении ограничений на остальные выходные параметры fi(x), i≠j. В этом случае он называется частным критерием оптимальности.

13.2.2. Детерминированные критерии оптимальности

Частные критерии являются детерминированными, т.е. критериями, при формировании которых не учитывается степень отклонения выходных параметров от номинальных значений вследствие производственных погрешностей внутренних параметров.

К детерминированным критериям относятся и критерии, представляющие собой не отдельные выходные параметры, а характеристики схемы или зависимости тех или иных выходных параметров от времени, частоты или какого-либо иного внутреннего параметра. В этом случае задача проектирования ставится как задача максимального совпадения одной из характеристик схемы f(x) с теоретической или заданной техническими требованиями характеристикой fтт(x).

13.2.3. Статистические критерии оптимальности

Статистические критерии оптимальности основаны на использовании статистических характеристик схемы. Одним из примеров такого критерия является процент выхода годных схем: отношение числа схем, удовлетворяющих техническим требованиям, к общему числу изготовленных схем.

Все рассмотренные критерии являются частными критериями и в принципе позволяют получить оптимальное решение поставленной задачи: спроектировать схему Таким образом, чтобы выбранный критерий достигал своего максимального (или минимального) значения, а все остальные параметры, как внутренние, так и выходные, не выходили за рамки ограничений, установленных техническими требованиями на схему.

13.2.4. Критерии последовательного принятия решений

В случае оптимизации схемы по нескольким выходным параметрам одновременно любое принимаемое решение всегда представляет собой компромисс, в котором предпочтение отдается тому варианту схемы, которые, не являясь наверняка оптимальным ни по одному из выходных параметров, оказывается приемлемым по всей совокупности выходных параметров. Решение о критерии оптимальности можно принимать последовательно по ходу оптимизации, используя получаемую информацию и формируя последовательно изменяемый или уточняемый критерий.

Метод последовательных уступок заключается в следующем. Выходные параметры ранжируются в порядке убывающей важности. Для определенности будем полагать, что каждый из них нужно обратить в максимум. Если критерий требует не максимизации, а минимизации, достаточно изменить его знак на противоположный. Сначала одним из методов оптимизации максимизируется первый по важности выходной параметр f1(x), затем назначается, более или менее произвольно, "уступка" ∆f1(x) в этом выходном параметре, которую мы согласны допустить, чтобы максимизировать следующий выходной параметр. Налагаем на первый выходной параметр f1(x) ограничение, чтобы он был не меньше fмакс(x)-∆f1(x) и при этом граничном условии максимизируем f2(x). Снова назначаем "уступку" ∆f2(x) теперь уже для выходного параметра f2(x), за счет чего обращаем в максимум следующий выходной параметр f3(x) и т.д.

53Конспект лекций по САПР

13.2.5.Обобщенные критерии оптимальности

Другим подходом к построению единого критерия оптимальности для задачи векторной оптимизации является свертка векторного критерия в скалярный.

Первый способ состоит в нормировании всех выходных параметров схемы с помощью весовых коэффициентов и последующем объединении их в обобщенный формальный скалярный критерий оптимальности, который затем и подвергается максимизации или минимизации.

Второй способ сводится к построению минимаксного обобщенного критерия оптимальности, заключающегося в использовании на каждом шаге оптимизации максимального отклонения какого-либо из выходных параметров от своего оптимального (или номинального) значения и решения задачи минимизации данного максимального отклонения.

13.2.6. Классификация критериев оптимальности

Классификация может производиться по форме критерия оптимальности, по полноте учета всех выходных параметров в критерии оптимальности, по способу свертки векторного критерия в скалярный обобщенный критерий, по участию проектировщика схемы в процессе формирования критерия, по способу принятия компромиссного решения.

13.3. Формальные обобщенные критерии оптимальности 13.3.1. Нормирование выходных параметров

При формировании формальных обобщенных критериев возникает задача преобразования

Классификация критериев оптимальности

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

По форме

 

 

По способу

 

 

По способу

 

 

По участию

 

 

По способу

 

критерия оп-

 

 

учета вых. па-

 

 

свертки в

 

 

проектиров-

 

 

принятия ком-

 

тмальности

 

 

раметров и ог-

 

 

скалярный

 

 

щика

 

 

промиссного

 

 

 

 

 

 

 

раничений

 

 

критерий

 

 

 

 

 

 

 

решения

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Человеко-

 

 

 

Априор-

 

 

Детермини-

 

 

 

Частные с

 

 

 

Формаль-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

машинные

 

 

 

ная одно-

 

 

рованные в

 

 

 

учетом ог-

 

 

 

ные обоб-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

или диа-

 

 

 

временная

 

 

форме ча-

 

 

 

раничений

 

 

 

щенные:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

логовые

 

 

 

свертка в

 

 

стных кри-

 

 

 

 

 

 

 

 

аддитивные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

скаляр

 

 

териев

 

 

 

 

 

 

 

 

и мультип-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ликативные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Детермини-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Апостери-

 

 

рованные в

 

 

 

Обобщен-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

орные по-

 

 

форме ха-

 

 

 

ные: вклю-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

следова-

 

 

рактери-

 

 

 

чающие в

 

 

 

Максимин-

 

 

 

Автома-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

тельные

 

 

стик

 

 

 

себя огра-

 

 

 

ные и ми-

 

 

 

тические

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

методы

 

 

 

 

 

 

 

 

ничения на

 

 

 

нимаксные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

принятия

 

 

Статиче-

 

 

 

выходные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

решения

 

 

ские

 

 

 

параметры

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

всех разноразмерных выходных параметров в безразмерные величины, которые уже можно сравнивать между собой и объединять в скалярные критерии или свертки. Такое преобразование достигается путем масштабирования или нормирования выходных параметров. При этом назначение коэффициентов нормирования или весовых коэффициентов для некоторых критериев оптималь-

54

Конспект лекций по САПР

ности определяет степень влияния каждого отдельного выходного параметра на целевую функцию.

В этом случае процесс нормирования, по своей сути, представляет собой ранжирование выходных параметров, т.е. упорядочивание по степени важности.

13.3.2. Учет ограничений

Ограничения, накладываемые на внутренний параметры схемы (параметры транзисторов, сопротивлений, емкостей и т.п.), называются параметрическими и образуют допустимую область изменения внутренних параметров {}, которой должен принадлежать вектор внутренних парамет-

ров х. Они носят характер либо численных равенств

 

xi=c

(13.2)

либо численных неравенств

 

a≤xi≤b

(13.3)

Учет ограничений производится методами условной оптимизации. К ним относятся методы возможных направлений, методы проекции градиентов и др. Ограничения на выходные параметры G(x) определяют область допустимых решений или область работоспособности и подразделяются следующим образом.

Ограничения на выходные параметры gi(x), не входящие в критерии оптимальности, называются функциональными.

Ограничения на выходные параметры fi(x), вошедшие в критерий оптимальности F(x), обычно называются критериальными и учитываются уже при формировании самого критерия оптимальности F(x) одним из способов. Эти ограничения на управляемые выходные параметры могут иметь вид неравенства

fi+(x)≥TTi

(13.5)

где fi+(x) — i-й выходной параметр, для которого желательно максимальное увеличение. TTi значение технического требования, предъявляемое к i-му выходному параметру; или не равенства:

fi-(x)≤TTi

(13.6)

Если выходной параметр fi-(x) требуется минимизировать.

Обобщенные критерии аддитивного типа

В аддитивных критериях целевая функция формируется в результате сложения нормированных выходных параметров с учетом или без учета ограничений на них.

Например, критерий максимальной суммы нормированных выходных параметров имеет вид:

m

 

F(x) = ai fi (x)

(13.7)

i=1

m — число учитываемых критериев выходных параметров, а весовые коэффициенты аі имеют «+» знак, если выходной параметр fi+(x) необходимо максимизировать, и «-» знак, если fi-

(x) должен подвергаться минимизации.

Если в (13.7) должны учитываться ограничения типа (13.5) или (13.6), то данный критерий преобразуется в критерий:

m

 

F(x) = ai (fi (x) TTi )

(13.8)

i=1

55 Конспект лекций по САПР

Более удобным и чаще употребляемым является аддитивный критерий, представляющий собой сумму квадратов нормированных отклонений выходных параметров fi(x) от технических требований на них TTi:

m

2

F(x) = ai (fi (x) TTi )

(13.9)

i=1

13.3.4.Обобщенные критерии мультипликативного типа

Мультипликативные критерии представляются в виде отношения произведений нормированных выходных параметров:

 

m

 

 

ai fi +(x)

 

F(x) =

i=1

(13.10)

l

 

a j f j (x)

 

j=1

где в числителе перемножаются все выходные параметры, требующие максимизации и имеющие ограничения вида (13.5), а в знаменателе — все выходные параметры, требующие минимизации и имеющие ограничения вида (13.6).

13.3.5. Выбор весовых коэффициентов

Весовые коэффициенты аі характеризуют во всех данных критериях важность соответствующих выходных параметров fi(x) для конкретного проектировщика схемы. Чтобы уменьшить субъективный характер выбора аі, удобно определять их в зависимости от разницы между конкретным значением выходного параметра и его предельно допустимым значением (13.7).

13.4. Максиминные (минимаксные) критерии оптимальности

13.4.1. Общий вид критериев

Критерии данного вида возникли в результате желания проектировщиков на каждом шаге оптимизации контролировать все выходные параметры, выбирать из них наихудший и именно его улучшать до тех пор, пока какой-либо следующий выходной параметр не займет его место и не станет наихудшим. Для этой цели используется критерий вида:

F(x) = min[a[i fi](x)] (13.12)

i 1,m

требующий дальнейшей максимизации и называющийся максиминным, и критерий вида:

F(x) = max[a[i fi](x)] (13.13)

i 1,m

требующий дальнейшей минимизации и называющийся минимаксным. Здесь m — число выходных параметров, подвергающихся оптимизации.

13.4.2. Учет ограничений

При представлении условий работоспособности в виде неравенств (13.15) или (13.16) макси-

минный критерий приводится к виду:

 

F(x) = min[ai (fi (x) TTi )]

(13.14)

i [1,m]

56Конспект лекций по САПР

Вданном случае может использоваться и минимаксный критерий, если желательна минимизация максимальнго уклонения выходных параметров от заданных технических требований.

13.4.3. Учет статистических распределений выходных параметров

При использовании максиминных (минимаксных) критериев легко производить учет статистических распределений выходных параметров.

Широко используется максиминный критерий, называемый запасом работоспособности, и имеющий вид:

 

 

 

 

 

 

 

 

fi (x) TTi

 

F(x) = min ai

 

 

 

(13.15)

δ

 

i [1,m]

 

i

 

 

 

 

 

 

где δi — величина, характеризующая рассеяние i-го выходного параметра.

в этом случае задача

расчета вектора внутренних параметров Х ставится как экстремальная задача, при решении которой на каждом шаге максимизируется минимальный запас работоспособности по i-му выходному параметру.

13.4.4. Выбор весовых коэффициентов

При формировании максиминных (минимаксных) критериев любого вида большое значение приобретает выбор численных значений весовых коэффициентов {}. Так как в ряде случаев требуется максимизация степени выполнения заданных условий работоспособности не для всех выходных параметров, то выходные параметры можно подразделять на две группы:

параметры, для которых желательна максимальная степень выполнения условий работоспособности;

параметры, для которых достаточно получения любых значений запасов работоспособности, в т.ч. близких к 0.

Для параметров первой группы принимается аі=1, а для параметров второй группы аі>>1 (практически достаточно аі=10…20).

13.5. Статистические критерии

13.5.1. Критерий процента выхода годных схем

Использование статистических критериев при оптимизации ставит своей целью получение максимальной вероятности безотказной работы схемы.

Наиболее простым и распространенным статистическим критерием оптимальности является процент выхода годных схем Р(х) или отношение числа годных схем к общему числу изготовленных схем.

Тогда процесс оптимизации сводится к максимизации целевой функции Р(х):

max P(x)

(13.16)

x Dx

где Dx — область допустимого изменения внутренних параметров.

13.5.2. Критерий надежности схемы

Для того, чтобы оптимизировать схему по критерию надежности, необходимо знать помимо статических характеристик внутренних параметров схемы законы их изменения от времени, температуры, влажности и др. факторов старения.

57

Конспект лекций по САПР

Критерий надежности работы схемы характеризует вероятность того, что в течение определенного времени выходные параметры схемы не выйдут за границы области работоспособности, и может формулироваться следующим образом:

F(x) = min

ti

(13.17)

i [1,m]

 

где ti — технический ресурс i-го параметра, т.е. время, в течение которого выходной параметр fi(x) находится в области работоспособности:

ti = (fi (x)fTTi ) (13.18)

i

где ∆fi — изменение i-го выходного параметра fi(х) за единицу времени.

14. МЕТОДЫ НЕПРЕРЫВНОЙ ПАРАМЕТРИЧЕСКОЙ ОПТИМИЗАЦИИ

14.1. Постановка задачи

14.1.1. Классификация задач оптимизации параметров РЭА

Параметрическая оптимизация РЭА — это процесс определения значений параметров входящих в схему элементов (внутренних параметров X), при которых достигаются заданные или экстремальные значения ее выходных параметров Y или целевой функции.

Задачи проектирования, требующие применения методов оптимизации, можно разбить на четыре основные группы.

Первая группа — задачи поиска оптимальных параметров схемы, обеспечивающих экстремальные значения целевой функции, например, минимальный коэффициент нелинейных искажений или максимальное быстродействие схемы.

Ко второй группе относятся задачи приближения расчетных характеристик к характеристикам, заданным по точкам (обычно полученным экспериментально).

В третью группу входят задачи адаптации известных схем к новым техническим требованиям — другому частотному или температурному диапазону, новой элементной базе.

Четвертую группу составляют задачи уточнения параметров схем, найденных с помощью простого инженерного расчета или в результате использования методов синтеза.

14.1.2. Общая задача нелинейного программирования (НЛП)

Под общей задачей НЛП понимается задача нахождения максимального F(X) или минималь-

ного F(X), т.е. максимизации или минимизации скалярной функции F(X) при условиях:

 

X = (x1 , x2 ,..., xn ) Dx

(14.1)

и

 

g1 = (x1 , x2 ,..., xn )0,

 

g2 = (x1 , x2 ,..., xn )0,

(14.2)

gm = (x1 , x2 ,..., xn )0

 

где gi(X) — функциональные и критериальные ограничения;

Dx — некоторая область n-мерного евклидова пространства Rn, в пределах которой допустимо варьирование векторов внутренних параметров X.

Область, определяемая совместно условиями (14.1) и (14.2) обозначается G(X) и называется областью допустимых решений или областью работоспособности.

F(X) — целевая функция.

58

Конспект лекций по САПР

14.1.3. Основные определения

Вектор X = [x1 , x2 ,..., xn ]T , удовлетворяющий соотношениям (14.1), (14.2) и максимизирую-

щий (минимизирующий) целевую функцию F(X), называется оптимальной или экстремальной точкой, а соответствующее ему значение F(X*) — оптимальным значением (максимумом или минимумом) целевой функции.

Множество точек, для которых целевая функция двух переменных имеет постоянное значение, называется линией уровня функции F(X).

Если целевая функция непрерывна и дифференцируема, то существует градиент функции F(X), определяемый как вектор-столбец из первых частных производных F(X) по Х в данной точке

Х(к):

F(X

 

)...

F(X

 

T

 

 

(k )

(k )

 

F(X (k ) )=

 

 

)

(14.3)

 

x1

 

 

xn

 

 

 

Известно, что градиент функции направлен в сторону наискорейшего увеличения функции,

т.е. наискорейшего подъема, и что он ортогонален линии уровня F(x), проходящей через данную точку X(k).

Вектор, противоположный градиенту, направлен в сторону наискорейшего спуска.

Методы НЛП основаны на аппроксимации функции F(X) с помощью ряда Тейлора в окрест-

ности точки X(k):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

F(x) F

(X (k ) )+ T F(X (k ) ) (X X (k ) )+ 0,5(X X (k ) )T 2 F(X (k )) (X X (k ))

(14.4)

Где 2 F(X (k ) )= H (X (k ) )

 

представляет собой квадратичную матрицу вторых частных произ-

водных целевой функции F(X), взятых в точке X(k)

(матрица Гессе):

 

 

 

2 F (X (k ))

2 F (X (k ))

K

2 F(X (k ) )

 

 

 

x2

x

x

2

 

x x

 

 

 

 

 

 

 

1

 

 

1

 

 

 

1

n

 

 

H (X (k ) )= LLLLLLLLLLLLLLLLL

(14.5)

 

 

2 F (X (k ))

2 F (X (k ))

L

2 F(X (k ) )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

n

x

 

x

n

x

2

 

x2

 

 

 

 

 

1

 

 

 

 

 

n

 

 

 

В зависимости от числа используемых членов в разложении различают методы оптимизации нулевого, первого и второго порядка.

14.1.4.Необходимые и достаточные условия существования экстремума для задачи без ограничений

Необходимыми и достаточными условиями того, что точка Х* является точкой минимума функции F(X) для задачи без ограничений является:

Функция F(X) дифференцируема в точке Х*;

F(X )= 0 , т.е. точка Х* является стационарной точкой;

H (X )= 2 F(X )> 0 .

Неравенство следует понимать как положительность всех собственных значений матрицы Гессе, т.е. матрица Гессе положительно определенная.

Для существования максимума в точке Х* матрица Гессе для F(X*) должна быть отрицательно определенной.

59Конспект лекций по САПР

14.1.5.Одноэкстремальные и многоэкстремальные функции

Целевая функция F(X) называется одноэкстремальной, если она имеет одну точку, удовлетворяющую условиям 1)-3) и многоэкстремальной, если она имеет несколько таких точек.

Глобальным экстремумом называется точка, в которой минимизируемая (максимизируемая) целевая функция имеет наименьшее (наибольшее) значение среди всех остальных экстремумов, носящих название локальных экстремумов.

Методы оптимизации, основанные на предположении одноэкстремальности целевой функции F(X), называютсяметодами локального поиска, а методы, основанные на предположении многоэкстремальности F(X) и ставящие своей целью нахождение глобального экстремума, — методами глобального поиска.

Предсказать одноэкстремальность функции F(X) можно только в том случае, если заранее известно, что F(X) — выпукла (при минимизации) или вогнута (при максимизации) во всей области допустимых значений X.

14.1.6. Безусловные и условные экстремумы

В том случае, если в задаче оптимизации отсутствуют ограничения (14.1), (14.2), т.е. экстремум ищется в пределе неограниченного пространства варьируемых внутренних параметров X, задача носит название безусловной оптимизации, а найденный экстремум — безусловного экстремума.

Наличие ограничений приводит к задаче условной оптимизации, а решением ее является условный экстремум.

14.1.7. Классификация непрерывных методов оптимизации

Классификация непрерывных методов оптимизации

 

 

 

 

 

 

 

 

 

 

 

 

 

По виду

 

 

По наличию

 

 

целевой

 

 

ограничений

 

 

функции

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Линейные

 

 

 

 

Безуслов-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Условные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Выпуклые

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Методы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

штраф-

 

 

 

 

 

 

 

 

 

ных

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

функций

 

 

 

 

 

 

 

 

 

 

 

 

 

Квадратич-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Методы

 

 

 

 

 

 

 

 

 

барьер-

 

 

 

 

 

 

 

 

 

ных

 

 

 

 

 

 

 

 

 

 

 

Нелинейные

 

 

 

 

 

функций

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

По типу определяемого По методам решения экстремума

Локальные Глобальные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

По порядку

 

 

По методу

 

 

По виду

 

 

 

По ис-

 

использова-

 

 

определе-

 

 

итераций

 

 

польз. ве-

 

ния произ-

 

 

ния про-

 

 

 

 

 

 

роятнос.

 

водных

 

 

изводных

 

 

 

 

 

 

 

з-нов

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Нулев.пор.

 

 

 

 

 

 

 

Одновр. по

 

 

 

Детер-

 

 

 

 

 

 

Аналит.

 

 

всем пере-

 

 

 

мини-

 

 

 

 

 

 

 

 

 

Перв. пор.

 

 

 

 

 

 

 

менным

 

 

 

рован.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Покооор-

 

 

 

Слу-

 

Втор. пор.

 

 

 

Числен.

 

 

 

 

 

 

 

 

динатные

 

 

 

чайные

 

 

 

 

 

 

 

 

 

 

 

 

 

60Конспект лекций по САПР

14.2.Методы поиска локального экстремума

14.2.1.Методы оптимизации, не использующие производных (методы нулевого порядка)

Методы нулевого порядка простейшего типа заключаются в поочередном изменении одной переменной, тогда как другие переменные остаются постоянными до тех пор, пока не будет достигнут минимум. Такие методы поиска называются покоординатными.

Алгоритм покоординатного спуска можно записать в виде:

xi(n+1) = xi(n) aQ(xi(n) , xi(n1) ,...),

(14.6)

где n — номер итерации; i — номер переменной;

aQ(xi(n) , xi(n1) ,...) — рабочий шаг

Q(xi(n) , xi(n1) ,...) — обычно вычисляется по формуле

Q = sign(F(xi(n) + ∆xi ) F(xi(n) )) .

Если в этом алгоритме последовательный поиск минимума по каждой переменной обладает глобальными свойствами, то в целом отыскивает глобальный экстремум функции F(X).

Метод конфигураций включает два основных этапа: пробные шаги вокруг базисной точки и рабочие шаги в направлении, выбранном для минимизации.

Алгоритм метода конфигураций состоит из следующих операций. Прежде всего задается начальная точка X0, а также начальное приращение ∆X. Чтобы начать пробные шаги, следует вычислить значение функции F(X) в начальной точке. Затем в циклическом порядке изменяется каждая

переменная (каждый раз только одна) на выбранные значения приращений, пока все параметры не будут таким образом изменены. В частности x1(0) увеличивается на ∆x1(0) так, что x1(1)= x1(0)+ ∆x1(0).

Если приращение не улучшает целевую функцию, x1(0) уменьшается на ∆x1(0) и значение F(x)

проверяется, как и ранее.

Если значение F(x) не улучшают ни x1(0)+ ∆x1(0), ни x1(0)- ∆x1(0), то x1(0) оставляют без измене-

ний.

Затем x2(0) изменяют на величину ∆x2(0) и т.д., пока не будут изменены все независимые переменные. Этим завершается пробный поиск.

После пробного поиска применяется стратегия рабочего поиска. Удачные изменения переменных в пробном поиске (т.е. те изменения переменных, которые уменьшили F(x)) определяют вектор, указывающий локальное направление минимизации, которое могут быть удачным. Серия увеличивающихся шагов, или рабочий поиск, проводится этого вектора, до тех пор, пока F(x) уменьшается при каждом таком шаге. Длина рабочего шага обычно выбирается пропорциональной числу удачных шагов, имевших место ранее в этом координатном направлении.

Если пробный поиск не дает удачного направления, то последовательно уменьшают шаги ∆Х, пока либо будет найдено новое удачное направление, либо ∆Хn не станет меньше некоторой заранее заданной допустимой величины ε. Невозможность уменьшить целевую функцию F(x), когда шаг ∆Х достаточно мал, указывает на то, что достигнут локальный оптимум.

Описанный метод конфигураций весьма просто реализуется на практике и обладает преимуществами: хорошо отслеживает овраги как прямолинейные, так и криволинейные, и, не требуя вычисления производных, обладает высокой скоростью сходимости.

14.2.2.Методы оптимизации, использующие первые производные (методы первого порядка)

В основе методов этого класса лежит итерационный процесс типа

 

X (k +1) = X (k ) +α(k ) P(k )

(14.8)

Тут вы можете оставить комментарий к выбранному абзацу или сообщить об ошибке.

Оставленные комментарии видны всем.