![](/user_photo/1334_ivfwg.png)
- •Часть I р. И. Сольницев
- •Глава 1 Введение в автоматизацию проектирования систем автоматического управления
- •§ 1.1. Системы автоматического управления (сау) как объекты проектирования
- •§ 1.2. Сапр как новые средства проектирования
- •§ 1.3. Этапы истории развития сапр сау.
- •Автоматизация проектирования систем и средств управления
- •Дерево целей проектирования:
- •История развития сапр.
- •Задача векторной оптимизации.
- •Глава 2 процесс проектирования сау и его автоматизация
- •§ 2.1. Цели, критерии и условия ограничений процесса проектирования
- •§ 2.2. Этапы проектирования и проектные процедуры
- •Математическая модель Системы Проектирования (сп) как «спирали проектирования»
- •Глава 3 структура системы автоматизации проектирования сау
- •§ 3.1. Концепция, принципы и их структурная реализация
- •§ 3.2. Техническое обеспечение.
- •§ 3.3. Математическое обеспечение
- •§ 3.4. Лингвистическое обеспечение
- •§ 3.5. Программное обеспечение
- •§ 3.6. Информационное обеспечение
- •§ 3.7. Методическое и организационное обеспечение
- •Глава 4 автоматизация построения математических моделей сау
- •§ 4.1. Методы построения математических моделей и их применение в сапр
- •§ 4.2. Вывод математических моделей в аналитическом виде на эвм
- •§ 4.3. Упрощение и преобразование математических моделей на эвм
- •Математическое обеспечение сапр.
- •Стационарные линейные детерминированные модели систем с сосредоточенными параметрами.
- •Переход от дифференциальных уравнений n – ого порядка к нормальной форме Коши
- •Математические модели элементов сау.
- •Методы линеаризации уравнений
- •Глава 5 моделирование систем автоматического управления
- •§ 5.1. Методы моделирования и их применение в сапр
- •§ 5.2. Приведение математических моделей сау к виду, удобному для моделирования
- •§ 5.3. Численные методы и алгоритмы моделирования
- •§ 5.4. Контроль и оценка точности моделирования
- •Глава 6 автоматизация анализа сау
- •§ 6.1. Методы анализа сау и их применение в сапр
- •6.2§. Машинные методы анализа
- •§ 6.3. Машинно-аналитический метод анализа
- •§ 6.4. Подсистема сапр сау «Анализ»
- •Глава 7 Автоматизация синтеза сау
- •§ 7.2. Машинные методы синтеза
- •§ 7.3. Подсистема сапр сау «Синтез»
- •Методы нлп
- •Задача нлп
- •Градиентный метод оптимизации
- •Метод градиента
- •Метод случайного поиска
- •Метод Даниленко-Каган
- •Метод Трахтенбергп
- •Экстраполяционный случайный поиск с адаптирующимся шагом
- •Алгоритм с перестройкой вероятностных характеристик поиска
- •Глобальный случайный поиск с независимым выбором плотности распределения пробных шагов
- •Локально – глобальный поиск коллективом автоматов имени Буша – Мостселлера.
- •Методика выбора алгоритмов поисковой оптимизации.
- •Метод ситуационного управления:
Алгоритм с перестройкой вероятностных характеристик поиска
В соответствии с алгоритмом, перемещение в пространстве независимых переменных можно записать в виде:
- вектор оптимальных
значений переменных за jпредыдущих шагов
- минимальное
значение функции качества за jпредыдущих шагов.
Самообучение проявляется в перестройке вероятностных характеристик поиска, т.е. целенаправленного воздействия на случайный выбор направления рабочего шага, т.е. вектор E.
составляющие Е можно определить по зависимости:
-
случайное число, равномерно распределенное
на интервале
;
Вероятностное воздействие на случайный вектор осуществляется следующим образом:
где pк– вектор выбора случайного шага
Алгоритм обучения
реализуется путем изменения параметров
памяти
при
помощи следующей рекуррентной формулы:
-
величина, определяющая скорость обучения
-
приращение к-ого аргумента на i-ом
шаге поиска
Числовые параметры:
;
;
Глобальный случайный поиск с независимым выбором плотности распределения пробных шагов
где
-
этоi-ое пробное состояние
выбранное случайно и сохраняемое в
памяти в случае удачной пробы
- вычисленное в
i-ом пробном состоянии
значение функции качества и сохраненное
в памяти в случае удачной пробы
Для равномерной
плотности распределения пробных шагов,
плотность разбивается на «к» этапов,
содержащих Njпробных шагов, где.
Каждый пробный
шаг, осуществленный внутри гиперпаралл.
пространства независимых переменных
,
ограничен:
причем стороны гип – да с каждым j-ым этапом уменьшаются в «С», большее 1 раз, по сравнению сj-1 этапом в соответствии с формулой:
где
- точка, соответствующая пробному шагу
с наименьшим значением функции качества
из всех пробных шагов наj-1
этапе.
Несмотря на равномерную плотность распределения пробных шагов внутри каждого этапа, происходит увеличение плотности распределения от этапа к этапу за счет уменьшения зоны поиска, т.е.
где
- плотность распределения пробных шагов
наj-ом этапе
- объем гип – да
на j-ом этапе
Иногда пробные шаги целесообразно распределять по нормальному закону распределения.
где
при 0<q<1
Итог: Случайные пробные шаги распределены нормально, со средним значением совпадающим с наилучшей величиной критерия качества из всех проб этапа, а дисперсия уменьшается при неудачных шагах и увеличивается до исходного значения при удачных шагах.
Локально – глобальный поиск коллективом автоматов имени Буша – Мостселлера.
Алгоритм осуществляет шаговый поиск.
Выбор знака приращения ∆Хiпроизводится адаптивным алгоритмом, причем алгоритм может работать в двух режимах, причем при переходе на локальный режим надо поменять местами параметры адаптации α и β.
Этапы:
1). Обучение.
Обозначим через
-
вероятность выбора положительного
направления поi- ой
координате наN-ом шаге
поиска.
(1)
Формула показывает как перестраиваются вероятностные характеристики направления движения к экстремуму.
2). Роль соотношений между α и β:
При α>β поиск имеет глобальный характер – это связанно с тем, что скорость разгона при движении вниз больше чем разгона при подъеме.
При α<β происходит локальный поиск, т.е. торможение преобладает над разгоном и движение напоминает затухающие колебания.
При α=β алгоритм не эффективен, т.е. происходит блуждание в точке минимума без уменьшения размеров этой области.
3). Этап алгоритма: поиск вблизи границы области. Если очередной шаг выводит за границы области, то этот шаг не производится, но адаптация происходит.
Для адаптации используется один из следующих способов:
а) Вероятности
обрабатываются по формуле (1) с
соответствующими режимами торможения
.
б) Производится отражение
(2)
Для глобального поиска способ второй предпочтительнее. Для локального оба равны.
4). Использование ∆Q при обратной связи. После каждого очередного шага обучение производится по формулам (1), однако с переменными α и β, сначала задается α(0)и β(0). Как правило это максимальное значение. Задается параметр «забывание» δ(0≤ δ ≤1).
После очередного шага α(N)вычисляется при помощи формул:
(3)
Применение этой процедуры делает адаптацию более гибкой. При β=0, α и β=const.
Исходные данные для алгоритма:
n- размерность пространства независимых переменных
-
количество шагов глобального экстремума
k- количество точек, подлежащих локальному уточнению
α и β – параметры адаптации (причем α > β)
γ - коэффициент уменьшения шагов
ε - параметр остановки
-
начальное значение независимых переменных
и начальные шаги по ним
Алгоритм состоит из этапов:
1. На первых
шагах происходит глобальный поиск из
данной начальной точки
с шагами
и с вероятностямиpi=0,5.
2. В процессе глобального поиска происходит адаптация по формулам, с переменными параметрами, определяемые формулами (3). На границе применяется отражение (2).
3. Результат глобального поиска состоит в определении «k» наилучших точек.
4. После окончания работы глобальной части) производится k– локальных поисков из точек полученного набора, с прежними начальными шагами и начальными вероятностями =0,5.
5. В процессе каждого локального поиска производится адаптация; на границе по формулам (2), внутри области по формулам (1) с параметрами α = α(0)и β= β(0)= начальным.
6. Если при двух последующих двойных подъемах функции качества знаки некоторой переменной были + + - - , - - + +, то шаг по этой переменной умножается на γ.
7. Каждый локальный поиск закончится, когда шаги по всем переменным станут меньше ε.
8. При минимизации текстовой функции
- многоэкстремальная,
используются следующие параметры
алгоритма: