- •Часть I р. И. Сольницев
- •Глава 1 Введение в автоматизацию проектирования систем автоматического управления
- •§ 1.1. Системы автоматического управления (сау) как объекты проектирования
- •§ 1.2. Сапр как новые средства проектирования
- •§ 1.3. Этапы истории развития сапр сау.
- •Автоматизация проектирования систем и средств управления
- •Дерево целей проектирования:
- •История развития сапр.
- •Задача векторной оптимизации.
- •Глава 2 процесс проектирования сау и его автоматизация
- •§ 2.1. Цели, критерии и условия ограничений процесса проектирования
- •§ 2.2. Этапы проектирования и проектные процедуры
- •Математическая модель Системы Проектирования (сп) как «спирали проектирования»
- •Глава 3 структура системы автоматизации проектирования сау
- •§ 3.1. Концепция, принципы и их структурная реализация
- •§ 3.2. Техническое обеспечение.
- •§ 3.3. Математическое обеспечение
- •§ 3.4. Лингвистическое обеспечение
- •§ 3.5. Программное обеспечение
- •§ 3.6. Информационное обеспечение
- •§ 3.7. Методическое и организационное обеспечение
- •Глава 4 автоматизация построения математических моделей сау
- •§ 4.1. Методы построения математических моделей и их применение в сапр
- •§ 4.2. Вывод математических моделей в аналитическом виде на эвм
- •§ 4.3. Упрощение и преобразование математических моделей на эвм
- •Математическое обеспечение сапр.
- •Стационарные линейные детерминированные модели систем с сосредоточенными параметрами.
- •Переход от дифференциальных уравнений n – ого порядка к нормальной форме Коши
- •Математические модели элементов сау.
- •Методы линеаризации уравнений
- •Глава 5 моделирование систем автоматического управления
- •§ 5.1. Методы моделирования и их применение в сапр
- •§ 5.2. Приведение математических моделей сау к виду, удобному для моделирования
- •§ 5.3. Численные методы и алгоритмы моделирования
- •§ 5.4. Контроль и оценка точности моделирования
- •Глава 6 автоматизация анализа сау
- •§ 6.1. Методы анализа сау и их применение в сапр
- •6.2§. Машинные методы анализа
- •§ 6.3. Машинно-аналитический метод анализа
- •§ 6.4. Подсистема сапр сау «Анализ»
- •Глава 7 Автоматизация синтеза сау
- •§ 7.2. Машинные методы синтеза
- •§ 7.3. Подсистема сапр сау «Синтез»
- •Методы нлп
- •Задача нлп
- •Градиентный метод оптимизации
- •Метод градиента
- •Метод случайного поиска
- •Метод Даниленко-Каган
- •Метод Трахтенбергп
- •Экстраполяционный случайный поиск с адаптирующимся шагом
- •Алгоритм с перестройкой вероятностных характеристик поиска
- •Глобальный случайный поиск с независимым выбором плотности распределения пробных шагов
- •Локально – глобальный поиск коллективом автоматов имени Буша – Мостселлера.
- •Методика выбора алгоритмов поисковой оптимизации.
- •Метод ситуационного управления:
Алгоритм с перестройкой вероятностных характеристик поиска
В соответствии с алгоритмом, перемещение в пространстве независимых переменных можно записать в виде:
- вектор оптимальных значений переменных за jпредыдущих шагов
- минимальное значение функции качества за jпредыдущих шагов.
Самообучение проявляется в перестройке вероятностных характеристик поиска, т.е. целенаправленного воздействия на случайный выбор направления рабочего шага, т.е. вектор E.
составляющие Е можно определить по зависимости:
- случайное число, равномерно распределенное на интервале ;
Вероятностное воздействие на случайный вектор осуществляется следующим образом:
где pк– вектор выбора случайного шага
Алгоритм обучения реализуется путем изменения параметров памяти при помощи следующей рекуррентной формулы:
- величина, определяющая скорость обучения
- приращение к-ого аргумента на i-ом шаге поиска
Числовые параметры:
; ;
Глобальный случайный поиск с независимым выбором плотности распределения пробных шагов
где - этоi-ое пробное состояние выбранное случайно и сохраняемое в памяти в случае удачной пробы
- вычисленное в i-ом пробном состоянии значение функции качества и сохраненное в памяти в случае удачной пробы
Для равномерной плотности распределения пробных шагов, плотность разбивается на «к» этапов, содержащих Njпробных шагов, где.
Каждый пробный шаг, осуществленный внутри гиперпаралл. пространства независимых переменных , ограничен:
причем стороны гип – да с каждым j-ым этапом уменьшаются в «С», большее 1 раз, по сравнению сj-1 этапом в соответствии с формулой:
где - точка, соответствующая пробному шагу с наименьшим значением функции качества из всех пробных шагов наj-1 этапе.
Несмотря на равномерную плотность распределения пробных шагов внутри каждого этапа, происходит увеличение плотности распределения от этапа к этапу за счет уменьшения зоны поиска, т.е.
где - плотность распределения пробных шагов наj-ом этапе
- объем гип – да на j-ом этапе
Иногда пробные шаги целесообразно распределять по нормальному закону распределения.
где при 0<q<1
Итог: Случайные пробные шаги распределены нормально, со средним значением совпадающим с наилучшей величиной критерия качества из всех проб этапа, а дисперсия уменьшается при неудачных шагах и увеличивается до исходного значения при удачных шагах.
Локально – глобальный поиск коллективом автоматов имени Буша – Мостселлера.
Алгоритм осуществляет шаговый поиск.
Выбор знака приращения ∆Хiпроизводится адаптивным алгоритмом, причем алгоритм может работать в двух режимах, причем при переходе на локальный режим надо поменять местами параметры адаптации α и β.
Этапы:
1). Обучение. Обозначим через - вероятность выбора положительного направления поi- ой координате наN-ом шаге поиска.
(1)
Формула показывает как перестраиваются вероятностные характеристики направления движения к экстремуму.
2). Роль соотношений между α и β:
При α>β поиск имеет глобальный характер – это связанно с тем, что скорость разгона при движении вниз больше чем разгона при подъеме.
При α<β происходит локальный поиск, т.е. торможение преобладает над разгоном и движение напоминает затухающие колебания.
При α=β алгоритм не эффективен, т.е. происходит блуждание в точке минимума без уменьшения размеров этой области.
3). Этап алгоритма: поиск вблизи границы области. Если очередной шаг выводит за границы области, то этот шаг не производится, но адаптация происходит.
Для адаптации используется один из следующих способов:
а) Вероятности обрабатываются по формуле (1) с соответствующими режимами торможения .
б) Производится отражение
(2)
Для глобального поиска способ второй предпочтительнее. Для локального оба равны.
4). Использование ∆Q при обратной связи. После каждого очередного шага обучение производится по формулам (1), однако с переменными α и β, сначала задается α(0)и β(0). Как правило это максимальное значение. Задается параметр «забывание» δ(0≤ δ ≤1).
После очередного шага α(N)вычисляется при помощи формул:
(3)
Применение этой процедуры делает адаптацию более гибкой. При β=0, α и β=const.
Исходные данные для алгоритма:
n- размерность пространства независимых переменных
- количество шагов глобального экстремума
k- количество точек, подлежащих локальному уточнению
α и β – параметры адаптации (причем α > β)
γ - коэффициент уменьшения шагов
ε - параметр остановки
- начальное значение независимых переменных и начальные шаги по ним
Алгоритм состоит из этапов:
1. На первых шагах происходит глобальный поиск из данной начальной точкис шагамии с вероятностямиpi=0,5.
2. В процессе глобального поиска происходит адаптация по формулам, с переменными параметрами, определяемые формулами (3). На границе применяется отражение (2).
3. Результат глобального поиска состоит в определении «k» наилучших точек.
4. После окончания работы глобальной части) производится k– локальных поисков из точек полученного набора, с прежними начальными шагами и начальными вероятностями =0,5.
5. В процессе каждого локального поиска производится адаптация; на границе по формулам (2), внутри области по формулам (1) с параметрами α = α(0)и β= β(0)= начальным.
6. Если при двух последующих двойных подъемах функции качества знаки некоторой переменной были + + - - , - - + +, то шаг по этой переменной умножается на γ.
7. Каждый локальный поиск закончится, когда шаги по всем переменным станут меньше ε.
8. При минимизации текстовой функции
- многоэкстремальная, используются следующие параметры алгоритма: