- •Автоматизация и проектирование динамических систем. Типы динамических систем. Понятие динамических систем.
- •Задача проектирования и ее специфика для всех трех типов систем.
- •Обобщенная формулировка задачи проектирования.
- •С пособы решения задачи оптимизации и их сущность.
- •Разновидности непрерывных алгоритмов.
- •Дискретный алгоритм и его интерпретация.
- •Векторная форма записи алгоритмов проектирования.
- •Проектирование в условиях неопределенности (адаптивных подход, третий тип систем).
- •Адаптивные алгоритмы или алгоритмы обучения.
- •Понятие сходимости алгоритмов обучения (алгоритмов проектирования адаптивной системы) или устойчивости обучающихся систем.
- •Критерии сходимости алгоритмов обучения.
- •Методика получения алгоритмов проектирования в условиях неопределенности или алгоритмах обучения.
- •I Раздел. Обучение распознаванию образов (событий, ситуаций). Проектирование этих систем.
- •1. Частные алгоритмы обучения.
- •2. Релейные алгоритмы.
- •3. Алгоритм Адалина (адаптивный, линейный).
- •Основные понятия теории принятия решений (тпр).
- •Адаптивный Байесов подход к обучению распознавания образов.
- •Самообучающиеся системы, которые обучаются без указания учителя или без поощрения.
- •Байесова самообучающаяся система.
Дискретный алгоритм и его интерпретация.
М
˅
ы только что спроектировали аналоговую (электрическую, электронную) «машину» для решения уравнения .Н
˅
о в жизни мы чаще сталкиваемся с ЦВМ, работающими с алгоритмами в виде последовательностей вычислений (процедур последовательных или итерационных).П
ерепишем статическое уравнение в равносильной форме:
И будем искать C = C* (opt C) с помощью последовательности итераций.
Зададимся начальными значениями:
C = C[0] ([i] – означает, что это С, взятое на некотором i-ом шаге).
C[1] = C[0] – γ[1] f ’(С[0])
C[2] = C[1] – γ[2] f ’(С[1])
…
4
C[n] = C[n – 1] – γ[n] f ’(С[n – 1]),
где γ[n] – шаг алгоритма на n-ой итерации.
Это и есть дискретный алгоритм.
П
4
˅
ри выполнении условий сходимости (устойчивости), т. е. C[n] – C[n – 1] → С* => уравнение → уравнению , то есть стремится к нулю.И следовательно C[n] → С*.
Определение: Для дискретных алгоритмов, или дискретных схем вводится понятие первой разности:
ΔC[n – 1] = C[n] – C[n – 1]
Первая разность – это дискретный аналог производной. От нее можно перейти к произведению по теореме предельного перехода.
И
5
тогда:Δ
5
1
5
1
C[n – 1] = – γ[n] f ’(С[n – 1])Уравнение и уравнение - это фактически одно и то же. От к
можно перейти по той же теореме о предельном переходе.
С
5
труктуру можно представить следующим образом:ΔC(n – 1)
C(n)
C(0)
C(n – 1)
(подаем, чтобы начал работать)
ЭЗ – элемент задержки.
М
ожно
перерисовать этот элемент иначе:
ΔC(n – 1)
C(n)
C(n – 1)
Д
искретный
интегратор (дигратор).
Обозначается по аналогии с интегратором
Эта схема так же автономна, т. е. на ее вход ничего не поступает. Вся необходимая для проектирования информация кроется в блоке f ’(С): и цель проектирования, и условия и т. д.
Д
f ’(C[1])
f ’(C[0])
C[0]
C[1]
C[2]
φ = tg γ
адим
геометрическую интерпретацию.
Берем C[0] => находим f ’(C[0]) => делаем шаг на угол φ, пропорциональный γ => берем C[1] => находим f ’(C[1]) и т. д.
Проблема выбора шага алгоритма γ => можем выбрать большой угол, а можем, и наоборот.
Е
C
f ’(C)
φ = tg γ
f ’(C[0])
C[0]
сли γ брать очень большим, то мы можем раскачиваться относительно С*(opt), а можем даже пойти вразнос.
Е
C
f ’(C)
φ = tg γ
f ’(C[0])
C[0]
C[n]
f ’(C[n])
сли брать γ очень мелкую, то можем получить процесс, почти остающийся на месте, и никогда не достичь экстремума. Разрядной сетки ЭВМ может просто не хватить.
Лекция №3. (05.03.14г.)
Векторная форма записи алгоритмов проектирования.
П
ерейдем к более общему случаю, который часто используется на практике. Когда мы имеем не один, а несколько параметров проектирования. Обозначим вектором . То есть будем рассматривать функционал, который является известной нам функцией от этого вектора проектирования:
В
общем случае
Для полностью детерминированных систем
Э
тот функционал описывает в N+1-мерном пространстве некую гиперповерхность, экстремум которой надо найти. Классически условие экстремума функция переменных – это:
Аналог производной для векторного случая будет градиент.
Введем понятие градиента от скалярной функции:
Т
˅
огда необходимое условие экстремума или оптимума нашего проектирования в векторной форме будет записано так:
- аналог
Решение этого уравнения дает нам
З
апишем алгоритм в виде рекуррентного соотношения, т. е. дискретный алгоритм:
{Г – гамма}
Необходимо задать к алгоритму для старта алгоритма.
С
учетом введения понятия векторной первой разности
М
ы можем переписать этот алгоритм следующим образом:
П
ервая разность является вычислительным аналогом производной. Поэтому непрерывный алгоритм у нас запишется следующим образом:
Начальные условия будут: . Задали начальные условия для любого дифференциального уравнения.
В
˅
о всех рассмотренных ранее задачах все производные (все ‘), или – это производные по (по параметрам проектирования). А по времени
.
Это непрерывный алгоритм в векторной
форме.
Эти алгоритмы в случае неумения решить уравнение задают движения, согласно которым в конце движения или за ограниченное время (при t = 1) они нам дают значение С* (оптимальное). А нам без разницы как его решить, как найти С*, главное его в конечном итоге найти, а каким способом – это неважно.
Поговорим о виде матрица Г (гамма).
Наиболее полный случай. Это когда Г представляет собой матрицу с абсолютно разными коэффициентами. Она, конечно же, квадратная.
γ11 γ12 … γ1N
Г = ………
γN1 γN2 … γNN
Т. е. мы имеем систему из настроек по каждому параметру проектирования. И каждая настройка зависит от всех остальных параметров (настроек) проектирования. К примеру, если увеличить пробу у золота, то автоматически увеличивается его стоимость.
Г представляет собой диагональную матрицу:
γ11 0 … 0
Г = 0 γ22 … 0
………
0 0 … γNN
То есть здесь у нас получается тоже система настроек, и каждая настройка как бы автономна от другой. Просто она происходит с разными шагами алгоритма или разными коэффициентами нашей «машины».
У нас тоже диагональная матрица, но уже с одинаковыми коэффициентами (шагами):
γ 0 … 0
Г = 0 γ … 0 = γI, где I – единичная матрица.
………
0 0 … γ
Какой вариант обычно рассматривается во всякого рода системах, когда имеем нормализацию, приводим к деформированным параметрам? Эти алгоритмы и тот, и другой (непрерывные и дискретные) реализуются следующей схемой (структурной схемой алгоритма, или вычислительной схемой, или схемой элементной, как угодно в зависимости от непрерывных или дискретных алгоритмов):
- здесь реализуется знак « – ». Это означает отрицание.
- будем обозначать вектор.
Если это речь идет о «машине», то это у нас некий функциональный элемент, а если об алгоритме – это некий алгоритмический блок.
Еще
раз! Структурная схема «/»
алгоритм автономна, из вне на нее ничего
не поступает. Вся информация о целях,
условиях и т. д. проектирования заложена
в так называемом функциональном элементе
«/»
алгоритме. Нам нужно лишь задать какие-то
начальные условия
. Нажать кнопку «пуск» или тумблер
включить на машине, и через некоторое
время на выходе мы получим
(оптимальное). Это произойдет только в
том случае, если
сходится к нашему вектору
.
Проблема сходимости – большая проблема. Сходимость алгоритмов проектирования для детерминированных и стохастических систем, то есть только для алгоритмов первых двух видов систем.
Тезис. Сходимость алгоритмов и устойчивость выше нарисованной системы с обратной связью – это одно и то же.
Обоснование тезиса: от нашего алгоритма (или от распределенной «машины») мы требуем, чтобы с течением времени (это непрерывный алгоритм) или по истечении скольких-то шагов итерации (это дискретный алгоритм) текущее значение
→
,
при n
→ ∞ (для дискретных систем)
и
→
, при t
→ ∞ (для детерминированных систем)
Это значит, что в N-мерном гиперпространстве проектирования параметров расстояние между векторами и должно уменьшаться, т. е. вектора должны сходиться.
М
атематически это можно записать следующим образом (дискретный случай):
Н
орму разности двух векторов можно расписать:
Поскольку у нас здесь под корнем везде неотрицательные числа из-за квадратов, то это выражение обращается в 0 тогда и только тогда, когда все слагаемые обращаются в ноль, то есть:
,
, …
А
это и есть определение устойчивости
точки
, которое мы рассматриваем как положение
некоего равновесия нашей системы. Т.
е., если мы (мы ее заранее не знаем) выведем
систему из этой точки
в
какую-то, выведем в точку
,
то она обязательно вернется «обратно»
в эту точку
.
Т. е. сходимость и сходимость относительно
точки
это
одно и тоже.
Надеемся, что мы помним из курса ОТУ, что существует огромное количество критериев устойчивости для систем. Например, Михайлова, Рауса, Гурвица, Найквиста и др.
Эти методы основаны на первом методе Ляпунова (устойчивость в малом). Пример:
П
ри
небольшом отклонении системы (в какой-то
небольшой области), она возвращается в
начальное состояние:
Это при небольших отклонениях от устойчивого состояния.
Н а втором методе Ляпунова – это устойчивость в целом. Если очень грубо описать, то аналог будет:
И куда бы мы шарик не отклонили, он всегда будет возвращаться, может быть будет долго раскачиваться, но все же вернется в устойчивое состояние. Идея в том, что на параметры накладывается такая сфера, которая со временем сжимается и если хоть один параметр выходит за пределы этой сферы, то система уже считается неустойчивой.
Эти же критерии и методы годятся и для проверки сходимости наших алгоритмов проектирования.
До сих пор мы рассматривали детерминированные и стохастические системы, первые два типа систем. А теперь рассмотрим третий тип систем.
