- •Автоматизация и проектирование динамических систем. Типы динамических систем. Понятие динамических систем.
- •Задача проектирования и ее специфика для всех трех типов систем.
- •Обобщенная формулировка задачи проектирования.
- •С пособы решения задачи оптимизации и их сущность.
- •Разновидности непрерывных алгоритмов.
- •Дискретный алгоритм и его интерпретация.
- •Векторная форма записи алгоритмов проектирования.
- •Проектирование в условиях неопределенности (адаптивных подход, третий тип систем).
- •Адаптивные алгоритмы или алгоритмы обучения.
- •Понятие сходимости алгоритмов обучения (алгоритмов проектирования адаптивной системы) или устойчивости обучающихся систем.
- •Критерии сходимости алгоритмов обучения.
- •Методика получения алгоритмов проектирования в условиях неопределенности или алгоритмах обучения.
- •I Раздел. Обучение распознаванию образов (событий, ситуаций). Проектирование этих систем.
- •1. Частные алгоритмы обучения.
- •2. Релейные алгоритмы.
- •3. Алгоритм Адалина (адаптивный, линейный).
- •Основные понятия теории принятия решений (тпр).
- •Адаптивный Байесов подход к обучению распознавания образов.
- •Самообучающиеся системы, которые обучаются без указания учителя или без поощрения.
- •Байесова самообучающаяся система.
Проектирование в условиях неопределенности (адаптивных подход, третий тип систем).
В
- это известная нам, выбранная нами функция.
Априорная
информация относительно случайного
вектора
отсутствует. Т. е. матожидание
не берется, т. е. надо найти минимум
неявно заданного функционала
,
поскольку, мы не можем взять матожидание,
мы не знаем, как он себя ведет.
Вектор в каждый момент времени мы можем измерять (наблюдать), также мы можем измерять , более того мы его можем и изменять, поскольку это вектор зависимый от нас параметров проектирования. На основании этих двух величин, мы можем в каждый момент времени вычислить значение F.
Ставится
задача только по данным значениям
,
и
определить экстремум несуществующего
функционала
,
то есть найти
.
Без адаптации (обучения) нам здесь не
обойтись. Целью этого обучения является
минимум функционала
который мы не знаем.
Адаптивные алгоритмы или алгоритмы обучения.
У
Мы можем градиент ввести под знак матожидания, так как осреднение, то есть матожидание берется по , а градиент вычисляется по . Независимые вещи можно выносить под знак интеграла.
А
Мы берем по многим переменным , поэтому берем частные производные. Производная от скаляра по многим переменным. Это вектор градиента этой функции.
Компоненты
этого вектора случайны (они зависят от
случайного вектора
, то есть зависит конкретной наблюдаемой
реализации),
но мы можем их вычислять, то есть наблюдать
(измерять) в каждый момент времени (
мы знаем,
знаем,
мы тоже знаем)
и это очень важно.
Возникает здравая инженерная идея: Использовать для обучения, то есть для настройки алгоритм той же структуры, что и для первого типа систем, но вместо критерия проектирования J брать функцию F случайную. Выпишем:
В непрерывном случае:
И
ли же в дискретном случае:
Э
тот алгоритм можно расписать в рекуррентной форме:
Е
стественно мы должны задать для них
.
Запишем в общем случае:
Они очень походи на алгоритмы детерминированных и стохастических систем. Но есть очень существенное принципиальное отличие или особенности:
В алгоритмах обучения фигурируют конкретные случайные реализации , которые мы можем вычислять, измерять, наблюдать, как угодно в каждый момент времени. В то время как для тех алгоритмов, мы брали просто производную от критерия проектирования. Здесь мы этого сделать не сможем.
Те алгоритмы для детерминированных и стохастических систем сходились при
Г
(t)
Г [t]
За счет того, что достигалось * функциональный элемент вырабатывал 0 и алгоритм останавливался, то есть на фоне интегратора был 0 и изменение прекращалось.
А
Х
Э
та формула вовсе не обязательно равняется 0, потому что вектор случайный. А если эта величина не равна 0, то при Г (t) , правая величина
А
следовательно, в силу этого уравнения:
или первая разность:
Т
о
есть процесс изменения
не останавливается, хотя мы вроде как
вошли в эту точку. Эта специфика алгоритмов
обучения или алгоритмов проектирования
при адаптивных системах состоит в том,
что элемент матрицы Г
должны убывать со временем или с ростом
итераций. Как убывать? Не слишком быстро,
чтобы процесс затух, не дойдя до точки
оптимума; но и не слишком медленно, чтобы
процесс проскочил или начал возле нее
раскачиваться. Структурная схема
алгоритма обучения у нас почти та же
самая, но с разницей. На вход у нас
поступает
,
дальше у нас идет с минусом на Г
[t]
или Г
(t),
дальше идет либо дигратор, либо интегратор,
если непрерывно. Затем получаем вектор
,
который возвращается на первый
функциональный элемент, а на интегратор,
или мы подаем
,
а на вход у нас поступает вектор
:
Данная система «/» алгоритм уже не автономна. Это значит, что на нее извне поступает текущая случайная информация в виде вектора . Сразу охватить, то есть обработать эту информацию мы не можем. А можем лишь только наблюдать, измерять в ходе процесса работы системы. На основе чего мы должны найти .
Процесс постепенного извлечения информации или данных нужной нам извлекаемых с конкретной целью – это и есть процесс обучения или адаптации.
