Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Lektsii_Vosstanovlen.docx
Скачиваний:
3
Добавлен:
01.07.2025
Размер:
423.57 Кб
Скачать

Проектирование в условиях неопределенности (адаптивных подход, третий тип систем).

В

спомним общую постановку задачи для 3-го типа систем:

- это известная нам, выбранная нами функция.

Априорная информация относительно случайного вектора отсутствует. Т. е. матожидание не берется, т. е. надо найти минимум неявно заданного функционала , поскольку, мы не можем взять матожидание, мы не знаем, как он себя ведет.

Вектор в каждый момент времени мы можем измерять (наблюдать), также мы можем измерять , более того мы его можем и изменять, поскольку это вектор зависимый от нас параметров проектирования. На основании этих двух величин, мы можем в каждый момент времени вычислить значение F.

Ставится задача только по данным значениям , и определить экстремум несуществующего функционала , то есть найти . Без адаптации (обучения) нам здесь не обойтись. Целью этого обучения является минимум функционала который мы не знаем.

Адаптивные алгоритмы или алгоритмы обучения.

У

словия экстремума будет:

Мы можем градиент ввести под знак матожидания, так как осреднение, то есть матожидание берется по , а градиент вычисляется по . Независимые вещи можно выносить под знак интеграла.

А

это у нас градиент от выбранной нами функции:

Мы берем по многим переменным , поэтому берем частные производные. Производная от скаляра по многим переменным. Это вектор градиента этой функции.

Компоненты этого вектора случайны (они зависят от случайного вектора , то есть зависит конкретной наблюдаемой реализации), но мы можем их вычислять, то есть наблюдать (измерять) в каждый момент времени ( мы знаем, знаем, мы тоже знаем) и это очень важно.

Возникает здравая инженерная идея: Использовать для обучения, то есть для настройки алгоритм той же структуры, что и для первого типа систем, но вместо критерия проектирования J брать функцию F случайную. Выпишем:

В непрерывном случае:

И

ли же в дискретном случае:

Э

тот алгоритм можно расписать в рекуррентной форме:

Е

стественно мы должны задать для них . Запишем в общем случае:

Они очень походи на алгоритмы детерминированных и стохастических систем. Но есть очень существенное принципиальное отличие или особенности:

  1. В алгоритмах обучения фигурируют конкретные случайные реализации , которые мы можем вычислять, измерять, наблюдать, как угодно в каждый момент времени. В то время как для тех алгоритмов, мы брали просто производную от критерия проектирования. Здесь мы этого сделать не сможем.

  2. Те алгоритмы для детерминированных и стохастических систем сходились при

Г

(t)

Г [t]

За счет того, что достигалось * функциональный элемент вырабатывал 0 и алгоритм останавливался, то есть на фоне интегратора был 0 и изменение прекращалось.

А

здесь? Предположим, что нам каким-то образом стало известно * (искомый вектор параметров проектирования), тогда

Х

отя мы не можем взять матожидание, но теоретически это равно 0. Это необходимое условие экстремума. Но в силу случайности вектора сама конкретная реализация

Э

та формула вовсе не обязательно равняется 0, потому что вектор случайный. А если эта величина не равна 0, то при Г (t) , правая величина

А

следовательно, в силу этого уравнения:

или первая разность:

Т о есть процесс изменения не останавливается, хотя мы вроде как вошли в эту точку. Эта специфика алгоритмов обучения или алгоритмов проектирования при адаптивных системах состоит в том, что элемент матрицы Г должны убывать со временем или с ростом итераций. Как убывать? Не слишком быстро, чтобы процесс затух, не дойдя до точки оптимума; но и не слишком медленно, чтобы процесс проскочил или начал возле нее раскачиваться. Структурная схема алгоритма обучения у нас почти та же самая, но с разницей. На вход у нас поступает , дальше у нас идет с минусом на Г [t] или Г (t), дальше идет либо дигратор, либо интегратор, если непрерывно. Затем получаем вектор , который возвращается на первый функциональный элемент, а на интегратор, или мы подаем , а на вход у нас поступает вектор :

Данная система «/» алгоритм уже не автономна. Это значит, что на нее извне поступает текущая случайная информация в виде вектора . Сразу охватить, то есть обработать эту информацию мы не можем. А можем лишь только наблюдать, измерять в ходе процесса работы системы. На основе чего мы должны найти .

Процесс постепенного извлечения информации или данных нужной нам извлекаемых с конкретной целью – это и есть процесс обучения или адаптации.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]