
- •Автоматизация и проектирование динамических систем. Типы динамических систем. Понятие динамических систем.
- •Задача проектирования и ее специфика для всех трех типов систем.
- •Обобщенная формулировка задачи проектирования.
- •С пособы решения задачи оптимизации и их сущность.
- •Разновидности непрерывных алгоритмов.
- •Дискретный алгоритм и его интерпретация.
- •Векторная форма записи алгоритмов проектирования.
- •Проектирование в условиях неопределенности (адаптивных подход, третий тип систем).
- •Адаптивные алгоритмы или алгоритмы обучения.
- •Понятие сходимости алгоритмов обучения (алгоритмов проектирования адаптивной системы) или устойчивости обучающихся систем.
- •Критерии сходимости алгоритмов обучения.
- •Методика получения алгоритмов проектирования в условиях неопределенности или алгоритмах обучения.
- •I Раздел. Обучение распознаванию образов (событий, ситуаций). Проектирование этих систем.
- •1. Частные алгоритмы обучения.
- •2. Релейные алгоритмы.
- •3. Алгоритм Адалина (адаптивный, линейный).
- •Основные понятия теории принятия решений (тпр).
- •Адаптивный Байесов подход к обучению распознавания образов.
- •Самообучающиеся системы, которые обучаются без указания учителя или без поощрения.
- •Байесова самообучающаяся система.
Самообучающиеся системы, которые обучаются без указания учителя или без поощрения.
Создание обучающихся машин включало в себя два этапа:
Мы задавали цели обучения. В алгоритмах, основанных на персептронах это была минимизация взвешенных ошибок или риска.
Стратегия достижения цели. В качестве этой стратегии мы используем предварительный показ известных образов или событий с указанием класса, к которому они принадлежат.
При самообучении цель та же самая, состоит в нахождении решающего правила или разделяющей гиперповерхности, которые бы минимизировали некий функционал среднего риска, ошибки. Эта цель при самообучении должна быть достигнута только при наблюдении вектора , без всякой информации извне, то есть без обучающей предпоследовательности, которая предшествовала перед распознаванием.
Стратегии решения этой задачи, вообще их множество, начиная с методов случайных выбросов и т. д., но мы рассмотрим два базисных метода:
И
Считаем, что машина всегда отвечает правильно.
У
x1
нас есть пространство А, показываем только представителей этого пространства, надо разделить его на классы А1, А2, …, если верна гипотеза кучности или компактности, то идея не «бредовая». Мы отбросили, вот у нас есть пространство признаков x1, xm.
xM
Это (М+1)-мерное пространство, и по последней (М+1)-ой оси мы будем показывать, так называемую, частоту попадания показа (по типу детского бильярда).
Т
Р( )

А1
А2
А3
о есть показываем , очередной n-ый образ, и строим поверхность, характеризующую частоту попадания образов в ту или иную «точку» (вероятность самого попадания в точку равно 0), то есть окрестность этой точки. Таким образом, строим гистограмму. В силу действия гипотезы кучности мы получим с вами гористую или холмистую поверхность:
x1
xM

Разделяющая поверхность
Потому что мы говорили, что одинаковым событиям, одинаковым состояниям, одинаковым объектам соответствуют схожие точки пространства, то есть они будут располагаться кучно.
Какую функцию мы, таким образом, восстанавливаем? Это функция плотности распределения вероятности, гистограмма это и есть аналог плотности распределения вероятности. Т. е. мы восстанавливаем функцию плотности распределения вероятности.
В
Р(x)
сборе, т. е. холмы (вершины) это будут соответствовать классы А1, А2, А3. Целесообразно провести разделяющую поверхность по самому «дну». Разделяющая поверхность по долинам нашего ландшафта. Т. е. по показам нам надо восстановить плотность распределения вероятностей. Пример двумерной задачи, соответственно у нас тут ландшафт будет гористый, а долина будет эта точка. Представьте себе, что у нас есть два класса. Пусть у нас имеет место быть событие 1, плотность распределения которого будет Р1( ). Р2( ) пусть тоже имеет место быть. Совместная плотность (Общая):
Р1(x)
Общая
Р2(x)
)
x

Границу лучше всего провести в отмеченной на графике точке. Область принятия решений 1 с плотностью распределения вероятности Р1(x) и область принятия решений 2 с плотностью распределения вероятности Р2(x). Т. е. по показам надо восстановить совместную (общую) плотность распределения вероятности х.