
- •Модели и методы интеллектуальной поддержки процессов принятия решений
- •010501 - «Прикладная математика и информатика»,
- •Нижний Новгород
- •Предисловие
- •Концепция интеллектуальной поддержки процессов принятия решений
- •Трудноформализуемые и неформальные этапы принятия решений
- •Цели и средства интеллектуальной поддержки процессов принятия решений
- •Вопросы для самоконтроля
- •2. Искусственный интеллект как научное направление
- •2.1. Искусственный интеллект: концепция, возможности, методы реализации
- •2.2. Фундаментальное направление в искусственном интеллекте
- •Системы, основанные на знаниях, в качестве средств интеллектуальной поддержки процессов принятия решений
- •3.1. Понятия интеллектуальной и экспертной систем
- •Системы, основанные на знаниях
- •Модели представления знаний
- •4.1. Данные и знания как категории информационного обеспечения задач
- •4.2. Логические модели представления знаний, основанные на исчислениях
- •4.3. Сетевые модели представления знаний
- •4.4. Представление знаний в виде набора продукционных правил
- •Вопросы и задания для самоконтроля
- •Построение базы знаний
- •5.1. Исследование и описание предметной области
- •Организация модели представления и формализация знаний
- •Приобретение знаний
- •Вопросы и задания для самоконтроля
- •Механизмы интерпретации знаний
- •6.1. Интерпретация логических моделей представления знаний, основанных на исчислениях
- •6.2. Интерпретация знаний в экспертных системах продукционного типа
- •6.3. Иллюстративный пример построения макетной системы, основанной на знаниях продукционного типа
- •Вопросы и задания для самоконтроля
- •7. Нейромодельный подход к построению интеллектуальных систем
- •7.1. Биологические основы нейромодельного подхода
- •7.2. Концепция искусственной нейронной сети
- •7.3. Классификация искусственных нейронных сетей
- •7.4. Персептроны
- •7.6. Сеть Хопфилда
- •7.7. Сеть Хемминга
- •7.8. Самоорганизующиеся нейронные сети Кохонена
- •Вопросы и задания для самоконтроля
- •Некоторые из приложений искусственных нейронных сетей
- •8.1. Инс в вычислительных системах
- •Структурный синтез цифровых автоматов в нейросетевом базисе
- •Инс в системах автоматического управления
- •Вопросы и задания для самоконтроля
- •Гибридные средства интеллектуальной поддержки процессов принятия решений
- •9.1. Концепция гибридной системы интеллектуальной поддержки
- •Архитектура оболочки гибридной системы интеллектуальной поддержки
- •Вопросы и задания для самоконтроля
- •Список литературы
- •Модели и методы интеллектуальной поддержки процессов принятия решений
- •603950, Н. Новгород, пр. Гагарина, 23.
- •603950, Н. Новгород, пр. Гагарина, 23.
7.8. Самоорганизующиеся нейронные сети Кохонена
Одной из главных задач, решаемых системой интеллектуальной поддержки, является задача распознавания ситуаций (образов). Эти ситуации не всегда могут быть априори классифицированы и предоставлены системе в виде набора шаблонов. На этот случай в системе должны присутствовать механизмы разбиения воспринимаемых ситуаций на классы (кластеризации) и последующей классификации вновь поступающих образов. Основой для построения таких механизмов могут служить самоорганизующиеся нейронные сети.
Классическим примером самоорганизующейся нейронной сети является сеть Кохонена (самоорганизующаяся карта признаков) [11, 19].
Нейронная сеть Кохонена относится к классу сетей прямого распространения. Она имеет единственный скрытый слой нейронов, представленный в виде одномерной или двумерной решетки (в принципе размерность решетки может быть и выше, случай двумерной решетки показан на рис. 19). Каждому скрытому нейрону соответствует свой выход сети. Нейроны входного слоя, количество которых равно размерности воспринимаемого образа, осуществляют функции приема и ретрансляции входных сигналов на все нейроны скрытого слоя (на рис. 19 это показано только для нейрона ). Число нейронов в скрытом слое (и, соответственно, число выходов сети) определяет количество кластеров, на распознавание которых ориентируется нейронная сеть.
Алгоритм,
обеспечивающий процесс самоорганизации
нейронной сети Кохонена, подбирая
синаптические веса связей между нейронами
входного и скрытого слоев
,
преследует цель отобразить множество
-мерных
входных векторов в двумерную карту
распределения нейронных активностей.
Каждый нейрон такой карты соответствует
определенному кластеру, объединяющему
в себе сходные по критерию близости
вектора. В качестве критерия близости
векторов
и
можно использовать евклидово расстояние
между ними
или
их скалярное произведение
(в смысле его максимума).
В основу алгоритма положены три механизма [19]:
механизм конкуренции;
механизм кооперации;
механизм адаптации.
Механизм конкуренции реализует конкурсный (конкурентный) метод, суть которого состоит в следующем.
Входной
вектор
и вектора синаптических весов входных
связей всех нейронов скрытого слоя (
)
предполагаются нормализованными. Для
каждого скрытого нейрона оценивается
величина его активности
.
Между нейронами осуществляется конкурс
на максимальное значение этой величины.
Нейрон
,
имеющий наибольшее значение нейронной
активности
,
объявляется победителем и наиболее
подходящим для данного вектора
.
Механизм
кооперации реализует принцип, согласно
которому наиболее возбужденный нейрон
усиливает (через синаптические веса)
не только себя, но и пространственно
близкие к нему нейроны. В связи с этим
вводятся понятия топологической
окрестности победившего нейрона и
функции окрестности
,
определяющей меру соседства нейрона
с
нейроном-победителем
.
В качестве последней часто используется
функция Гаусса
,
(7.12)
где
,
и
— дискретные
вектора, определяющие, соответственно,
позиции нейрона-победителя
и его нейрона-соседа
в решетке;
— эффективная ширина топологической
окрестности, определяющая минимальный
уровень функции окрестности, до которого
нейроны из топологической окрестности
участвуют в процессе обучения вместе
с нейроном-победителем.
В процессе обучения эффективная ширина топологической окрестности постепенно уменьшается, например, по закону
,
(7.13)
где
— дискретное
время;
—
начальное значение величины
;
— некоторая временная константа
(настроечный параметр алгоритма).
Таким образом, функция окрестности приобретает зависимость от времени в виде
,
(7.14)
где
определяется по формуле (7.13).
Механизм адаптации реализует определенную стратегию изменения (коррекции) весов синаптических связей. В ее основу может быть положено правило Хебба с некоторой дополнительной составляющей, учитывающей эффект забывания.
Правило Хебба говорит о том, что если предсинаптический и постсинаптический нейроны активизируются одновременно, то сила этой связи возрастает. В противном случае синапс ослабляется.
Эффект
забывания учитывается слагаемым
(входящим в общую формулу с отрицательным
знаком) в виде
,
где
—
вектор синаптических весов нейрона
;
— положительная
скалярная функция, определенная на
дискретном наборе выходных сигналов
нейронов (функция забывания) и
принимающая нулевое значение для
.
С учетом вышесказанного изменение (коррекция) вектора синаптических весов нейрона представляется следующей формулой:
,
(7.15)
где
— параметр
скорости обучения.
Если
в качестве функции забывания использовать
линейную функцию
и оценивать выходы нейронов функцией
окрестности, т.е. принять
,
то формула адаптации векторов синаптических
весов (7.15), с учетом необходимости их
нормирования, примет следующий вид:
,
(7.16)
где
— вектор, поданный
на вход сети в момент времени
;
— меняющийся во времени (постепенно
уменьшаемый) параметр скорости обучения.
В основу изменения параметра скорости обучения может быть положена функция
,
,
(7.17)
где
— исходное
значение параметра (в момент
);
— некоторая временная константа
(настроечный параметр алгоритма).
Формула
(7.16) применяется ко всем нейронам, лежащим
в топологической окрестности
нейрона-победителя
и
кооперирующимся с ним в обучении. Из
формулы видно, что вектора синаптических
весов кооперирующихся нейронов
смещаются в сторону входного вектора
со скоростью, пропорциональной
соответствующему им значению функции
окрестности (наиболее интенсивно это
происходит у нейрона-победителя
,
имеющего максимальное значение
).
Помимо рассмотренных архитектур ИНС, существует множество других, с которыми можно ознакомиться, обратившись к источникам [11, 12, 19].