- •Модели и методы интеллектуальной поддержки процессов принятия решений
- •010501 - «Прикладная математика и информатика»,
- •Нижний Новгород
- •Предисловие
- •Концепция интеллектуальной поддержки процессов принятия решений
- •Трудноформализуемые и неформальные этапы принятия решений
- •Цели и средства интеллектуальной поддержки процессов принятия решений
- •Вопросы для самоконтроля
- •2. Искусственный интеллект как научное направление
- •2.1. Искусственный интеллект: концепция, возможности, методы реализации
- •2.2. Фундаментальное направление в искусственном интеллекте
- •Системы, основанные на знаниях, в качестве средств интеллектуальной поддержки процессов принятия решений
- •3.1. Понятия интеллектуальной и экспертной систем
- •Системы, основанные на знаниях
- •Модели представления знаний
- •4.1. Данные и знания как категории информационного обеспечения задач
- •4.2. Логические модели представления знаний, основанные на исчислениях
- •4.3. Сетевые модели представления знаний
- •4.4. Представление знаний в виде набора продукционных правил
- •Вопросы и задания для самоконтроля
- •Построение базы знаний
- •5.1. Исследование и описание предметной области
- •Организация модели представления и формализация знаний
- •Приобретение знаний
- •Вопросы и задания для самоконтроля
- •Механизмы интерпретации знаний
- •6.1. Интерпретация логических моделей представления знаний, основанных на исчислениях
- •6.2. Интерпретация знаний в экспертных системах продукционного типа
- •6.3. Иллюстративный пример построения макетной системы, основанной на знаниях продукционного типа
- •Вопросы и задания для самоконтроля
- •7. Нейромодельный подход к построению интеллектуальных систем
- •7.1. Биологические основы нейромодельного подхода
- •7.2. Концепция искусственной нейронной сети
- •7.3. Классификация искусственных нейронных сетей
- •7.4. Персептроны
- •7.6. Сеть Хопфилда
- •7.7. Сеть Хемминга
- •7.8. Самоорганизующиеся нейронные сети Кохонена
- •Вопросы и задания для самоконтроля
- •Некоторые из приложений искусственных нейронных сетей
- •8.1. Инс в вычислительных системах
- •Структурный синтез цифровых автоматов в нейросетевом базисе
- •Инс в системах автоматического управления
- •Вопросы и задания для самоконтроля
- •Гибридные средства интеллектуальной поддержки процессов принятия решений
- •9.1. Концепция гибридной системы интеллектуальной поддержки
- •Архитектура оболочки гибридной системы интеллектуальной поддержки
- •Вопросы и задания для самоконтроля
- •Список литературы
- •Модели и методы интеллектуальной поддержки процессов принятия решений
- •603950, Н. Новгород, пр. Гагарина, 23.
- •603950, Н. Новгород, пр. Гагарина, 23.
7.8. Самоорганизующиеся нейронные сети Кохонена
Одной из главных задач, решаемых системой интеллектуальной поддержки, является задача распознавания ситуаций (образов). Эти ситуации не всегда могут быть априори классифицированы и предоставлены системе в виде набора шаблонов. На этот случай в системе должны присутствовать механизмы разбиения воспринимаемых ситуаций на классы (кластеризации) и последующей классификации вновь поступающих образов. Основой для построения таких механизмов могут служить самоорганизующиеся нейронные сети.
Классическим примером самоорганизующейся нейронной сети является сеть Кохонена (самоорганизующаяся карта признаков) [11, 19].
Нейронная сеть Кохонена относится к классу сетей прямого распространения. Она имеет единственный скрытый слой нейронов, представленный в виде одномерной или двумерной решетки (в принципе размерность решетки может быть и выше, случай двумерной решетки показан на рис. 19). Каждому скрытому нейрону соответствует свой выход сети. Нейроны входного слоя, количество которых равно размерности воспринимаемого образа, осуществляют функции приема и ретрансляции входных сигналов на все нейроны скрытого слоя (на рис. 19 это показано только для нейрона ). Число нейронов в скрытом слое (и, соответственно, число выходов сети) определяет количество кластеров, на распознавание которых ориентируется нейронная сеть.
Алгоритм, обеспечивающий процесс самоорганизации нейронной сети Кохонена, подбирая синаптические веса связей между нейронами входного и скрытого слоев , преследует цель отобразить множество -мерных входных векторов в двумерную карту распределения нейронных активностей. Каждый нейрон такой карты соответствует определенному кластеру, объединяющему в себе сходные по критерию близости вектора. В качестве критерия близости векторов и можно использовать евклидово расстояние между ними или их скалярное произведение (в смысле его максимума).
В основу алгоритма положены три механизма [19]:
-
механизм конкуренции;
-
механизм кооперации;
-
механизм адаптации.
Механизм конкуренции реализует конкурсный (конкурентный) метод, суть которого состоит в следующем.
Входной вектор и вектора синаптических весов входных связей всех нейронов скрытого слоя () предполагаются нормализованными. Для каждого скрытого нейрона оценивается величина его активности . Между нейронами осуществляется конкурс на максимальное значение этой величины. Нейрон , имеющий наибольшее значение нейронной активности , объявляется победителем и наиболее подходящим для данного вектора .
Механизм кооперации реализует принцип, согласно которому наиболее возбужденный нейрон усиливает (через синаптические веса) не только себя, но и пространственно близкие к нему нейроны. В связи с этим вводятся понятия топологической окрестности победившего нейрона и функции окрестности , определяющей меру соседства нейрона с нейроном-победителем . В качестве последней часто используется функция Гаусса
, (7.12)
где , и — дискретные вектора, определяющие, соответственно, позиции нейрона-победителя и его нейрона-соседа в решетке;
— эффективная ширина топологической окрестности, определяющая минимальный уровень функции окрестности, до которого нейроны из топологической окрестности участвуют в процессе обучения вместе с нейроном-победителем.
В процессе обучения эффективная ширина топологической окрестности постепенно уменьшается, например, по закону
, (7.13)
где — дискретное время;
— начальное значение величины ;
— некоторая временная константа (настроечный параметр алгоритма).
Таким образом, функция окрестности приобретает зависимость от времени в виде
, (7.14)
где определяется по формуле (7.13).
Механизм адаптации реализует определенную стратегию изменения (коррекции) весов синаптических связей. В ее основу может быть положено правило Хебба с некоторой дополнительной составляющей, учитывающей эффект забывания.
Правило Хебба говорит о том, что если предсинаптический и постсинаптический нейроны активизируются одновременно, то сила этой связи возрастает. В противном случае синапс ослабляется.
Эффект забывания учитывается слагаемым (входящим в общую формулу с отрицательным знаком) в виде , где — вектор синаптических весов нейрона ; — положительная скалярная функция, определенная на дискретном наборе выходных сигналов нейронов (функция забывания) и принимающая нулевое значение для .
С учетом вышесказанного изменение (коррекция) вектора синаптических весов нейрона представляется следующей формулой:
, (7.15)
где — параметр скорости обучения.
Если в качестве функции забывания использовать линейную функцию и оценивать выходы нейронов функцией окрестности, т.е. принять , то формула адаптации векторов синаптических весов (7.15), с учетом необходимости их нормирования, примет следующий вид:
, (7.16)
где — вектор, поданный на вход сети в момент времени ;
— меняющийся во времени (постепенно уменьшаемый) параметр скорости обучения.
В основу изменения параметра скорости обучения может быть положена функция
, , (7.17)
где — исходное значение параметра (в момент );
— некоторая временная константа (настроечный параметр алгоритма).
Формула (7.16) применяется ко всем нейронам, лежащим в топологической окрестности нейрона-победителя и кооперирующимся с ним в обучении. Из формулы видно, что вектора синаптических весов кооперирующихся нейронов смещаются в сторону входного вектора со скоростью, пропорциональной соответствующему им значению функции окрестности (наиболее интенсивно это происходит у нейрона-победителя , имеющего максимальное значение ).
Помимо рассмотренных архитектур ИНС, существует множество других, с которыми можно ознакомиться, обратившись к источникам [11, 12, 19].