- •1. Характеристика основных направлений в исследованиях по искусственному интеллекту
- •2. Перспективы искусственного интеллекта
- •3. Проблемы нейрокибернетики и возможные пути их решения.
- •4. Искусственный интеллект. Основные понятия
- •5. Характеристика программно-прагматического направления в исследованиях по искусственному интеллекту
- •6. Характеристика бионического направления в исследованиях по искусственному интеллекту
- •7. Знания и модели их представления
- •8. Логические модели представления знаний
- •9. Продукционные модели представления знаний
- •10. Сетевые модели представления знаний (семантические сети)
- •11. Фреймовые модели представления знаний
- •12.Экспертные системы. Основные понятия и определения
- •14. Нейрокомпьютер и основы нейроинформатики
- •15. Нейрон, нейронные сети, основные понятия
- •16. Классификации нейронных сетей
- •17. Характеристика моделей нейронных сетей
- •18 Характеристика многослойных однонаправленных сетей
- •19. Характеристика полносвязных сетей Хопфилда
- •20. Характеристика двунаправленной ассоциативной памяти
- •21. Двунаправленная ассоциативная память. Режим обучения бинарными образами
- •22. Двунаправленная ассоциативная память. Режим распознавания
- •23. Характеристика самоорганизующихся сетей Кохонена
- •24. Области применения нейроинформатики
- •25. Характеристика этапов проектирования экспертной системы
- •26. Классификация интеллектуальных информационных систем
- •27. Организация базы знаний. Формы представления знаний
- •28. Методы рассуждения в интеллектуальных информационных системах
- •29. Характеристика этапа постановки задачи и концептуализации при разработке экспертной системы
- •30. Развитие прототипа до промышленной экспертной системы
- •31. Характеристика этапа формализации проектирования экспертной системы
- •32. Характеристика этапов реализации при проектировании экспертной системы
- •33. Характеристика этапа тестирования экспертной системы
- •34. Характеристика этапа опытной эксплуатации экспертной системы
- •37. Приобретение знаний
- •38. Извлечение знаний из данных
- •39. Технология разработки экспертных систем
- •40. Характеристика этапов оценки, стыковки и поддержки экспертной системы при её разработке
- •41. Аспекты получения знаний: психологический, лингвистический, гносеологический
- •Процедурный слой
- •Когнитивный слой
- •Лингвистический аспект
- •Проблема общего кода
- •Понятийная структура
- •Словарь пользователя
- •Гносеологический аспект
- •42. Стратегии получения знаний
- •43. Практические методы извлечения знаний. Их классификация и характеристика
- •44. Структурирование знаний. Концептуальная и функциональная структура предметной области
- •46. Инструментальные средства построения экспертных систем
23. Характеристика самоорганизующихся сетей Кохонена
Характерной особенностью мозга является то, что его структура, по-видимому, отражает организацию внешних раздражителей, которые в него поступают. На пример, известно соответствие относительного положения рецепторов на поверхности кожи и нейронов в мозге, которые воспринимают и обрабатывают сигналы от этих рецепторов, а участки кожи, которые плотно «населены» рецепторами (лицо, руки), ассоциированы с пропорционально большим числом нейронов. Это соответствие образует то, что называется соматотропической (somatotropic ) картой, которая отражает поверхность кожи в часть мозга — соматосенсорную кору которая и воспринимает ощущение касания.
Системы, построенные на базе, например, многослойных сетей с обратным распределением ошибок имеют очевидный недостаток, заключающийся в том, что мы (как учитель) должны заранее заготовить входы и запастись соответствующими правильными ответами для обучения сети. Принципы функционирования природной соматотропической карты легли в основу создания самоорганизующихся сетей (карт, решеток) Кохонена , для которых не требуется предварительное обучение на примерах. Сеть Кохонена воспринимает только вход и способна вырабатывать свое собственное восприятие внешних стимулов. Самоорганизующиеся сети Кохонена — это карты или многомерные решетки, d каждым узлом которой ассоциирован входной весовой вектор, то есть набор из k входных весов нейрона трактуется как вектор в ^- мерном пространстве. (На рис. 13.5 представлена сеть при k = 2.)
Входной весовой вектор имеет ту же размерность, что и вход в сеть. Обучение происходит в результате конкуренции, возникающей между узлами сети за право отклика на полученный входной сигнал. Элемент сети, который выигрывает в этой конкуренции (победитель), и его ближайшее окружение (свита) модифицируют веса своих входных связей. Перед обучением каждая компонента входного весового вектора инициализируется случайным образом. Обычно каждый вектор нормализуется в вектор с единичной длиной в пространстве весов. Это делается делением соответствующего веса на корень из суммы квадратов компонент этого весового вектора. Входные вектора нормализуются аналогично. Обучение сети состоит из следующих этапов: 1. Вектор х = (х 1 , х2,..., xk ) подается на вход сети. 2. Определяется расстояние dij (в k -мерном пространстве) между х и весовыми векторами ij каждого нейрона, например: dtj =
3. Нейрон, который имеет весовой вектор, самый близкий к х, объявляется «победителем». Этот весовой вектор wij становится основным в группе входных весовых векторов, которые лежат в пределах расстояния D от wij . Таким образом определяется "свита" победителя. 4. Группа входных весовых векторов модифицируется (поощряется) в соответствии со следующим выражением для всех весовых векторов в пределах расстояния D от wij . 5. Шаги 1 — 4 повторяются для каждого входного вектора.
В процессе обучения значения D и постепенно уменьшаются: η : 1 → 0, D в начале обучения может равняться максимальному расстоянию между весовыми векторами, а к концу обучения доходить до величины, при которой будет обучаться только один нейрон. Из формулы адаптации входного весового вектора следует, что он (для победителя и его «свиты») сдвигается по направлению к входному вектору. Таким образом, по мере поступления новых входных векторов весовые векторы сети разделяются на группы, формирующиеся в виде облаков (сгустков, кластеров) вокруг входных векторов. По мере обучения плотность весовых векторов будет выше в тех позициях пространства, где входные векторы появляются чаще, и наоборот. В результате сеть Кохонена адаптирует себя так, что плотность весовых векторов будет соответствовать плотности входных векторов. Так, если, например, на вход сети подать поток равномерно распределенных случайных величин, то сетевые веса будут самоприводиться в порядок в регулярную решетку.