- •Дифференцируемость функции в точке, дифференциал
- •Интерполирование алгебраическими многочленами
- •Двухзвенная (сервер бд)
- •Заливка области, заданной координатами своих вершин
- •Заливка области, заданной цветом границы (заливка с затравкой)
- •По способу задания области делятся на два типа:
- •Основное отличие заливки области с затравкой от заполнения многоугольника:
- •Аддитивная цветовая модель rgb
- •Субтрактивная цветовая модель cmyk
- •Задача определения закона распределения с.В. По статистическим данным.
- •Задача нахождения неизвестных параметров распределения.
- •Задача проверки правдоподобия гипотез.
- •Простой пароль и его модификации
- •2 Основных этапа многокритериальной оптимизации.
- •Обучающие системы – задают вопросы, проверяют знания человека, и дают те знания, которыми он не владеет.
- •Архитектура и основные составные части систем ии.
- •Кластерный анализ.
- •Генетический алгоритм
Архитектура и основные составные части систем ии.
Интерфейсный блок (диалогового обобщения): вход и выход
Блок формирования цели
БД
БЗ
Логический блок (машина вывода)
Блок обучения и самообучения
Блок самодиагностики и контроля
Блок связи с внешней средой (датчики и тд)
Исполнительные подсистемы
В зависимости от целей, для достижения которых строится СИИ, используемых подходов к построению системы структура каждой конкретной прикладной системы может существенно отличаться от других, но все они, так или иначе, имеют общие функциональные блоки. На рис. изображена обобщенная структура интеллектуальной системы и взаимодействие ее компонентов.
В общем случае система получает задание от оператора, однако возможны варианты автономно работающих систем, обеспечивающих управление без вмешательства оператора по заложенному при настройке критерию цели.
При работе с оператором задание в естественной форме (речь, текст, графика) в интерактивном режиме вводится и предварительно обрабатывается подсистемой диалогового обобщения. Интерактивный режим предполагает не только ввод задания, но и обратную выдачу подтверждений о понимании задания или запросов на уточнение непонятных моментов. Оператор, как правило, может также изначально формировать или корректировать основную и вспомогательные БЗ системы, изменяя их содержимое. Подсистема диалогового обобщения для своей работы использует собственную БЗ, содержащую правила анализа и синтеза естественно-языковой или графической информации в ограниченной проблемной области, а также интерпретатор, использующий эту БЗ для преобразования неформализованного знания в формализованное в рамках внутреннего языка системы.
Анализ возможности выполнения задания при существующих на данный момент ресурсах системы и состоянии ее компонентов выполняется подсистемой формирования цели, имеющей свою БЗ и интерпретатор.
Основная БЗ должна содержать формализованное в рамках метода и языка представления знаний системы описание среды, которую должна изменить система, чтобы выполнить задание. Знания о среде формируются подсистемой извлечения знаний. Дополнительные знания о проблеме формируются подсистемой обучения и самообучения. Эти подсистемы имеют собственные БЗ и интерпретаторы.
Обработка цели и знаний о среде ведется подсистемой вывода на знаниях для прогнозирования и формирования управлений. Эта подсистема (называемая также машиной вывода) осуществляет поиск действия для достижения цели, для чего использует собственную БЗ, содержащую правила интерпретации знаний, то есть унификации и поиска.
Подсистемы обработки внешней и внутренней информации производят выявление текущих изменений видов информации с помощью собственных БЗ и интерпретаторов. Получаемая интегрированная информация используется в подсистемах извлечения знаний и контроля и диагностики. Для получения внешней и внутренней информации могут быть использованы различные устройства, связывающие систему со средой (внешние источники информации), а также определяющие ее состояние (датчики состояний). Их набор определяется проблемной ориентацией системы.
Понятие образа. Геометрический и структурный подходы к решению задачи обученя распознаванию образов. Гипотеза компактности.
Образ – группа объектов, объединенных, выделенных по определенному признаку
Класс (Образ) - классификационная группировка в системе классификации, объединяющая (выделяющая) определенную группу объектов по некоторому признаку.
Примеры: столы, кошки, музыка (В качестве образа можно рассматривать и некоторую совокупность состояний объекта управления, причем вся эта совокупность состояний характеризуется тем, что для достижения заданной цели требуется одинаковое воздействие на объект.)
Свойства образа:
ознакомление с конечным числом представителей образа дает возможность идентифицировать принадлежность к образу всех остальных его членов
разные люди, обучающиеся на разном материале, независимо и одинаково идентифицируют объекты, принадлежащие образу, т.е. объекты имеют схожие свойства, часть из которых может быть выражена количественно, т.е. отложена по осям в некоторой системе координат, которая называется признаковым пространством. (объективность образов)
Понятие задачи ОРО: объективный характер основного свойства образов позволяет моделировать процесс их распознавания. В силу свойств образа объекты его составляющие в признаковом пространстве образуют сгустки, отделенные друг от друга разряжениями (Гипотеза компактности: образам соответствуют компактные множества в пространстве признаков – нет теоретической основы – подтверждена практикой). На ее базе разработан геометрический подход к решению задачи обучения распознаванию образов (ОРО).
Описание геометрического подхода:
ограничившись пока случаем распознавания только двух образов. Заранее считается известным лишь то, что требуется разделить две области в некотором пространстве и что показываются точки только из этих областей. Сами области заранее не определены, то есть нет никаких сведений о расположении их границ или правил определения принадлежности точки к той или иной области. В ходе обучения предъявляются точки, случайно выбранные из этих областей, и сообщается информация о том, к какой области принадлежат предъявляемые точки.
Цель обучения состоит либо в построении поверхности, которая разделяла бы не только показанные в процессе обучения точки, но и все остальные точки, принадлежащие этим областям, либо в построении поверхностей, ограничивающих эти области так, чтобы в каждой из них находились только точки одного образа. То есть в поиске простейшей разделяющей функции (которая например, будет положительна для всех точек одного и отрицательны для всех точек другого образа). Тогда, после обучения, система при предъявлении неизвестного объекта будет в состоянии по значению функции отнести его к одному из образов.
Практика показала, что задача будет разрешима только при линейности разделяющей функции, что является свойством линейной разделимости образов. В противном случае – задача неразрешима.
Геометрический подход применим для распознавания образов любой природы.
Описание структурного подхода:
На первый взгляд кажется, что знания всего лишь некоторого количества точек из области недостаточно, чтобы отделить всю область. Действительно, можно указать бесчисленное количество различных областей, которые содержат эти точки, и как бы ни была построена по ним поверхность, выделяющая область, всегда можно указать другую область, которая пересекает поверхность и вместе с тем содержит показанные точки. Однако известно, что задача о приближении функции по информации о ней в ограниченном множестве точек, существенно более узкой, чем все множество, на котором функция задана, является обычной математической задачей об аппроксимации функций. Разумеется, решение таких задач требует введения определенных ограничений на класс рассматриваемых функций, а выбор этих ограничений зависит от характера информации, которую может добавить учитель в процессе обучения. Одной из таких подсказок является гипотеза о компактности образов. Интуитивно ясно, что аппроксимация разделяющей функции будет задачей тем более легкой, чем более компактны и чем более разнесены в пространстве области, подлежащие разделению.
Именно это интуитивное представление о сравнительно легко разделимых областях привело к гипотезе компактности.
Если предположить, что в процессе обучения пространство признаков формируется, исходя из задуманной классификации, то можно надеяться, что задание пространства признаков само по себе задает свойство, под действием которого образы в этом пространстве легко разделяются. Гипотеза компактности гласит: образам соответствуют компактные множества в пространстве признаков. Под компактным множеством пока будем понимать некие "сгустки" точек в пространстве изображений, предполагая, что между этими сгустками существуют разделяющие их разрежения.
Наряду с геометрической интерпретацией проблемы обучения распознаванию образов существует и иной подход, который назван структурным, или лингвистическим. Поясним его на примере распознавания зрительных изображений.
Сначала выделяется набор исходных понятий - типичных фрагментов, встречающихся на изображениях, и характеристик взаимного расположения фрагментов - "слева", "снизу", "внутри" и т.д. Эти исходные понятия образуют словарь, для построения различных логических высказываний (предположений).
Задача состоит в том, чтобы из большого количества высказываний, которые могли бы быть построены с использованием исходных понятий, отобрать наиболее существенные для данного конкретного случая. Далее, просматривая конечное и по возможности небольшое число объектов из каждого образа, нужно построить описание этих образов. Построенные описания должны быть столь полными, чтобы решить вопрос о том, к какому образу принадлежит данный объект. При реализации лингвистического подхода возникают две задачи: задача построения исходного словаря, то есть набора типичных фрагментов, и задача построения правил описания из элементов заданного словаря. В рамках лингвистической интерпретации проводится аналогия между структурой изображений и синтаксисом языка. Стремление к этой аналогии было вызвано возможностью использовать аппарат математической лингвистики, то есть методы по своей природе являются синтаксическими. Использование аппарата математической лингвистики для описания структуры изображений можно применять только после того, как произведена сегментация изображений на составные части, то есть выработаны слова для описания типичных фрагментов и методы их поиска. После предварительной работы, обеспечивающей выделение слов, возникают собственно лингвистические задачи, состоящие из задач автоматического грамматического разбора описаний для распознавания изображений. При этом проявляется самостоятельная область исследований, которая требует не только знания основ математической лингвистики, но и овладения приемами, разработанными специально для лингвистической обработки изображений.
Нейронные сети - обучение c учителем, методы обучения, примеры сетевых структур.
Обучением обычно называют процесс выработки в некоторой системе той или иной реакции на группы внешних идентичных сигналов путем многократного воздействия на систему внешней корректировки. Такую внешнюю корректировку в обучении принято называть "поощрениями" и "наказаниями". Механизм генерации этой корректировки практически полностью определяет алгоритм обучения.
Обучение - это процесс, в результате которого система постепенно приобретает способность отвечать нужными реакциями на определенные совокупности внешних воздействий, а адаптация - это подстройка параметров и структуры системы с целью достижения требуемого качества управления в условиях непрерывных изменений внешних условий.
Методы обучения распознаванию образов.
Предложенный Ф.Розенблаттом метод обучения для однослойных сетей состоит в итерационной подстройке матрицы весов, последовательно уменьшающей ошибку в выходных векторах. Алгоритм включает несколько шагов:
Шаг
0. Начальные значения весов всех нейронов
полагаются случайными.
Шаг
1. Сети предъявляется входной образ x,
в результате формируется выходной образ
.
Шаг
2. Вычисляется вектор ошибки
,
делаемой сетью на выходе. Дальнейшая
идея состоит в том, что изменение вектора
весовых коэффициентов в области малых
ошибок должно быть пропорционально
ошибке на выходе, и равно нулю, если
ошибка равна нулю.
Шаг
3. Вектор весов модифицируется по
следующей формуле:
.
Здесь -
- темп обучения.
Шаг 4. Шаги 1-3 повторяются для всех обучающих векторов. Один цикл последовательного предъявления всей выборки называется эпохой. Обучение завершается по истечении нескольких эпох, а) когда итерации сойдутся, то есть вектор весов перестает изменяться, или б) когда полная просуммированная по всем векторам абсолютная ошибка станет меньше некоторого малого значения.
Используемая на шаге 3 формула учитывает следующие обстоятельства:
а) модифицируются только компоненты матрицы весов, отвечающие ненулевым значениям входов;
б) знак приращения веса соответствует знаку ошибки, то есть положительная ошибка ( > 0, значение выхода меньше требуемого) приводит к усилению связи;
в) обучение каждого нейрона происходит не зависимо от обучения остальных нейронов, что соответствует важному с биологической точки зрения, принципу локальности обучения.
Данный метод обучения был назван Ф.Розенблаттом "методом коррекции с обратной передачей сигнала ошибки". Позднее более широко стало известно название "-правило". Представленный алгоритм относится к широкому классу алгоритмов обучения с учителем, поскольку известны как входные векторы, так и требуемые значения выходных векторов (имеется учитель, способный оценить правильность ответа ученика).
Для обучения многослойной сети Руммельхартом и Хинтоном (Rummelhart, Hinton, 1986) был предложен алгоритм обратного распространения ошибок (error back propagation). Многочисленные публикации о промышленных применениях многослойных сетей с этим алгоритмом обучения подтвердили его принципиальную работоспособность на практике.
алгоритм обучения НС с помощью процедуры обратного распространения подразумевает наличие некоего внешнего звена, предоставляющего сети, кроме входных, также и целевые выходные образы. Алгоритмы, пользующиеся подобной концепцией, называются алгоритмами обучения с учителем. Для их успешного функционирования необходимо наличие экспертов, создающих на предварительном этапе для каждого входного образа эталонный выходной.
Основная идея обратного распространения состоит в том, как получить оценку ошибки для нейронов скрытых слоев. Заметим, что известные ошибки, делаемые нейронами выходного слоя, возникают вследствие неизвестных пока ошибок нейронов скрытых слоев. Чем больше значение синаптической связи между нейроном скрытого слоя и выходным нейроном, тем сильнее ошибка первого влияет на ошибку второго. Следовательно, оценку ошибки элементов скрытых слоев можно получить, как взвешенную сумму ошибок последующих слоев. При обучении информация распространяется от низших слоев иерархии к высшим, а оценки ошибок, делаемые сетью - в обратном направлении, что и отражено в названии метода.
Обучение сводится к решению задачи оптимизации функционала ошибки градиентным методом. Вся "соль" обратного распространения ошибки состоит в том, что в качестве ее оценки для нейронов скрытых слоев можно принять взвешенную сумму ошибок последующего слоя.
практика показывает, что сходимость метода обратного распространения весьма медленная. Невысокий темп сходимости является "генетической болезнью" всех градиентных методов, так как локальное направление градиента отнюдь не совпадает с направлением к минимуму. Во-вторых, подстройка весов выполняется независимо для каждой пары образов обучающей выборки. При этом улучшение функционирования на некоторой заданной паре может, вообще говоря, приводить к ухудшению работы на предыдущих образах. В этом смысле, нет достоверных (кроме обширной практики применения метода) гарантий сходимости.
применение метода градиентного спуска не гарантирует, что будет найден глобальный, а не локальный минимум целевой функции. Эта проблема связана еще с одной, а именно – с выбором величины скорости обучения. Доказательство сходимости обучения в процессе обратного распространения основано на производных, то есть приращения весов и, следовательно, скорость обучения должны быть бесконечно малыми, однако в этом случае обучение будет происходить неприемлемо медленно. С другой стороны, слишком большие коррекции весов могут привести к постоянной неустойчивости процесса обучения. Поэтому в качестве коэффициента скорости обучения обычно выбирается число, меньшее 1, но не очень маленькое, например, 0.1, и оно, вообще говоря, может постепенно уменьшаться в процессе обучения. Кроме того, для исключения случайных попаданий в локальные минимумы иногда, после того как значения весовых коэффициентов застабилизируются, кратковременно сильно увеличивают, чтобы начать градиентный спуск из новой точки. Если повторение этой процедуры несколько раз приведет алгоритм в одно и то же состояние НС, можно более или менее уверенно сказать, что найден глобальный максимум, а не какой-то другой.
Примеры сетевых структур.
Рассмотрим иерархическую сетевую структуру, в которой связанные между собой нейроны (узлы сети) объединены в несколько слоев (рис). На возможность построения таких архитектур указал еще Ф.Розенблатт, однако им не была решена проблема обучения. Межнейронные синаптические связи сети устроены таким образом, что каждый нейрон на данном уровне иерархии принимает и обрабатывает сигналы от каждого нейрона более низкого уровня. Таким образом, в этой сети имеется выделенное направление распространения нейроимпульсов - от входного слоя через один (или несколько) скрытых слоев к выходному слою нейронов. Нейросеть такой топологии будем называть обобщенным многослойным перцептроном или, если это не будет вызывать недоразумений, просто перцептроном.
Перцептрон представляет собой сеть, состоящую из нескольких последовательно соединенных слоев формальных нейронов Мак-Каллока и Питтса. На низшем уровне иерархии находится входной слой, состоящий из сенсорных элементов, задачей которого является только прием и распространение по сети входной информации.
Далее имеются один или, реже, несколько скрытых слоев. Каждый нейрон на скрытом слое имеет несколько входов, соединенных с выходами нейронов предыдущего слоя или непосредственно со входными сенсорами X1..Xn, и один выход. Нейрон характеризуется уникальным вектором весовых коэффициентов w. Веса всех нейронов слоя формируют матрицу, которую мы будем обозначать V или W.
Р
ис.
Структура многослойного перцептрона
с пятью входами,
тремя нейронами в скрытом слое и одним нейроном выходного слоя.
Функция нейрона состоит в вычислении взвешенной суммы его входов с дальнейшим нелинейным преобразованием ее в выходной сигнал:
.
Выходы нейронов последнего, выходного, слоя описывают результат классификации Y = Y(X). Особенности работы перцептрона состоят в следующем. Каждый нейрон суммирует поступающие к нему сигналы от нейронов предыдущего уровня иерархии с весами, определяемыми состояниями синапсов, и формирует ответный сигнал (переходит в возбужденное состояние), если полученная сумма выше порогового значения. Перцептрон переводит входной образ, определяющий степени возбуждения нейронов самого нижнего уровня иерархии, в выходной образ, определяемый нейронами самого верхнего уровня. Число последних, обычно, сравнительно невелико. Состояние возбуждения нейрона на верхнем уровне говорит о принадлежности входного образа к той или иной категории.
Традиционно рассматривается аналоговая логика, при которой допустимые состояния синаптических связей определяются произвольными действительными числами, а степени активности нейронов - действительными числами между 0 и 1. Иногда исследуются также модели с дискретной арифметикой, в которой синапс характеризуется двумя булевыми переменными: активностью (0 или 1) и полярностью (-1 или +1), что соответствует трехзначной логике. Состояния нейронов могут при этом описываться одной булевой переменной. Данный дискретный подход делает конфигурационное пространство состояний нейронной сети конечным (не говоря уже о преимуществах при аппаратной реализации).
Здесь описывается классический вариант многослойной сети с аналоговыми синапсами и сигмоидальной передаточной функцией нейронов, определяемой выше приведенной формулой.
Нейронные сети - без учителя, методы обучения, примеры сетевых структур
Задача обучения без учителя. Задачу такого рода на описательном уровне можно сформулировать следующим образом: системе одновременно или последовательно предъявляются объекты без каких-либо указаний об их принадлежности к образам. Входное устройство системы отображает множество объектов на множество изображений и, используя некоторое заложенное в нее заранее свойство разделимости образов, производит самостоятельную классификацию этих объектов. После такого процесса самообучения система должна приобрести способность к распознаванию не только уже знакомых объектов (объектов из обучающей последовательности), но и тех, которые ранее не предъявлялись.
Процессом самообучения некоторой системы называется такой процесс, в результате которого эта система без подсказки учителя приобретает способность к выработке одинаковых реакций на изображения объектов одного и того же образа и различных реакций на изображения различных образов. Роль учителя при этом состоит лишь в подсказке системе некоторого объективного свойства, одинакового для всех образов и определяющего способность к разделению множества объектов на образы.
Методы бучения без учителя
Главная черта, делающая обучение без учителя привлекательным, - его "самостоятельность". Процесс обучения, как и в случае обучения с учителем, заключается в подстраивании весов синапсов. Некоторые алгоритмы, правда, изменяют и структуру сети, то есть количество нейронов и их взаимосвязи, но такие преобразования правильнее назвать более широким термином – самоорганизацией.
Очевидно, подстройка синапсов может проводиться только по информации, доступной в нейроне, то есть его состоянию и уже имеющимся весовым коэффициентам. Эта идея и, что более важно, аналогия с известными принципами самоорганизации нервных клеток дали основу алгоритмов обучения Хебба.
Сигнальный метод обучения Хебба заключается в изменении весов по следующему правилу:
,
(1)
где: yi(n-1) – выходное значение нейрона i слоя (n-1), yj(n) - выходное значение нейрона j слоя n; wij(t) и wij(t-1) - весовой коэффициент синапса, соединяющего эти нейроны, на итерациях t и t-1 соответственно; - коэффициент скорости обучения. Здесь и далее, для общности, под n подразумевается произвольный слой сети. При обучении по данному методу усиливаются связи между возбужденными нейронами.
Существует также и дифференциальный метод обучения Хебба.
.
(2)
Здесь yi(n-1)(t) и yi(n-1)(t-1) - выходное значение нейрона i слоя n-1 соответственно на итерациях t и t-1; yj(n)(t) и yj(n)(t-1) - то же самое для нейрона j слоя n. Сильнее всего обучаются синапсы, соединяющие те нейроны, выходы которых наиболее динамично изменились в сторону увеличения.
Полный алгоритм обучения с применением вышеприведенных формул будет выглядеть так:
На стадии инициализации всем весовым коэффициентам присваиваются небольшие случайные значения.
На входы сети подается входной образ, и сигналы возбуждения распространяются по всем слоям согласно принципам классических прямопоточных (feedforward) сетей, то есть для каждого нейрона рассчитывается взвешенная сумма его входов, к которой затем применяется активационная (передаточная) функция нейрона, в результате чего получается его выходное значение yi(n), i = 0, ..., Mi-1, где Mi - число нейронов в слое i; n = 0, ..., N-1, а N - число слоев в сети.
На основании полученных выходных значений нейронов по формуле (1) или (2) производится изменение весовых коэффициентов.
Цикл с шага 2, пока выходные значения сети не застабилизируются с заданной точностью. Применение этого нового способа определения завершения обучения, отличного от использовавшегося для сети обратного распространения, обусловлено тем, что подстраиваемые значения синапсов фактически не ограничены. На втором шаге цикла попеременно предъявляются все образы из входного набора.
Следует отметить, что вид откликов на каждый класс входных образов не известен заранее и будет представлять собой произвольное сочетание состояний нейронов выходного слоя, обусловленное случайным распределением весов на стадии инициализации. Вместе с тем, сеть способна обобщать схожие образы, относя их к одному классу. Тестирование обученной сети позволяет определить топологию классов в выходном слое. Для приведения откликов обученной сети к удобному представлению можно дополнить ее слоем, который, например, по алгоритму обучения однослойного перцептрона будет отображать выходные реакции сети в требуемые образы.
Полный алгоритм обучения имеет примерно такую же структуру, как в методах Хебба, но на шаге 3 из всего слоя выбирается нейрон, значения синапсов которого максимально походят на входной образ, и подстройка весов по формуле (3) проводится только для него. Эта так называемая аккредитация может сопровождаться затормаживанием всех остальных нейронов слоя и введением выбранного нейрона в насыщение. Выбор такого нейрона может осуществляться, например, расчетом скалярного произведения вектора весовых коэффициентов с вектором входных значений. Максимальное произведение дает выигравший нейрон.
Другой вариант - расчет расстояния между этими векторами в p-мерном пространстве, где p - размер векторов.
,
(3)
где: j - индекс нейрона в слое n, i - индекс суммирования по нейронам слоя (n-1), wij - вес синапса, соединяющего нейроны; выходы нейронов слоя (n-1) являются входными значениями для слоя n. Корень в формуле (4.41) брать не обязательно, так как важна лишь относительная оценка различных Dj. В данном случае "побеждает" нейрон с наименьшим расстоянием. Иногда слишком часто получающие аккредитацию нейроны принудительно исключаются из рассмотрения, чтобы "уравнять права" всех нейронов слоя. Простейший вариант такого алгоритма заключается в торможении только что выигравшего нейрона.
На основании рассмотренного выше метода строятся нейронные сети особого типа – так называемые самоорганизующиеся структуры – self-organizing feature maps. Для них после выбора из слоя n нейрона j с минимальным расстоянием Dj (3) обучается по формуле (4.40) не только этот нейрон, но и его соседи, расположенные в окрестности R. Величина R на первых итерациях очень большая, так что обучаются все нейроны, но с течением времени она уменьшается до нуля. Поэтому, чем ближе конец обучения, тем точнее определяется группа нейронов для каждого класса образов.
Примеры сетевых стуктур
Модель Кохонена (T.Kohonen, 1982) обобщает предъявляемую информацию. В результате работы НС Кохонена создается образ, представляющий собой карту распределения векторов из обучающей выборки.
Таким образов, в модели Кохонена выполняется решение задачи нахождения кластеров в пространстве входных образов. Такая сеть обучается без учителя на основе самоорганизации. По мере обучения векторы весов нейронов стремятся к центрам кластеров - групп векторов обучающей выборки. На этапе решения информационных задач сеть относит новый предъявленный образ к одному из сформированных кластеров, указывая тем самым категорию, к которой он принадлежит.
Сеть Кохонена состоит из одного слоя нейронов. Число входов каждого нейрона равно размерности входного образа. Количество же нейронов определяется той степенью подробности, с которой требуется выполнить кластеризацию набора библиотечных образов. При достаточном количестве нейронов и удачных параметрах обучения НС Кохонена может не только выделить основные группы образов, но и установить "тонкую структуру" полученных кластеров. При этом близким входным образам будет соответствовать близкие карты нейронной активности.
Р
ис.
Пример карты Кохонена. Размер каждого
квадратика
соответствует степени возбуждения соответствующего нейрона.
Обучение начинается с задания случайных значений матрице связей Wnm. В дальнейшем происходит процесс самоорганизации, состоящий в модификации весов при предъявлении на вход векторов обучающей выборки. Для каждого нейрона можно определить его расстояние до вектора входа:
.
Далее выбирается нейрон m = m*, для которого это расстояние минимально. На текущем шаге обучения t будут модифицироваться только веса нейронов из окрестности нейрона m*:
.
Первоначально в окрестности любого из нейронов находятся все нейроны сети, впоследствии эта окрестность сужается. В конце этапа обучения подстраиваются только веса самого ближайшего нейрона. Темп обучения (t) < 1 с течением времени также уменьшается. Образы обучающей выборки предъявляются последовательно, и каждый раз происходит подстройка весов. Нейронная сеть Кохонена может обучаться и на искаженных версиях входных векторов, в процессе обучения искажения, если они не носят систематического характера, сглаживаются.
Для наглядности представления карты нейроны Кохонена могут быть упорядочены в двумерную матрицу, при этом под окрестностью нейрона-победителя понимаются соседние (по строкам и столбцам) элементы матрицы. Результирующую карту удобно представить в виде двумерного изображения, на котором различные степени возбуждения всех нейронов отображаются квадратами различной площади. Пример карты, построенной по 100 нейронам Кохонена, представлен на рис.
Каждый нейрон несет информацию о кластере - сгустке в пространстве входных образов, формируя для данной группы собирательный образ. Таким образом, НС Кохонена способна к обобщению. Конкретному кластеру могут соответствовать и несколько нейронов с близкими значениями векторов весов, поэтому выход из строя одного нейрона не так критичен для функционирования НС Кохонена.
Методы и алгоритмы ОРО - кластерный анализ, генетический алгоритм.
