
- •Глава 5. Нейросетевые методы распознавания и аппроксимации
- •5.1 Принципы организации и классификация нейронных сетей
- •5.2 Формальный нейрон. Однослойный персептрон
- •5.3 Многослойный персептрон
- •5.3.1 Модель сети
- •5.3.2 Обучение многослойного персептрона
- •Да: перейти на шаг 11. Нет: Перейти на шаг 13.
- •Да: Окончание поиска: нет продвижения к решению. Перейти на шаг 13.
- •Алгоритмы сопряженных градиентов представляют собой подкласс квадратично сходящихся методов. Для алгоритмов сопряженных градиентов шаг 6 обобщенного градиентного алгоритма имеет вид:
- •5.3.3 Следящий алгоритм обучения мнс
- •5.4 Радиально-базисные нейронные сети
- •5.5 Нейронные сети Хопфилда
- •5.5.1 Модель сети Хопфилда
- •5.5.2 Обучение сети Хопфилда распознаванию образов
- •5.5.3 Эффект разнасыщения
- •5.6 Нейронная сеть Хэмминга
- •5.7 Машина Больцмана
- •5.8 Двунаправленная ассоциативная память
- •5.9 Нейросетевой селектор максимума
- •5.10 Карта признаков самоорганизации Кохонена
- •5.10.2 Интерпретация результатов классификации нс Кохонена
- •Блок кпск-азу может быть рекомендован для использования в системах классификации в случае, когда:
- •5.10.3 Выбор метрики и учет информативности признаков
- •Шаг 3. Произвести обучение блока кпск-азу на всей выборке X
- •5.11 Квантование обучающих векторов
- •5.11.1 Модель сети
- •5.11.2 Алгоритм обучения lvq1
- •5.11.3 Алгоритм обучения lvq2
- •5.11.4 Алгоритм обучения lvq3
- •5.11.5 Алгоритм обучения olvq1
- •5.12 Контрастирование нейронных сетей
- •Алгоритм построения и оптимизации модели объекта.
- •Алгоритм контрастирования многослойной нейронной сети.
Шаг 3. Произвести обучение блока кпск-азу на всей выборке X
Шаг 4. Определить число ошибочных решений Nош[p] для p-й метрики в отношении экземпляров, о которых известен фактический номер класса.
Шаг 5. Если p≥Np– перейти на шаг 6, иначе увеличить счетчик p : p=p+1 и перейти на шаг 2.
Шаг 6. В качестве лучшей принимается та метрика dp, для которой Nош[p] – минимально.
Выше рассмотренные метрики, как правило, предполагают, что все признаки, по которым производится классификация, являются одинаково значимыми. Однако на практике признаки разделяются на значимые и незначимые. В отношении некоторых признаков, может быть заранее известно или предполагаться, что они являются наиболее или наименее значимыми, но степень такой значимости точно неизвестна и не позволяет производить классификацию только на основе данного признака или исключить данный признак в случае его малозначимости.
Если использовать такую априорную информацию при обучении НС, то, очевидно, классификация изделий будет производиться с меньшим числом ошибок.
Для КПСК задача состоит в том, чтобы использовать априорную информацию о значимости признаков при вычислении метрики. Для примера, далее будем рассматривать в качестве метрики евклидово расстояние (1). Априорная информация о значимости признаков в КПСК может быть использована путем введения в формулу метрики положительно определенной коэффициентной функции a(i). В этом случае метрика может быть задана в одной из следующих форм:
или
.
Чем информативнее i-й признак, тем меньшее значение должна принимать функция a(i) и, наоборот, чем менее значимый признак – тем большее. Вариантов задания такой функции может быть достаточно много, рассмотрим те из них, что имеют наибольшее практическое значение.
Вариант 1.Если априорно известно о значимости только некоторых признаков, то для тех признаков, которые предположительно значимее других, a(i) полагают равной значению a, 0≤a<1. Если о i-ом признаке известно или предполагается, что он – незначимый или малозначимый, то такой признак либо вообще исключается, либо функцию a(i) полагают равной значению b, b>1. Для признаков, о которых неизвестна априорная информация о значимости функцию a(i) полагают равной 1.
Вариант 2.Значимость признаков определяется степенью их влияния на фактический номер класса, к которому относится экземпляр. В этом случае, функцию a(i) можно положить равной дополнению до единицы модуля коэффициента корреляции i-го признака и номера фактического класса y*:
xs:или использовать алгоритмы определения
информативности признаков.
5.11 Квантование обучающих векторов
Одной из моделей НС, перспективных для диагностики и прогнозирования состояния технических процессов и объектов, является квантование обучающих векторов (Learning Vector Quantization -LVQ).
В основе алгоритмов LVQ лежит механизм обучения слоя конкурирующих нейронов (конкурирующего слоя), контролируемый учителем. Конкурирующий слой может автоматически обучаться классифицировать входные векторы. По-сути, он представляет собой карту признаков самоорганизации Кохонена. Разделение классов, которые определяет карта признаков самоорганизации Кохонена, основано только на расстоянии между входными векторами. Если два входных вектора очень близки, то конкурирующий слой, весьма вероятно, отнесет их к одному классу. Однако, разделение на классы, производимое конкурирующим слоем, как правило, не совпадает с тем, что определяет учитель. Возникает задача разработки механизма, который бы позволял карте признаков самоорганизации Кохонена осуществлять классификацию, близкую к заданной учителем.
Для решения этой задачи могут быть использованы различные методы. В разделе 5.10 рассмотрен метод конструирования и обучения НС, состоящей из карты Кохонена и нейросетевого ассоциативного запоминающего устройства (АЗУ). Достоинствами данного метода являются высокая степень самоорганизации и простота практической реализации. Недостатком является то, что при формировании карты Кохонена не учитываются указания учителя, то есть информация о фактическом разделении классов, что часто приводит к формированию карты Кохонена неоптимальной структуры и иногда не позволяет обучить НС достоверной классификации.
Альтернативным методом, лишенным недостатков этого метода, позволяющим решать поставленную задачу, является LVQ.