Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции по нейроинформатике.doc
Скачиваний:
1
Добавлен:
01.05.2025
Размер:
9.7 Mб
Скачать

Иерархический классификатор

Иерархический классификатор разбивает процесс решения задачи на отдельные этапы. Данный подход позволяет упростить решаемую задачу.

Пример.

Количество сетей Хемминга равно числу классов, при этом выходным сигналом каждого нейрона слоя Кохонена является позиционный код, определяющий номер класса, к которому следует отнести входной образ. Если окажется, что входной образ не ассоциируется ни с одним из существующих классов, то для него может быть выделен новый класс.

Алгоритм обучения и функционирования состоит из двух этапов:

  1. Конкурентное обучение и модификация весовых коэффициентов сети Кохонена.

,

где входной сигнал; весовой коэффициент j-того нейрона; скорость обучения.

  1. Обучение сети Хемминга.

Процесс обучения закончится, когда сеть придет в стабильное состояние.

  1. Подается входной вектор .

  2. Вычисляется норма вектора: , где X – входной вектор, Wij – весовой коэффициент связи i-того нейрона с j-той компонентой входного вектора.

  3. Определяется номер нейрона победителя: .

  4. В соответствии с определенным номером k возбуждается одна из сетей Хемминга, на эту сеть подается входной образ.

  5. Производится итерационная процедура схождения сети Хемминга до тех пор, пока на одном из входов не появится «1», а на других – «0».

Замечание. Процедуры обучения и функционирования сети могут производится параллельно. Для этого вводится коэффициент бдительности ρ, который характеризует допустимую степень отклонения входного образа от образов, хранящихся в сети. Для каждого входного образа вычисляется расстояние , которое характеризует отличие входного образа от образа, хранимого данной сетью Хемминга. Если , то создаётся новый класс, в противном случае, производится обучение сети.

Нейронные сети с функциональными связями

Однослойные нейронные сети либо не позволяют решать некоторые задачи классификации и распознавания, либо приводят к большим погрешностям. С другой стороны, для того чтобы уменьшить время обучения сети лучше использовать однослойные сети. Поэтому применяются такие однослойные нейронные сети, которые реализуют нелинейное разделение – функциональные НС.

Для реализации данного подхода проводят расширение входов НС. Дополнительные входные данные искусственно увеличивают размеры пространства входной информации и наряду с реальными данными составляют обучающую выборку. При этом дополнительные данные должны быть линейно независимы от исходных реальных данных. За счет этого достигается линейная разделимость входного пространства. Основной проблемой реализации функциональных НС является подбор линейно независимых функций.

Пример 1. Решение задачи XOR: дополнительный входной сигнал – произведение входных сигналов x1x2.

x1

x2

x1x2

y

-1

-1

1

1

1

-1

-1

-1

-1

1

-1

-1

1

1

1

1

Пример 2. Сеть с функциональными связями для работы с непрерывными функциями. Дополнительные входные данные генерируются на основе ортогонального базиса функций, таких как, .