Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Распознавание образов.doc
Скачиваний:
8
Добавлен:
01.05.2025
Размер:
2.78 Mб
Скачать

5.4. Обобщение алгоритма персептрона для классификации нескольких классов

Три случая разделения образов на несколько классов рассматривались в п. 2.2. В первом случае каждый из М классов отделялся от всех остальных единственной разделяющей поверхностью. Очевидно, все М решающих функций, необходимых для решения этой задачи, можно найти с помощью алгоритмов обучения. Например, чтобы построить решающую функцию, для i – го класса, достаточно рассмотреть задачу о разделении на два класса и , где обозначает совокупность всех классов, за исключением класса . Во втором случае каждый класс отделим от любого другого. Задача заключается в построении решающих функций. Эти функции можно найти, применяя алгоритм персептрона ко всем парам заданных классов. В третьем случае допускается существование М решающих функций, которые обладают следующим свойством:

при для всех

Алгоритм, который можно применить для непосредственного определения решающих функций в случае 3. Этот алгоритм называют обобщающим алгоритмом персептрона.

Рассмотрим М классов Пусть на k-ом шаге итерации процедуры обучения системе предъявляется образ Вычисляются значения М решающих функций

.

Затем, если выполняются условия

то векторы весов не изменяются, т.е.

Допустим, с другой стороны, для некоторого n

В этом случае производятся следующие коррекции весов

где c – положительная константа.

Если в случае 3 классы разделимы, то можно показать, что этот алгоритм сходится за конечное число итераций при произвольных начальных весовых векторах

Рассмотренные алгоритмы используют выборку образов для определения коэффициентов решающих функций. Использование таких алгоритмов при построении классификаторов образов называется этапом обучения.

Способность классификатора к обобщению проверяется при предъявлении ему данных, с которыми он на этом этапе обучения не встречался. Для получения хорошего обобщения при решении задачи разбиения на два класса объем обучающей выборки должен быть равен удвоенной размерности векторов образов.

Компьютерный практикум № 3

Целью практикума является программная реализация «принципа подкрепления – наказания» для распознавания случайных величин с различными законами распределения.

Задачами практикума являются:

  • формирование случайных величин с нормальным, равномерным и экспоненциальным законом распределения с использованием математического пакета Mathcad;

  • определение основных характеристик распределения случайных величин по формулам, приведенным в компьютерном практикуме № 1;

  • описание эталонных образов классов в виде векторов, характеристиками которых являются: математическое ожидание, дисперсия, среднеквадратическое отклонение, эксцесс и асимметрия законов распределения;

  • применение «принципа подкрепления – наказания» для классификации случайных величин с рассмотренными законами распределения с использованием разделяющей границы

Реализация задания

В качестве примера представлен графический интерфейс программы, выполненной в среде Borland Delphi 7. Она дает возможность определить, к какому из эталонных классов относится вводимый вектор. Форма, предназначенная для реализации классификации образов по принципу подкрепления–наказания, представлена на рис. 5.3.

Рис. 5.3. Форма для принципа подкрепления–наказания

При запуске алгоритма выдается сообщение о том, что идет обработка двух введенных векторов (рис. 5.3).

Рис. 5.4. Сообщения, выдаваемые при обработке двух векторов

После выполнения принципа подкрепления – наказания в окне результатов будут выведены координаты разделяющей границы исходных классов (рис. 5.5).

Рис. 5.5. Результат работы принципа подкрепления – наказания

Задание для самостоятельной работы

Применить принцип подкрепления – наказания для классификации случайных величин с законами распределения: χ2, Стьюдента, Фишера-Снедекора с помощью разделяющей границы