- •Раздел II. Распознавание образов Введение
- •Глава 1. Общие основы теории распознавания образов
- •1.1. Основные понятия теории распознавания образов
- •1.2. Основные задачи, возникающие при разработке систем распознавания образов
- •1.3. Основные принципы построения систем распознавания
- •1. Принцип перечисления членов класса
- •2. Принцип общности свойств
- •3. Принцип кластеризации
- •1. Эвристические методы
- •2. Математические методы
- •3. Лингвистические (синтаксические) методы
- •Глава 2. Решающие функции
- •2.1. Общие понятия
- •2.2. Линейные решающие функции
- •Глава 3. Классификаторы образов с самообучением
- •3.1. Классификация образов с помощью функций расстояния
- •3.2. Классификация образов по критерию минимума расстояния
- •1. Случай единственности эталона
- •2. Множественность эталонов
- •3.3. Обобщение принципов классификации по минимуму расстояния
- •Глава 4. Распознавание образов с помощью кластеров
- •4.1. Основные понятия кластерного анализа
- •4.2. Расстояние между образами и мера близости
- •4.3. Расстояние между кластерами
- •4.4. Функционалы качества разбиения
- •4.5. Иерархические процедуры
- •4.6. Эвристические методы и алгоритмы
- •4.7. Алгоритм k – внутригрупповых средних
- •Глава 5. Обучаемые классификаторы образов. Детерминистский подход
- •5.1. Классификация образов с помощью персептронного подхода
- •5.2. Принцип подкрепления - наказания
- •5.3. Сходимость принципа подкрепления - наказания
- •5.4. Обобщение алгоритма персептрона для классификации нескольких классов
- •Глава 6. Распознавание образов на основании метода потенциальных функций
- •6.1. Получение решающих функций
- •6 .2. Выбор потенциальных функций
- •6.3. Сходимость алгоритмов обучения
- •6.4. Обобщение алгоритма метода потенциальных функций на несколько классов
- •Глава 7. Структурное распознавание образов Введение
- •7.1. Синтаксический подход к распознаванию образов
- •7.2. Система синтаксического распознавания образов
- •7.3. Методы предварительной обработки
- •1. Кодирование и аппроксимация
- •2. Фильтрация, восстановление и улучшение
- •3. Сглаживание
- •4. Сегментация
- •7.4. Языки описания образов
- •1. Выбор непроизводных элементов
- •2 Выделение непроизводных элементов на границах
- •Задание для самостоятельной работы
- •7.5. Языки и порождающие грамматики
- •7.6. Обработка изображений
- •1. Классы изображений
- •2. Ввод изображений
- •3. Преобразование изображений
- •Литература
5.4. Обобщение алгоритма персептрона для классификации нескольких классов
Три
случая разделения образов на несколько
классов рассматривались в п. 2.2. В первом
случае каждый из М классов отделялся
от всех остальных единственной разделяющей
поверхностью. Очевидно, все М решающих
функций, необходимых для решения этой
задачи, можно найти с помощью алгоритмов
обучения. Например, чтобы построить
решающую функцию, для i – го класса,
достаточно рассмотреть задачу о
разделении на два класса
и
,
где
обозначает совокупность всех классов,
за исключением класса
.
Во втором случае каждый класс отделим
от любого другого. Задача заключается
в построении
решающих функций. Эти функции можно
найти, применяя алгоритм персептрона
ко всем парам заданных классов. В третьем
случае допускается существование М
решающих функций, которые обладают
следующим свойством:
при
для всех
Алгоритм, который можно применить для непосредственного определения решающих функций в случае 3. Этот алгоритм называют обобщающим алгоритмом персептрона.
Рассмотрим
М классов
Пусть на k-ом шаге итерации процедуры
обучения системе предъявляется образ
Вычисляются значения М решающих функций
.
Затем, если выполняются условия
то векторы весов не изменяются, т.е.
Допустим, с другой стороны, для некоторого n
В этом случае производятся следующие коррекции весов
где c – положительная константа.
Если
в случае 3 классы разделимы, то можно
показать, что этот алгоритм сходится
за конечное число итераций при произвольных
начальных весовых векторах
Рассмотренные алгоритмы используют выборку образов для определения коэффициентов решающих функций. Использование таких алгоритмов при построении классификаторов образов называется этапом обучения.
Способность классификатора к обобщению проверяется при предъявлении ему данных, с которыми он на этом этапе обучения не встречался. Для получения хорошего обобщения при решении задачи разбиения на два класса объем обучающей выборки должен быть равен удвоенной размерности векторов образов.
Компьютерный практикум № 3
Целью практикума является программная реализация «принципа подкрепления – наказания» для распознавания случайных величин с различными законами распределения.
Задачами практикума являются:
формирование случайных величин с нормальным, равномерным и экспоненциальным законом распределения с использованием математического пакета Mathcad;
определение основных характеристик распределения случайных величин по формулам, приведенным в компьютерном практикуме № 1;
описание эталонных образов классов в виде векторов, характеристиками которых являются: математическое ожидание, дисперсия, среднеквадратическое отклонение, эксцесс и асимметрия законов распределения;
применение «принципа подкрепления – наказания» для классификации случайных величин с рассмотренными законами распределения с использованием разделяющей границы
Реализация задания
В качестве примера представлен графический интерфейс программы, выполненной в среде Borland Delphi 7. Она дает возможность определить, к какому из эталонных классов относится вводимый вектор. Форма, предназначенная для реализации классификации образов по принципу подкрепления–наказания, представлена на рис. 5.3.
Рис. 5.3. Форма для принципа подкрепления–наказания
При запуске алгоритма выдается сообщение о том, что идет обработка двух введенных векторов (рис. 5.3).
Рис. 5.4. Сообщения, выдаваемые при обработке двух векторов
После выполнения принципа подкрепления – наказания в окне результатов будут выведены координаты разделяющей границы исходных классов (рис. 5.5).
Рис. 5.5. Результат работы принципа подкрепления – наказания
Задание для самостоятельной работы
Применить принцип подкрепления – наказания для классификации случайных величин с законами распределения: χ2, Стьюдента, Фишера-Снедекора с помощью разделяющей границы
