- •Раздел II. Распознавание образов Введение
- •Глава 1. Общие основы теории распознавания образов
- •1.1. Основные понятия теории распознавания образов
- •1.2. Основные задачи, возникающие при разработке систем распознавания образов
- •1.3. Основные принципы построения систем распознавания
- •1. Принцип перечисления членов класса
- •2. Принцип общности свойств
- •3. Принцип кластеризации
- •1. Эвристические методы
- •2. Математические методы
- •3. Лингвистические (синтаксические) методы
- •Глава 2. Решающие функции
- •2.1. Общие понятия
- •2.2. Линейные решающие функции
- •Глава 3. Классификаторы образов с самообучением
- •3.1. Классификация образов с помощью функций расстояния
- •3.2. Классификация образов по критерию минимума расстояния
- •1. Случай единственности эталона
- •2. Множественность эталонов
- •3.3. Обобщение принципов классификации по минимуму расстояния
- •Глава 4. Распознавание образов с помощью кластеров
- •4.1. Основные понятия кластерного анализа
- •4.2. Расстояние между образами и мера близости
- •4.3. Расстояние между кластерами
- •4.4. Функционалы качества разбиения
- •4.5. Иерархические процедуры
- •4.6. Эвристические методы и алгоритмы
- •4.7. Алгоритм k – внутригрупповых средних
- •Глава 5. Обучаемые классификаторы образов. Детерминистский подход
- •5.1. Классификация образов с помощью персептронного подхода
- •5.2. Принцип подкрепления - наказания
- •5.3. Сходимость принципа подкрепления - наказания
- •5.4. Обобщение алгоритма персептрона для классификации нескольких классов
- •Глава 6. Распознавание образов на основании метода потенциальных функций
- •6.1. Получение решающих функций
- •6 .2. Выбор потенциальных функций
- •6.3. Сходимость алгоритмов обучения
- •6.4. Обобщение алгоритма метода потенциальных функций на несколько классов
- •Глава 7. Структурное распознавание образов Введение
- •7.1. Синтаксический подход к распознаванию образов
- •7.2. Система синтаксического распознавания образов
- •7.3. Методы предварительной обработки
- •1. Кодирование и аппроксимация
- •2. Фильтрация, восстановление и улучшение
- •3. Сглаживание
- •4. Сегментация
- •7.4. Языки описания образов
- •1. Выбор непроизводных элементов
- •2 Выделение непроизводных элементов на границах
- •Задание для самостоятельной работы
- •7.5. Языки и порождающие грамматики
- •7.6. Обработка изображений
- •1. Классы изображений
- •2. Ввод изображений
- •3. Преобразование изображений
- •Литература
4.6. Эвристические методы и алгоритмы
Подавляющая часть классификаций на практике производится эвристическими методами. Это объясняется относительной простотой и содержательной ясностью таких алгоритмов. Эти алгоритмы допускают вмешательство в их работу путем изменения одного или нескольких параметров, кроме того, они обладают невысокой трудоемкостью. Наиболее распространенные эвристические алгоритмы используют для своей реализации различные типы классов. Разделение классов на типы впервые осуществил советский ученый Миркин Б.Г. Какие множества называются группами однородных объектов или классов можно уточнить на основе заданного расстояния между объектами. Выделим некоторые типы классов[5].
1. Класс типа ядра. Такой класс называется сгущением. Все расстояния между объектами внутри класса меньше любого из расстояний между объектами класса и остальной частью множества объектов. На рис. 4.3 сгущениями являются А и В. Остальные пары множеств не разделяются с помощью этого определения.
2. Кластер (сгущение в среднем). Среднее расстояние внутри класса меньше среднего расстояния от объектов класса до всех остальных. Множества С и Д теперь разделяются, но у Е(G) среднее внутреннее расстояние больше, чем среднее расстояние между Е и F (G и H).
3.
Класс типа ленты (слабое
сгущение).
Существует пороговое значение Т>0
такое, что для любого
из класса S
найдется
такой объект
,
что
,
а для всех
справедливо
неравенство
.
В смысле этого определения на рис. 4.3
разделяются все пары множеств кроме I
и J, K и L.
4. Класс с центром. Существует порог R>0 и некоторая точка x* в пространстве, занимаемом объектами класса S, такие, что все объекты из S и только они содержатся в шаре радиуса R с центром в x*. Часто в качестве x* выступает центр масс класса S, т.е. координаты центра определяются как средние значения признаков у объектов класса. Множества I и J являются классами с центром, а E, F и G – нет.
Рис. 4.3. Типы классов
Рассмотрим наиболее часто используемые эвристические алгоритмы.
1. Метод К-средних предназначен для выделения и распознавания классов типа 4 («класс с центром»). Приведем два варианта.
а). Алгоритм Г. Бола и Д. Холла был предложен в 1965 году. Суть алгоритма состоит в следующем. Случайно выбираются К объектов (эталонов). Каждый объект присоединяется к ближайшему эталону (тем самым образуются К классов), в качестве новых эталонов принимаются центры масс классов. Считается, что каждому объекту приписана масса 1. После пересчета объекты снова распределяются по ближайшим эталонам и т.д. Критерием окончания алгоритма служит стабилизация центров масс всех классов.
б).
Алгоритм Дж. Мак-Кина предложен в 1967
году. Он отличается от метода Бола и
Холла тем, что при просмотре списка
объектов пересчет центра масс класса
происходит после присоединения к нему
каждого очередного объекта. Этот алгоритм
связан с функционалом качества разбиения
- сумма внутриклассовых дисперсий.
2. Алгоритм «Форель». Первоначальное название этого алгоритма
было: ФОРЭЛ – ФОР малый ЭЛемент. Этот алгоритм предложен в 1966 году Елкиной В.Н. и Загоруйко Н.Г. Этот алгоритм выполняется следующим образом. Случайный объект объявляется центром класса; все объекты, находящиеся от него на расстоянии не большем R, входят в первый класс. В нем определяется центр масс, который объявляется новым центром класса и т.д. до стабилизации центра. Затем все объекты, попавшие в первый класс, изымаются, и процедура повторяется с новым случайным центром.
После проведения классификации важно в удобной форме представить ее результаты. Для этого необходимы следующие характеристики классификации.
Распределение номеров объектов по номерам классов.
Гистограмма межобъектных расстояний.
Средние внутриклассовые расстояния.
Матрица средних межклассовых расстояний.
Визуальное представление данных на плоскости двух (в пространстве трех) «наиболее информативных» признаков.
Дендрограмма для иерархических процедур.
Средние значения и размахи во всех классах для каждого признака.
Последний пункт очень важен, так как в большинстве случаев описание классов происходит по средним значениям признаков в них. Сопоставление средних значений для заданного признака наиболее просто осуществляется, если классы не имеют наложения проекций. Степень разделенности классов по каждой оси можно охарактеризовать с помощью коэффициента
,
где
Ri
– размах по
заданному признаку l
– го класса, а
- длины наложений проекций классов на
ось признака. Если γ=1, то классы полностью
разделены. Чем ближе γ к 0, тем больше
наложение проекций классов друг на
друга.
Посторенние кластеров можно рассматривать как задачу распознавания образов без учителя.
Пусть
для заданного множества образов
отсутствует информация, касающаяся
числа классов, на которые разбивается
выборка. Задачу обучения без учителя
можно сформулировать как задачу
идентификации классов в заданном
множестве образов. Если в качестве
средства представления использовать
центры кластеров, то одним из способов
описания заданного множества данных
является идентификация классов.
Применение алгоритмов кластеризации
для решения задачи обучения без учителя
не вызывает затруднений. Пусть задано
множество образов
,
классификация которых неизвестна. К
ним можно применить один из алгоритмов,
чтобы идентифицировать представительные
центры кластеров. Полученные в результате
кластеры можно считать классами образов.
После того, как «классы» определены
таким способом, их можно использовать
для получения решающих функций с помощью
алгоритмов обучения, которые далее
будут рассмотрены. С другой стороны,
центры кластеров, выделенные в процессе
реализации этапа обучения без учителя,
можно использовать как основу для
построения классификатора, действующего
по принципу минимума расстояния.
