- •Раздел II. Распознавание образов Введение
- •Глава 1. Общие основы теории распознавания образов
- •1.1. Основные понятия теории распознавания образов
- •1.2. Основные задачи, возникающие при разработке систем распознавания образов
- •1.3. Основные принципы построения систем распознавания
- •1. Принцип перечисления членов класса
- •2. Принцип общности свойств
- •3. Принцип кластеризации
- •1. Эвристические методы
- •2. Математические методы
- •3. Лингвистические (синтаксические) методы
- •Глава 2. Решающие функции
- •2.1. Общие понятия
- •2.2. Линейные решающие функции
- •Глава 3. Классификаторы образов с самообучением
- •3.1. Классификация образов с помощью функций расстояния
- •3.2. Классификация образов по критерию минимума расстояния
- •1. Случай единственности эталона
- •2. Множественность эталонов
- •3.3. Обобщение принципов классификации по минимуму расстояния
- •Глава 4. Распознавание образов с помощью кластеров
- •4.1. Основные понятия кластерного анализа
- •4.2. Расстояние между образами и мера близости
- •4.3. Расстояние между кластерами
- •4.4. Функционалы качества разбиения
- •4.5. Иерархические процедуры
- •4.6. Эвристические методы и алгоритмы
- •4.7. Алгоритм k – внутригрупповых средних
- •Глава 5. Обучаемые классификаторы образов. Детерминистский подход
- •5.1. Классификация образов с помощью персептронного подхода
- •5.2. Принцип подкрепления - наказания
- •5.3. Сходимость принципа подкрепления - наказания
- •5.4. Обобщение алгоритма персептрона для классификации нескольких классов
- •Глава 6. Распознавание образов на основании метода потенциальных функций
- •6.1. Получение решающих функций
- •6 .2. Выбор потенциальных функций
- •6.3. Сходимость алгоритмов обучения
- •6.4. Обобщение алгоритма метода потенциальных функций на несколько классов
- •Глава 7. Структурное распознавание образов Введение
- •7.1. Синтаксический подход к распознаванию образов
- •7.2. Система синтаксического распознавания образов
- •7.3. Методы предварительной обработки
- •1. Кодирование и аппроксимация
- •2. Фильтрация, восстановление и улучшение
- •3. Сглаживание
- •4. Сегментация
- •7.4. Языки описания образов
- •1. Выбор непроизводных элементов
- •2 Выделение непроизводных элементов на границах
- •Задание для самостоятельной работы
- •7.5. Языки и порождающие грамматики
- •7.6. Обработка изображений
- •1. Классы изображений
- •2. Ввод изображений
- •3. Преобразование изображений
- •Литература
6 .2. Выбор потенциальных функций
Общий вид потенциальных функций К(х,хк) определен формулой (6.1). Хотя при обсуждении математических свойств алгоритмов метода потенциальных функций часто используется разложение в бесконечный ряд, очевидно, что с практической точки зрения это бесполезно. Обычно при реальном построении потенциальных функций пользуются двумя основными методами.
Первый заключается в применении усеченных рядов
(6.16)
где {φi(x)} – ортонормированные функции на множестве образов. Это допущение не вызывает практических затруднений, т.к. ортонормированные функции легко строятся. Коэффициенты λi, входящие в общее выражение потенциальной функции (6.1), связаны с ограниченностью потенциальных функций и для того типа функций, который будет рассматриваться, могут быть опущены. Функции, получаемые согласно (6.15), называются потенциальными функциями типа 1.
Второй метод использует некоторую симметрическую функцию двух переменных x и xk в качестве потенциальной функции. Условие симметричности формулируется так, чтобы полученные в результате потенциальные функции соответствовали их общему определению (6.1). Из этого соотношения, в сущности, следует, что K(x,xk)=K(xk,x). Кроме того, требуется, чтобы выбранные функции допускали разложение в бесконечный ряд. Это условие также соответствует общему определению потенциальной функции (6.1). Функции, удовлетворяющие этим двум условиям, будем называть потенциальными функциями типа 2. Отметим, что наиболее употребительны такие потенциальные функции типа 2:
(6.17)
(6.18)
(6.19)
где
α
– положительная константа, а
– норма вектора (х–хк).
Следует отметить, что эти функции обратно
пропорциональны квадрату расстояния
,
которое служит, в частности, характеристикой
силы в потенциальном поле тяготения.
Методика использования потенциальных функций для построения разделяющих границ рассматривается в примерах 1 и 2.
Пример 1. Рассмотрим применение метода потенциальных функций к образам рис.6.1. Используем потенциальные функции типа 1.
Сначала
выберем подходящее множество
ортонормированных функций {φi(
)}.
Используем полиномиальные функции
Эрмита, так как они нормированы в
интервале
.
В одномерном случае эта функция
определяется формулой
где
выражение при
является ортонормирующим множителем.
Выпишем несколько первых членов функции
Для наглядности воспользуемся ортогональными функциями вместо ортонормированных. В качестве первого приближения выберем m=4 и сформируем ортогональные функции многих переменных из множества ортогональных функций одной переменной.
Воспользовавшись соотношением (6.2), можно сформировать потенциальную функцию
,
где
и
- компоненты вектора
.
В
класс
входят образы
и в класс
- образы
.
Применение алгоритма обучения по методу
потенциальных функций дает следующую
последовательность шагов.
Пусть
- первый предъявленный образ. Поскольку
он принадлежит классу
,
значение кумулятивного потенциала
определяется как
.
Образ
принадлежит классу
.
Вычислим
.
.
Так
как
>0
и
,
то
.
Следующий
предъявленный образ
,
и поскольку
,
т.е.
,
можно считать, что
Четвертый
предъявленный образ
,
и поскольку
,
т.е.
,
следует провести коррекцию:
Очередной цикл итерации по всем образам дает
,
,
,
,
В данном цикле итерации при просмотре всех образов не совершено ни одной ошибки. Это означает, что алгоритм сошелся и выдал решающую функцию
.
Разделяющая граница, заданная этой функцией, приведена на рис. 6.1.
Пример 2. Применим потенциальные функции типа 2 к образам, представленным на рис. 6.2.
В
оспользуемся
потенциальной функцией (6.17) при α=1.
Это приведет в рассматриваемом двумерном
случае к
вида:
В
класс
входят образы
и в класс
- образы
.
Отметим, что эти классы линейно не
разделимы. Применение к этим образам
алгоритма потенциальных функций сводится
к следующим шагам.
Пусть
- образ обучающей выборки, предъявляемый
первым. Поскольку
,
имеем
.
Образ
- элемент обучающей выборки принадлежит
классу
.
Вычислим
:
.
Поэтому имеем
.
Теперь
предъявим
,
принадлежащий классу
,
и вычислим
.
Получим
.
Поскольку
значение кумулятивного потенциала
должно быть меньше нуля, то производится
следующая коррекция
.
Образ
,
предъявляемый следующим, принадлежит
классу
.
Подстановка
в
дает
.
Так
как значение
должно быть меньше нуля, кумулятивный
потенциал подвергается коррекции.
Легко
убедиться в том, что эта функция не
обеспечивает безошибочной классификации
всех образов, входящих в обучающую
выборку. Следовательно, необходим еще
один итерационный цикл.
,
,
,
,
,
,
Поскольку получен цикл итерации, в котором ошибки отсутствовали, это означает, что алгоритм сошелся и выдал решающую функцию
Разделяющая
граница, определяемая уравнением
,
показана на рис. 6.2.
Из сравнения двух примеров следует, что в первом примере алгоритм напоминает алгоритм персептрона, а во втором примере – вид решающей функции зависит от числа коррекций кумулятивного потенциала.
