- •Раздел II. Распознавание образов Введение
- •Глава 1. Общие основы теории распознавания образов
- •1.1. Основные понятия теории распознавания образов
- •1.2. Основные задачи, возникающие при разработке систем распознавания образов
- •1.3. Основные принципы построения систем распознавания
- •1. Принцип перечисления членов класса
- •2. Принцип общности свойств
- •3. Принцип кластеризации
- •1. Эвристические методы
- •2. Математические методы
- •3. Лингвистические (синтаксические) методы
- •Глава 2. Решающие функции
- •2.1. Общие понятия
- •2.2. Линейные решающие функции
- •Глава 3. Классификаторы образов с самообучением
- •3.1. Классификация образов с помощью функций расстояния
- •3.2. Классификация образов по критерию минимума расстояния
- •1. Случай единственности эталона
- •2. Множественность эталонов
- •3.3. Обобщение принципов классификации по минимуму расстояния
- •Глава 4. Распознавание образов с помощью кластеров
- •4.1. Основные понятия кластерного анализа
- •4.2. Расстояние между образами и мера близости
- •4.3. Расстояние между кластерами
- •4.4. Функционалы качества разбиения
- •4.5. Иерархические процедуры
- •4.6. Эвристические методы и алгоритмы
- •4.7. Алгоритм k – внутригрупповых средних
- •Глава 5. Обучаемые классификаторы образов. Детерминистский подход
- •5.1. Классификация образов с помощью персептронного подхода
- •5.2. Принцип подкрепления - наказания
- •5.3. Сходимость принципа подкрепления - наказания
- •5.4. Обобщение алгоритма персептрона для классификации нескольких классов
- •Глава 6. Распознавание образов на основании метода потенциальных функций
- •6.1. Получение решающих функций
- •6 .2. Выбор потенциальных функций
- •6.3. Сходимость алгоритмов обучения
- •6.4. Обобщение алгоритма метода потенциальных функций на несколько классов
- •Глава 7. Структурное распознавание образов Введение
- •7.1. Синтаксический подход к распознаванию образов
- •7.2. Система синтаксического распознавания образов
- •7.3. Методы предварительной обработки
- •1. Кодирование и аппроксимация
- •2. Фильтрация, восстановление и улучшение
- •3. Сглаживание
- •4. Сегментация
- •7.4. Языки описания образов
- •1. Выбор непроизводных элементов
- •2 Выделение непроизводных элементов на границах
- •Задание для самостоятельной работы
- •7.5. Языки и порождающие грамматики
- •7.6. Обработка изображений
- •1. Классы изображений
- •2. Ввод изображений
- •3. Преобразование изображений
- •Литература
Глава 5. Обучаемые классификаторы образов. Детерминистский подход
В
данной и следующей главе рассматриваются
классификаторы образов, решающие функции
которых строятся по заданной выборке
образов с помощью итеративных «обучающих»
алгоритмов. Известно, что если выбран
тип решающей функции, задача заключается
в определении коэффициентов. Алгоритмы,
которые будут рассмотрены ниже, позволяют
определять коэффициенты искомого
решения посредством обучения по заданным
множествам образов при условии, что
обучающие множества разделяются
выбранными решающими функциями. В п.
2.2 было показано, что решение задачи о
разделении на два класса эквивалентно
решению системы линейных неравенств.
Итак, если заданы два множества образов,
принадлежащих классам
и
,
то решение ищется в виде вектора весов
,
который обладает следующим свойством.
Если выполняется условие
,
то образы принадлежат классу
,
если
,
то к классу
.
Если образы класса
умножить на (-1), то условие
становится общим для всех образов. Пусть
N
– общее количество пополненных выборочных
образов обоих классов. Задача сводится
к отысканию вектора весов
,
для которого справедливы следующие
неравенства
,
(5.1)
где
,
0 – нулевой вектор.
΄ - знак транспонирования
Если вектор весов , удовлетворяющий неравенству (5.1) существует, то неравенства называются совместными, в противном случае – несовместны. На языке распознавания образов это означает, что классы разделимы или неразделимы. Для решения системы (5.1) можно использовать детерминистский или статистический подход. Алгоритмы, которые рассмотрены в главе 5 и 6, основаны на детерминистском подходе.
5.1. Классификация образов с помощью персептронного подхода
В середине 50-х и начале 60-х годов многие исследователи считали, что класс устройств, предложенных Розенблаттом в 1958 году и называемых обычно персептронами, представляет модель процесса обучения машины, обладающую большими возможностями [1].
Основная модель персептрона, обеспечивающая отнесение образа к одному из двух заданных классов, приведена на рисунке 5.1. Устройство состоит из сетчатки Ѕ сенсорных элементов, которые случайным образом соединены с ассоциативными элементами второй сетчатки А. Каждый из элементов второй сетчатки, воспроизводит выходной сигнал только в том случае, если достаточное число сенсорных элементов, соединенных с его входом, находится в возбужденном состоянии. Сенсорные элементы можно рассматривать в качестве устройств, с помощью которых вся система, воспринимает из внешней среды стимулы, т.е. как некие измерительные устройства, а ассоциативные элементы – как входную часть системы.
Реакция
всей системы пропорциональна сумме
взятых с определенными весами реакций
элементов ассоциативной сетчатки; таким
образом, обозначив через xi
реакцию i-го
ассоциативного элемента и через
i
– соответствующий вес, реакцию системы
можно записать как
.
(5.2)
Если R>0, значит образ, предъявленный системе, принадлежит классу ω1; если R<0, то образ относится к классу ω2. Основная персептронная модель представляет собой, за исключением сенсорной сетки, не что иное, как реализацию линейной решающей функции.
Рис. 5.1. Основной вариант модели персептрона
