
- •Раздел II. Распознавание образов Введение
- •Глава 1. Общие основы теории распознавания образов
- •1.1. Основные понятия теории распознавания образов
- •1.2. Основные задачи, возникающие при разработке систем распознавания образов
- •1.3. Основные принципы построения систем распознавания
- •1. Принцип перечисления членов класса
- •2. Принцип общности свойств
- •3. Принцип кластеризации
- •1. Эвристические методы
- •2. Математические методы
- •3. Лингвистические (синтаксические) методы
- •Глава 2. Решающие функции
- •2.1. Общие понятия
- •2.2. Линейные решающие функции
- •Глава 3. Классификаторы образов с самообучением
- •3.1. Классификация образов с помощью функций расстояния
- •3.2. Классификация образов по критерию минимума расстояния
- •1. Случай единственности эталона
- •2. Множественность эталонов
- •3.3. Обобщение принципов классификации по минимуму расстояния
- •Глава 4. Распознавание образов с помощью кластеров
- •4.1. Основные понятия кластерного анализа
- •4.2. Расстояние между образами и мера близости
- •4.3. Расстояние между кластерами
- •4.4. Функционалы качества разбиения
- •4.5. Иерархические процедуры
- •4.6. Эвристические методы и алгоритмы
- •4.7. Алгоритм k – внутригрупповых средних
- •Глава 5. Обучаемые классификаторы образов. Детерминистский подход
- •5.1. Классификация образов с помощью персептронного подхода
- •5.2. Принцип подкрепления - наказания
- •5.3. Сходимость принципа подкрепления - наказания
- •5.4. Обобщение алгоритма персептрона для классификации нескольких классов
- •Глава 6. Распознавание образов на основании метода потенциальных функций
- •6.1. Получение решающих функций
- •6 .2. Выбор потенциальных функций
- •6.3. Сходимость алгоритмов обучения
- •6.4. Обобщение алгоритма метода потенциальных функций на несколько классов
- •Глава 7. Структурное распознавание образов Введение
- •7.1. Синтаксический подход к распознаванию образов
- •7.2. Система синтаксического распознавания образов
- •7.3. Методы предварительной обработки
- •1. Кодирование и аппроксимация
- •2. Фильтрация, восстановление и улучшение
- •3. Сглаживание
- •4. Сегментация
- •7.4. Языки описания образов
- •1. Выбор непроизводных элементов
- •2 Выделение непроизводных элементов на границах
- •Задание для самостоятельной работы
- •7.5. Языки и порождающие грамматики
- •7.6. Обработка изображений
- •1. Классы изображений
- •2. Ввод изображений
- •3. Преобразование изображений
- •Литература
6.3. Сходимость алгоритмов обучения
Рассмотрим теоремы, которые играют фундаментальную роль в классификации методом потенциальных функций.
Теорема 1. (О свойствах сходимости алгоритма)
Пусть
векторы образов
удовлетворяют в пространстве образов
следующим условиям.
Потенциальная функция (6.1) ограничена для
(Т1 и Т2 – обучающие множества).
Существует решающая функция, представимая в виде (6.2)
такая, что
(6.20)
где ε>0.
Обучающая выборка образов обладает следующими статистическими свойствами:
а) в обучающей последовательности выборочные образы появляются независимо,
б)
если на k –
м шаге итерации алгоритма обучения
решающая функция
не обеспечивает правильной классификации
всех образов
,
то с достаточно большой вероятностью
будет предъявлен образ
,
корректирующий ошибку.
Тогда с вероятностью 1 можно определить конечное число шагов R таких, что кумулятивный потенциал
■
Другими
словами, последовательная аппроксимация
решающей функции
с вероятностью 1 сходится к решающей
функции
за конечное число предъявлений образов
обучающей выборки. Это означает, что
разделение классов
и
осуществляется за конечное число шагов
с вероятностью 1.
Теорема 2. (О скорости сходимости алгоритма)
Пусть
- бесконечная последовательность
обучающих образов, выбранных из обучающего
множества
,
причем
и
.
Допустим, что потенциальная функция
ограничена при
и существует решающая функция, представимая
разложением (6.2) и удовлетворяющая
условиям (6.20). Тогда существует целое
число
,
не
зависящее от выбора обучающей
последовательности
и такое, что при использовании алгоритмов
итеративного вычисления кумулятивного
потенциала и решающей функции число
коррекций не превышает величины R.■
Эта
теорема утверждает, что размер
последовательности, корректирующей
ошибки, уменьшается по мере удаления
образов обучающей выборки от разделяющей
границы
,
т.е. по мере удаления их друг от друга.
Теорема 3. (Условия прекращения выполнения алгоритма)
Пусть
процесс обучения прекращается, если
после осуществления k коррекций
неправильной классификации, при
предъявлении
следующих выборочных образов никакие
коррекции больше не производятся.
Другими словами, процесс обучения
прекращается после предъявления
выборочных образов, где
определяется выражением
Таким
образом, общее число предъявлений
образов, необходимое для прекращения
работы алгоритма, увеличивается на
единицу после каждой коррекции
неправильной классификации. Задача
заключается в определении числа
контрольных выборочных образов
,
необходимых для обеспечения заданного
качества процедуры обучения. Обозначим
через
- вероятность совершения ошибки после
предъявления системе
выборочных образов. Тогда для любых ε>0
и δ>0
вероятность того, что
,
будет больше чем 1-δ,
если
.■
Отметим, что выбор числа контрольных выборочных образов зависит, согласно этому неравенству, только от заданных значений ε и δ, характеризующих качество обучающей процедуры. Выбор величины не зависит от свойств классов и и статистических характеристик образов.