- •Раздел II. Распознавание образов Введение
- •Глава 1. Общие основы теории распознавания образов
- •1.1. Основные понятия теории распознавания образов
- •1.2. Основные задачи, возникающие при разработке систем распознавания образов
- •1.3. Основные принципы построения систем распознавания
- •1. Принцип перечисления членов класса
- •2. Принцип общности свойств
- •3. Принцип кластеризации
- •1. Эвристические методы
- •2. Математические методы
- •3. Лингвистические (синтаксические) методы
- •Глава 2. Решающие функции
- •2.1. Общие понятия
- •2.2. Линейные решающие функции
- •Глава 3. Классификаторы образов с самообучением
- •3.1. Классификация образов с помощью функций расстояния
- •3.2. Классификация образов по критерию минимума расстояния
- •1. Случай единственности эталона
- •2. Множественность эталонов
- •3.3. Обобщение принципов классификации по минимуму расстояния
- •Глава 4. Распознавание образов с помощью кластеров
- •4.1. Основные понятия кластерного анализа
- •4.2. Расстояние между образами и мера близости
- •4.3. Расстояние между кластерами
- •4.4. Функционалы качества разбиения
- •4.5. Иерархические процедуры
- •4.6. Эвристические методы и алгоритмы
- •4.7. Алгоритм k – внутригрупповых средних
- •Глава 5. Обучаемые классификаторы образов. Детерминистский подход
- •5.1. Классификация образов с помощью персептронного подхода
- •5.2. Принцип подкрепления - наказания
- •5.3. Сходимость принципа подкрепления - наказания
- •5.4. Обобщение алгоритма персептрона для классификации нескольких классов
- •Глава 6. Распознавание образов на основании метода потенциальных функций
- •6.1. Получение решающих функций
- •6 .2. Выбор потенциальных функций
- •6.3. Сходимость алгоритмов обучения
- •6.4. Обобщение алгоритма метода потенциальных функций на несколько классов
- •Глава 7. Структурное распознавание образов Введение
- •7.1. Синтаксический подход к распознаванию образов
- •7.2. Система синтаксического распознавания образов
- •7.3. Методы предварительной обработки
- •1. Кодирование и аппроксимация
- •2. Фильтрация, восстановление и улучшение
- •3. Сглаживание
- •4. Сегментация
- •7.4. Языки описания образов
- •1. Выбор непроизводных элементов
- •2 Выделение непроизводных элементов на границах
- •Задание для самостоятельной работы
- •7.5. Языки и порождающие грамматики
- •7.6. Обработка изображений
- •1. Классы изображений
- •2. Ввод изображений
- •3. Преобразование изображений
- •Литература
Глава 4. Распознавание образов с помощью кластеров
4.1. Основные понятия кластерного анализа
В задачах распознавания образов группировка первичных данных является основным приемом решения задачи классификации. При наличии нескольких признаков (исходных или обобщенных) задача классификации может быть решена методами кластерного анализа. Основное отличие этих методов заключается в том, что отсутствуют обучающие выборки, т.е. априорная информация о распределении генеральной совокупности, которая представляет собой вектор Х.
Рассмотрим следующую задачу. Пусть исследуется совокупность n объектов, каждый из которых характеризуется Х признаками, измеренными k раз. Требуется разбить эту совокупность на однородные группы (классы). При этом отсутствует априорная информация о характере распределения измерений Х внутри классов.
Полученные в результате разбиения группы называют кластерами (от англ. cluster – группа элементов, характеризуемых каким-либо общим свойством). Методы нахождения кластеров называются кластер – анализом или распознаванием образов с самообучением.
Рассмотрим три различных подхода к проблеме кластерного анализа: эвристический, экстремальный и статистический.
Эвристический подход характеризуется отсутствием формальной модели изучаемого явления и критерия для сравнения различных решений. Основой подхода является алгоритм, построенный исходя из интуитивных соображений.
При экстремальном подходе также не формулируется исходная модель, а задается критерий, определяющий качество разбиения на кластеры. Этот подход полезен, когда цель исследования четко определена. Качество разбиения в этом случае может измеряться эффективностью выполнения цели.
Основой статистического подхода решения задач кластерного анализа является вероятностная модель исследуемого процесса. Данный подход дает возможность решать задачи, связанные с воспроизводимостью результатов кластерного анализа.
Рассмотрим формы представления исходных данных и определение мер близости. В кластерном анализе формой представления исходных данных служит прямоугольная матрица, каждая строка которой представляет результат измерения k признаков на одном из обследованных объектов (образов):
.
В конкретных ситуациях может представлять интерес, как группировка объектов (образов), так и группировка признаков.
Числовые значения, входящие в матрицу Х, могут соответствовать трем типам переменных – количественным, ранговым и качественным. Количественные переменные обладают свойством упорядоченности и над ними можно производить арифметические операции. Значения ранговых переменных тоже упорядочены, и их можно пронумеровать натуральными числами. Однако использование этих чисел в арифметических операциях будет некорректным. Качественными называются переменные, принимающие два (дихотомные) или более значений. Этим значениям также можно поставить в соответствие некоторые числа, но они не будут отражать упорядоченности значений качественной переменной. Упорядоченности подвергаются дихотомные переменные, два значения которых (как правило, они обозначаются числами 0 и 1) можно считать упорядоченными. Желательно, чтобы таблица исходных данных содержала один тип переменных. В противном случае разные типы переменных стараются свести к одному типу.
Матрица Х не является единственным способом представления исходных данных. Исходная информация может быть задана в виде квадратной матрицы
,
i,j=1,2,…,k,
элемент
который определяет
степень близости i
– го образа
к j
– му, т.е. сходство этих образов.
Большинство алгоритмов кластерного анализа исходят из матрицы расстояний (или сходства), либо требуют вычисления отдельных ее элементов. Если данные представлены в форме Х, то первым этапом решения задачи поиска кластеров будет выбор способа вычисления расстояний или близости (сходства) между образами или признаками.
Достаточно просто определяется близость между признаками. Чаще всего мерами близости служат различные статистические коэффициенты связи. Если признаки количественные, то можно использовать оценки обычных парных выборочных коэффициентов корреляции
,
.
Однако коэффициент корреляции измеряет
только линейную связь. Если связь
нелинейная, то следует произвести
подходящее преобразование шкалы
признаков.
Рассмотрим
наиболее распространенные типы
нормировок, переводящих признаки в
безразмерные величины. Пусть имеются
одномерные наблюдения
Нормировки:
,
,
где
- среднее арифметическое,
-
выборочная дисперсия позволяют изменять
масштабы шкал признаков для использования корреляционных статистических связей. Существуют различные коэффициенты связи, определенные для ранговых, качественных и дихотомных переменных.
