
- •1.Персептрон и его роль в становлении распознавания образов.
- •3. Предложить алгоритм автоматической классификации для задачи построения скелета объекта изображения.
- •2. Понятие расстояния в распознавании образов.
- •4. Примеры применения распознавания образов.
- •6. Разработать алгоритм кластерного анализа для построения областей одного цвета.
- •9. Разработка алгоритма самообучения для построения границ областей изображения.
- •21. Предложить алгоритм классификации для задач выделения контура объекта изображения.
- •Оператор Собеля
- •7. Аналогия и задачи распознавания.
- •10. Задача распознавания образов и классификации. Постановка.
- •13. Метод разделяющей функции.
- •14. Гипотеза компактности. Ее значение в распознавании образов.
- •15. Разработать алгоритм таксономического анализа для выделения важных признаков. Ваш вариант.
- •16. Понятие сходства и задача распознавания.
- •17. Привести пример классификации шкал измерений.
- •23. Типы шкал. Примеры.
- •18. Задача выделения осевых линий объектов изображения как задача автоматической классификации.
- •20. Алгоритм классификации типа Форэл.
- •25. Детерминистские методы решения задачи распознавания.
- •26. Метод автоматической классификации типа корреляционных плеяд.
- •28. Задача распознавания без учителя. Метод корреляционных плеяд.
- •29. Реализация метода по определению мер важности объектов в методе потенциальных функций.
- •30. Представить процесс работы системы распознавания рукопечатного текста.
- •39. Представить процесс распознавания рукописного текста. Ваш вариант.
- •31. Задача распознавания без учителя на основе метода потенциальных функций, Алгоритм решения.
- •32. Алгоритм распознавания, основанный на вычислении оценок – перечислить 6 этапов.
- •33. Построить алгоритм таксономического анализа.
- •35. Тестовый подход и его значение для распознавания образов.
- •36.Предложить алгоритм выделения областей постоянной яркости изображения.
- •34. Важность объектов. Выделение значимых объектов при решении задач распознавания.
- •37. Примеры применения распознавания образов:
- •40.Задача распознавания с учителем. Метод комитетов.
- •41.Задачи, решаемые алгоритмами распознавания, основанными на вычислении оценок.
- •42. Привести классификацию шкал по Стивенсону.
- •43. Задача распознавания с обучением как задача оптимизации.
- •44. Представить структуру ппп по распознаванию и классификации образов.
- •45. Представить процесс работы системы Fine Reader.
13. Метод разделяющей функции.
Метод разделяющей функции. Будем искать L функций D1(х),…,DL (х), таких, что для всех x из класса Ki , i = 1, . . ., L, значение i-й функции Di на х, т.е. Di(х), будет больше, чем значение на x всех остальных функций. Такие функции Di(х) называются разделяющими (дискриминантными). Не задаваясь априори никакими дополнительными свойствами функций Di, отыскать их будет затруднительно. Поэтому обычно берут не произвольные разделяющие функции, а обладающие некоторыми простыми свойствами.
Рассмотрим линейные разделяющие функции Di(х), т.е. функции вида
Di(х)
= α
x
+ α
x
+
…+α
x
+
α
,
где x
= (x1
,x2
,…,xn);
α
,
α
,
…,α
,
α
- константы.
Если искать разделяющие функции среди линейных, то граница раздела между классами в пространстве Х есть плоскость в n-мерном пространстве X.
Не умаляя общности будем считать, что L = 2. Это предположение, не является стеснительным.
Если предполагать, что такая плоскость существует, то в соответствии с теоремой Новикова за конечное число шагов можно добиться построения разделяющей классы плоскости.
Если же предполагать существование плоскости, разделяющей два класса, то линейная разделяющая функция должна строится так, чтобы число неправильных распознаваний элементов обучающей последовательности было минимально.
В том случае, когда L > 2, можно считать, что линейная разделяющая функция строится сначала для отделения объектов первого класса (образа) от всех остальных. Далее процедура построения разделяющей функции повторяется на множестве оставшихся объектов с тем, чтобы выделять второй класс и т.п. Поскольку аналогичное рассуждение можно проводить для любой задачи распознавания, это означает, что число классов (образов), на которые классифицируются (распознаются) объекты, всегда можно считать равным 2, что не понижает общности.
В качестве разделяющих функций можно брать и более сложные функции, например, берутся так называемые кусочно-линейные, квадратичные разделяющие функции и т.п.
Естественно, что при построении плоскости, разделяющей два класса, можно ставить вопрос о построении наилучшей в некотором смысле разделяющей плоскости. Такая плоскость будет называться оптимальной.
14. Гипотеза компактности. Ее значение в распознавании образов.
Гипотеза компактности. При формировании образа (класса) человек, по-видимому, выделяет у предъявляемых ему объектов элементы сходства и различия. Наличие этих элементов и позволяет относить объекты к тому или иному образу (классу). По аналогии будем предполагать, что в пространстве признаков объекты, принадлежащие одному и тому же образу, близки, а объекты, принадлежащие различным образам, хорошо разделимы друг от друга. Это предположение о свойствах объектов в пространстве признаков и составляет сущность гипотезы компактности. Конкретизируя, можно сказать, что содержательно гипотеза компактности предполагает:
1) любые две внутренние точки пространства признаков, принадлежащие одному и тому же классу (образу) можно соединить достаточно гладкой кривой, все точки которой будут принадлежать тому же классу (образу);
2) почти все внутренние точки, принадлежащие тому или иному классу (образу), в достаточно большой окрестности имеют только объекты из своего класса (образа);
3) число граничных точек мало.
Гипотеза компактности есть некоторое допущение относительно свойства объектов группироваться в образы в пространстве признаков. Предполагая справедливость гипотезы компактности, мы тем самым обосновываем методически решение задачи распознавания как задачу поиска разбиения пространства объектов с помощью некоторой поверхности. Коль скоро объекты группируются в разделяемые множества (т.е. в образы), то поиск разделяющей поверхности становится оправданным.
Одна
из давно используемых эмпирических
гипотез, известная в литературе по
распознаванию образов под именем
гипотезы
компактности
(обозначим ее через
),
состоит в том, что реализации одного и
того же образа обычно отражаются в
признаковом пространстве в геометрически
близкие точки, образуя «компактные»
сгустки [6]. При всей кажущейся тривиальности
и легкости опровержения указанная
гипотеза лежит в основании большинства
алгоритмов не только распознавания, но
и всех других задач анализа данных.
Конечно, она подтверждается не всегда.
Если, например, среди признаков имеется
много случайных, неинформативных, то
точки одного образа могут оказаться
далекими друг от друга и рассеянными
среди точек других образов. Но дополнительно
предполагается, что в многомерном
признаковом пространстве уже было
найдено такое (информативное)
подпространство, в котором точки одного
класса действительно образуют явно
выделяемые компактные сгустки.
Назовем
признаков,
входящих в информативное подмножество
,
описывающими, а номинальный
-й
признак
,
указывающий имя образа, целевым. Обозначим
множество объектов обучающей выборки
через
,
новый распознаваемый объект через
,
а тот факт, что объекты множества
компактны
(эквивалентны, похожи или близки друг
другу) в пространстве
характеристик
—
через
.
Мера компактности может быть любой: она
может характеризоваться средним
расстоянием от центра тяжести до всех
точек образа; средней длиной ребра
полного графа или ребра кратчайшего
незамкнутого пути, соединяющего точки
одного образа; максимальным расстоянием
между двумя точками образа и т. д.
Например, компактными (эквивалентными)
считаем два объекта, если все признаки
одного объекта равны соответствующим
признакам другого.