- •I. Основные понятия
- •1. Изображение объекта. Виды изображений.
- •2. Образ (класс).
- •9.Примеры задач распознавания.
- •I I Простейшие методы распознавания (сравнение с эталоном)
- •Вопрос 10. Общая характеристика простейших методов распознавания.
- •11. Метод совмещения с эталоном.
- •12. Метод зондов
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Достоинства и недостатки алгоритмов обучения без учителя.
- •V. Применение алгебры высказываний для решения задач распознавания
- •26. Изображающие числа и базис.
- •27. Восстановление булевой функции по изображающему числу.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника решения логических уравнений с помощью булевых матриц.
- •32. Две задачи о замене переменных в булевых функциях.
- •33. Прямая и обратная логические задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •Вопрос 35. Алгоритм вычисления оценок (аво).
- •Вопрос 36. Основные идеи, лежащие в основе аво.
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные процедуры распознав. На основе градиентных методов: минимизация одной ф-ии.
- •41. Итеративные процедуры распознав. На основе градиентных методов: совместная минимизация нескольких ф-ий.
- •42. Алгоритм обучения перцептрона как реализация спец. Стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных ф-ий.
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа.
- •VIII Стохастический подход к распознаванию образов
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •70. Требование к вектору признаков
I I Простейшие методы распознавания (сравнение с эталоном)
Вопрос 10. Общая характеристика простейших методов распознавания.
Идея таких методов состоит в том, что для каждого класса выбирается эталон (характерный представитель класса). Распознающая процедура работает так: анализируемый объект сравнивается с эталонами классов и относится к тому классу, с эталоном которого он согласуется наилучшим образом.
11. Метод совмещения с эталоном.
Для каждого класса выбирается эталон (характерный представитель класса). Распознающая процедура: анализируемый объект сравнивается с эталонами классов и относится к тому классу, с эталоном которого он согласуется наилучшим образом. Иногда требуется просто совпадение с эталоном.
12. Метод зондов
Метод зондов предназначен для распознавания печатных символов. Имеется начертательное поле, в котором расположена система тонкопроводящих зондов. На него накладывается символ-объединение зондов-вырабатывается определенный код символа. Система зондов расположена так, что различным очертаниям одного и того же символа соответствует один и тот же бинарный код. + в том, что зр решается просто. - в сложности построения таких зондов..
13. Квазитопологический метод.
Квазитопологический метод предназначен для распознавания символов. Каждому символу поставлен в соответствие граф в качестве эталона этого символа. РП: к одному классу относятся все очертания символов, графы которых гомеоморфны, то есть могут быть получены друг из друга с помощью взаимооднозначного непрерывного отображения. -: один и тот же граф может соответствовать нескольким символам
14. Достоинства и недостатки простейших методов распознавания
Дост: простота, быстродействие
Недостатки: проблема определения эталонов, узкая специализация эталонов.
III Детерминистские методы, основанные на близости описаний
15. Классификация по единственному эталону каждого класса.
В обуч послед-ть входит по одному представителю (эталону) каждого класса. Определим расстояние м-у вектором признаков и эталоном Zi
РП: xwi i=[arg min D(zi,x)] xwi
относит О-т x к тому из классов, расстояние до которого мин.
Если расстояния одинаковы, то решение выносится произвольно
16. Классификация по множеству эталонов каждого класса.
Классификация по мн-ву эталонов. В обуч пос-ть входит Ni>=1 представителей каждого класса. Найдем расстояние м-у вектором Х и классами w
РП: xwi i=[arg min D(zj,x)] xwi
относит О-т x к тому из классов, расстояние до которого мин.
17. Правило ближайшего соседа.
(БС-правило); это правило относит классифицируемый образ к классу, к которому принадлежит его ближайший сосед, причем образ Si Є {S1, S2, ..., SN} называется ближайшим соседом образа x, если
где D — любое расстояние, определение которого допустимо на пространстве образов.
q-БС правило: вычисляется q ближайших (в смысле некот меры D(zj,x)) соседей х. И х относ к тому классу wi, к которому относится большинство из q ближайших соседей.
18. Достоинства и недостатки методов, основанных на близости описании.
+: Простота реализации
-: Необх хранения всей обуч послед-и. Отсутствие гарантии привильного распознавания, невозможность оценки качества РП
IV. Обучение без учителя
19. Меры сходства изображений, используемые для выявления классов (кластеров).
В качестве меры между образами x и z можно использовать:
Евклидово расстояние: .
косинус угла между векторами,
Мера Танимото - отношение количества совпадающих к количеству различных признаков двух образов.
20. Подходы к построению процедуры классификации (кластеризации).
Эвристический подход предусматривает задание набора правил, основывающихся на использовании выбранной меры сходства для отнесения образов к одному из кластеров. Образ относится к такому кластеру, с центром которого он схож в большей степени.
Подход к кластеризации, предусматривающий использование показателя качества, связан с разработкой процедур, которые обеспечат минимизацию или максимизацию выбранного показателя качества. Одним из наиболее популярных показателей качества является сумма квадратов ошибки
где — число кластеров, — множество образов, относящихся к j-му кластеру, а —вектор выборочных средних значений для множества Sj; Ni характеризует количество образов, входящих во множество Sj.
21. Простой эвристический алгоритм определения кластеров.
Шаг 0. Пусть задано множество N образов X1,…,XN. Пусть центр первого кластера z1 совпадает с любым из заданных образов и определена произвольная неотрицательная пороговая величина t.
Шаг 1. Вычисляется расстояние D21 между образом X2 и центром кластера z1 по формуле евклидового расстояния. Если D21>t, то учреждается новый центр кластера z2=X2. В противном случае образ X2 включается в кластер c центром z1.
Шаг 3. Вычисляются расстояния D31 и D32 от образа X3 до центров кластеров z1 и z2. Если D31>t и D32>t, то учреждается новый центр кластера z3=X3. В противном случае образ X3 зачисляется в тот кластер, чей центр к нему ближе.
Шаг m. Подобным же образом расстояния от каждого нового образа до каждого известного центра кластера вычисляются и сравниваются с пороговой величиной—если все эти расстояния превосходят значение порога t, учреждается новый центр кластера. В противном случае образ зачисляется в кластер с самым близким к нему центром.