
- •I. Основные понятия
- •1. Изображение объекта. Виды изображений.
- •2. Образ (класс).
- •II Простейшие методы распознавания (сравнение с эталоном)
- •Вопрос 10. Общая характеристика простейших методов распознавания.
- •11. Метод совмещения с эталоном.
- •12. Метод зондов
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Достоинства и недостатки алгоритмов обучения без учителя.
- •V. Применение алгебры высказываний для решения задач распознавания
- •26. Изображающие числа и базис.
- •27. Восстановление булевой функции по изображающему числу.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника решения логических уравнений с помощью булевых матриц.
- •32. Две задачи о замене переменных в булевых функциях.
- •33. Прямая и обратная логические задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •Вопрос 35. Алгоритм вычисления оценок (аво).
- •Вопрос 36. Основные идеи, лежащие в основе аво.
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные процедуры распознав. На основе градиентных методов: минимизация одной ф-ии.
- •41. Итеративные процедуры распознав. На основе градиентных методов: совместная минимизация нескольких ф-ий.
- •42. Алгоритм обучения перцептрона как реализация спец. Стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных ф-ий.
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа.
- •VIII Стохастический подход к распознаванию образов
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •70. Требование к вектору признаков
59. Применение мгуа для решения задачи ро
Задачу распознавания образов будем решать с помощью выявления некоторого инвариантного свойства для совокупности изображений, объединяемых в один класс. То есть данное свойство для образов из одного класса примерно одинаково, а для образов из различных классов имеет отличающиеся значения.
Пусть
инвариантным свойством образов класса
будет некоторая функция f(X).
Инвариантность означает, что функция
остается почти одинаковой для всей
совокупности образов одного класса, т.
е.
для класса
;
для класса
и т. д. Функцию f(X)
можно представить как поверхность в
многомерном пространстве, построенную
так, что образам разных классов
соответствуют несвязные отрезки на оси
f.
Решающее правило, основанное на построенной функции, в случае двух классов записывается так:
где
и
- средняя высота поверхности над
изображениями первого и второго классов.
Если
же классов больше двух, то решающее
правило принимает вид
,
где
.
Лингвистический подход к РО
61. Постановка задачи распознавания лингвистических образов.
Пусть изобр-ие предст. собой цепочки в нек-м алфавите V. Любое подмножество есть формальный язык над алфавитом , то каждый класс представляет некоторый язык. Задача классификации в определении принадлежности каждой цепочки к одному из языков.
62. Три способа решения задачи распознавания лингвистических образов.
1. Принцип сравнения с эталоном
,
D(zi,x)
- мера близости.
2. Классификация на основании применения наборов синтаксических правил
xwi если х не противоречит набору правил Si (грамматика)
3. Решение задачи распознования на основе вывода в формальной грамматике. Х относится к языку той грамматики вывод в которой оказался успешным.
63. Зад. восст. грамматики по обучающей выборке
A: St |A| Gt
St={x1,…,xt}
A – Алгоритм восстанавливающий грамматику
Задачу
восстановления грамматики по выборке
будем называть разрешимой, если существует
такой алгоритм А, который строит
грамматику
за конечное число шагов.
64. Информаторное представление задачи восстановления грамматики.
Будем говорить, что задача восстановления грамматики G* дана в информативном представлении, если выполн. следующие условия.
1) t
2) xL(G*) м. найти t’:t>t’, xSt+
3) yVt*\L(G*) м. найти t’’:t>t’’, ySt -
65. Текстуальное представление задачи восстановления грамматики.
Будем говорить, что зададача восст. грамматики G* дана в текстуальном представлении, если выполняется:
1) t
2) xL(G*) м. найти t’:t>t’, xSt
66. Теорема о разрешимости для информаторного представления.
Th.: Пусть Г - это класс разрешимых грамматик. Тогда при информаторном представлении задача восст. грамматики разрешима G*Г
67. Теорема о неразрешимости для текстуального представления
Th.:
Г={грамматики, порожд. все конечные
языки}U {
порожд.
язык}
Тогда задача восст. грамматики при текстуальном представлении для произвольной грамматики из Г неразрешима.
68. Два класса алгоритмов восстановления грамматики.
Существует 2 класса таких алгоритмов
1) восстановление перечислением
2) восстановление индукцией (напр. алгоритм Фельдмана)
69. Алгоритм Фельдмана.
Идея алгоритма Фельдмана заключается в том, чтобы сначала построить не рекурсивную грамматику, порождающую в точности заданные цепочки, и затем, сращивая нетерминальные элементы, получить более простую рекурсивную грамматику, порождающую бесконечное число цепочек.
Алгоритм можно разделить на 3 части:
1) формирование не рекурсивной грамматики
2) преобразование в рекурсивную
3) упрощение грамматики.