- •I. Основные понятия
- •1. Изображение объекта. Виды изображений.
- •2. Образ (класс).
- •9.Примеры задач распознавания.
- •I I Простейшие методы распознавания (сравнение с эталоном)
- •Вопрос 10. Общая характеристика простейших методов распознавания.
- •11. Метод совмещения с эталоном.
- •12. Метод зондов
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Достоинства и недостатки алгоритмов обучения без учителя.
- •V. Применение алгебры высказываний для решения задач распознавания
- •26. Изображающие числа и базис.
- •27. Восстановление булевой функции по изображающему числу.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника решения логических уравнений с помощью булевых матриц.
- •32. Две задачи о замене переменных в булевых функциях.
- •33. Прямая и обратная логические задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •Вопрос 35. Алгоритм вычисления оценок (аво).
- •Вопрос 36. Основные идеи, лежащие в основе аво.
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные процедуры распознав. На основе градиентных методов: минимизация одной ф-ии.
- •41. Итеративные процедуры распознав. На основе градиентных методов: совместная минимизация нескольких ф-ий.
- •42. Алгоритм обучения перцептрона как реализация спец. Стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных ф-ий.
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа.
- •VIII Стохастический подход к распознаванию образов
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •70. Требование к вектору признаков
48. Условный риск. Общий риск.
Введем вел-ну
- усл-е мат. ожидание потерь от принятия реш-я di при усл-и, что X=x. Эту величину называют условный риск.
Введем в рассм-е функцию d(x) – каждому в-ру x ставит в соотв-е некот реш-е из мн-ва реш-й D.
-усл. мат. ожид-е потерь при усл-и, что исп. реш. ф-я d(x)
Безусловное мат ожид-е потерь при использовании решающего правила d(x) есть
R(d) назыв. общим риском.
.
49. Постановка байесовской задачи решения. Оптимальное решающее правило. Связь с задачей распознавания.
Рассмотри след. экстремальную задачу: Найти такое dopt, чтобы R(d)->min. Поставленная задача решается очень просто
. Это решающее правило наз-ся байесовским. задача распознавания образов получается, если между элементами множества d и w установим взаимооднозначное соответствие (p=m)
Решение заключается в отнесении вектора х к одному из классов w1, w2,... ,wm.
50. Классификация с минимальной вероятностью ошибки.
Рас-им случай, когда принятие любого неправ. решения одинаково нежелательно.
Для заданной L байесовское решающее правило будет обеспечивать минимальную вероятность ошибки классификации.
R(d)= =1-P(w) – безусловная вер-ть ошибки классификации в случае d=w.
51. Минимаксное решающее правило.
- такой набор вер-тей, при котором байесовский риск принимает максимальное значение. Т.о. d(x) обеспечивает минимальный риск при принятии решения в наиболее неблагоприятной ситуации.
52. Процедура Неймана-Пирсона.
m=2. w1, w2.
X=(X1,….,Xn) при w1 имеет з-н распределения f(x), а при w2 g(x). Т.е. имеет место две гипотезы: H0: f(x), H1:g(x).
По реализации Х определить w1 или w2. Изображение х=(х1, …, хn) рассмотрим как точку в евклидовом пр-ве R^n. Такое пр-во наз-ся пр-вом выборок. Выделим область V в R^n. Тогда любое правило можно сформулировать так: если х в V, то Н0 следует отвергнуть (Н1 принять). Область V наз-ся критической областью.
- ошибка 1 рода.
1-P(V/H1) – вер-ть ошибки 2 рода.
Приходим к след. экстремальной задаче. найти V:
P(V/H1)- мощность критерия или правила.
Рассмотрим R^n\T, где Т: f(x)=0; при этом условия задачи нарушены не будут.
Рассмотрим V={x:g(x)/(f(x)>=c}, c>0. c опр-ся из P{g(x)/f(x)>=c/H0}=a. Это и есть решение задачи.
f(x) наз-ся ф-я правдоподобия гипотезы Н0. g(x) - -//- H1.
g(x)/f(x) – отношение правдоподобия.
Критерий с крит. области V наз-ся процедурой Неймона-Пирсона.
53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
любое правило можно сформулировать так: если х в V, то Н0 следует отвергнуть (Н1 принять). Область V наз-ся критической областью.
- ошибка 1 рода.
1-P(V/H1) – вер-ть ошибки 2 рода.
Приходим к след. экстремальной задаче. найти V:
Рассмотрим V={x:g(x)/(f(x)>=c}, c>0. c опр-ся из P{g(x)/f(x)>=c/H0}=a.
Покажем это
P(W/H0)<=a
P(V/H0)=P(A/H0)+P(D/H0)=a
P(W/H0)=P(B/H0)+P(D/H0)<=a
P(A/H0)>=P(B/H0)
P(V/H1)=P(A/H1)+P(D/H1)=P(D/H1)+ >=P(D/H1)+ >=P(D/H1)+ >P(D/H1)+ =P(D/H1)+P(B/H1)=P(W/H1)
Таким образом P(V/H1)>P(W/H1). процедура Неймана-Пирсона оптимальна.