
- •I. Основные понятия
- •1. Изображение объекта. Виды изображений.
- •2. Образ (класс).
- •II Простейшие методы распознавания (сравнение с эталоном)
- •Вопрос 10. Общая характеристика простейших методов распознавания.
- •11. Метод совмещения с эталоном.
- •12. Метод зондов
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Достоинства и недостатки алгоритмов обучения без учителя.
- •V. Применение алгебры высказываний для решения задач распознавания
- •26. Изображающие числа и базис.
- •27. Восстановление булевой функции по изображающему числу.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника решения логических уравнений с помощью булевых матриц.
- •32. Две задачи о замене переменных в булевых функциях.
- •33. Прямая и обратная логические задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •Вопрос 35. Алгоритм вычисления оценок (аво).
- •Вопрос 36. Основные идеи, лежащие в основе аво.
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные процедуры распознав. На основе градиентных методов: минимизация одной ф-ии.
- •41. Итеративные процедуры распознав. На основе градиентных методов: совместная минимизация нескольких ф-ий.
- •42. Алгоритм обучения перцептрона как реализация спец. Стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных ф-ий.
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа.
- •VIII Стохастический подход к распознаванию образов
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •70. Требование к вектору признаков
43. Физическая интерпретация метода потенциальных ф-ий.
Допустим, что необходимо разделить два класса ω1 и ω2 . Выборочные образы, принадлежащие обоим классам, представлены векторами или точками в n-мерном пространстве образов.
Если ввести аналогию между точками, представляющими выборочные образы, и некоторым источником энергии, то в любой из этих точек потенциал достигает максимального значения и быстро уменьшается при переходе во всякую точку, отстоящую от точки, представляющей выборочный образ xk.
На основе этой аналогии можно допустить существование эквипотенциальных контуров, которые описываются потенциальной функцией K(x, xk). Можно считать, что кластер, образованный выборочными образами, принадлежащими классу ω1, образует «плато», причем выборочные образы размещаются на вершинах некоторой группы холмов. Подобную геометрическую интерпретацию можно ввести и для образов класса ω2. Эти два «плато» разделены «долиной», в которой, как считается, потенциал падает до нуля. На основе таких интуитивных доводов создан метод потенциальных функций, позволяющий при проведении классификации определять решающие функции.
44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
В начале этапа обучения исходное значение к. п. K0(x) полагается=0. При предъявлении первого образа x1 из обуч. выборки значение к. п. просто = зн-ию потенц. ф-ии для выбороч. образа x1. Потенциал предполагается положительным для образов, принадлежащих классу ω1, и отрицательным для образов, принадлежащих классу ω2.
На k+1
шаге
где коэфф-ты rk+1 при корректирующем члене опр-ся соотношениями
45. Теоремы о сходимости обучения классификации методом потенциальных функций.
Теорема о скорости сходимости алгоритмов обучения.
Пусть
(44)
— бесконеч. послед-ть обучающих образов,
выбранных из обучающего мн-ва
,
причем
и
.
Пусть потенц. ф-ия K(x,xj)
ограничена при
и
сущ. решающая ф-ия, представимая
разложением
и удовлетв. условиям:
,
где ε>0
Тогда сущ. целое число
,
(45)
не зависящее от выбора обучающей послед-ти Sx и такое, что при исп-ии алгоритмов число коррекций не превышает величины R.
Теорема. (О свойствах сходимости алгоритма)
Пусть векторы образов x удовлетворяют в пространстве образов следующим условиям:
1. Потенциальная
функция
ограничена для
.
2. Сущ. решающ. ф-ия, представимая в виде , такая, что
, где ε>0
3.Обучающая выборка образов обладает следующ. св-ми: (а) в обучающей послед-ти выборочные образы появ-ся независимо.; (б) если на k-том шаге алгоритма обучения решающая ф-ия не обеспечивает прав. классиф-ии всех образов x1,x2,…,xk, то с положительной вероятностью будет предъявлен образ xk+1, корректирующий ошибку.
Тогда с вероятностью 1 можно определить конечное число шагов R таких, что кумулятивный потенциал
46. Достоинства и недостатки распознающих процедур перцептронного типа.
+: возможность обучения при опред-х условиях безошибочной классификации объектов; универсальность; ОП м\б в достаточной степени произвольной; результат обучения не зависит от начального состояния перц-на.
-: для решения сложных ЗР может потреб-ся перцептрон с большим числом элементов; длина ОП может оказаться очень большой; для сложных задач невозможно проверить условия, при кот-х ЗР с помошью перцептрона разрешена, а также усл-я сходимости АОП, которые описаны в тh Новикова.