
- •I. Основные понятия
- •1. Изображение объекта. Виды изображений.
- •2. Образ (класс).
- •9.Примеры задач распознавания.
- •I I Простейшие методы распознавания (сравнение с эталоном)
- •Вопрос 10. Общая характеристика простейших методов распознавания.
- •11. Метод совмещения с эталоном.
- •12. Метод зондов
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Достоинства и недостатки алгоритмов обучения без учителя.
- •V. Применение алгебры высказываний для решения задач распознавания
- •26. Изображающие числа и базис.
- •27. Восстановление булевой функции по изображающему числу.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника решения логических уравнений с помощью булевых матриц.
- •32. Две задачи о замене переменных в булевых функциях.
- •33. Прямая и обратная логические задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •Вопрос 35. Алгоритм вычисления оценок (аво).
- •Вопрос 36. Основные идеи, лежащие в основе аво.
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные процедуры распознав. На основе градиентных методов: минимизация одной ф-ии.
- •41. Итеративные процедуры распознав. На основе градиентных методов: совместная минимизация нескольких ф-ий.
- •42. Алгоритм обучения перцептрона как реализация спец. Стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных ф-ий.
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа.
- •VIII Стохастический подход к распознаванию образов
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •70. Требование к вектору признаков
44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
В начале этапа обучения исходное значение к. п. K0(x) полагается=0. При предъявлении первого образа x1 из обуч. выборки значение к. п. просто = зн-ию потенц. ф-ии для выбороч. образа x1. Потенциал предполагается положительным для образов, принадлежащих классу ω1, и отрицательным для образов, принадлежащих классу ω2.
На k+1
шаге
где коэфф-ты rk+1 при корректирующем члене опр-ся соотношениями
45. Теоремы о сходимости обучения классификации методом потенциальных функций.
Теорема о скорости сходимости алгоритмов обучения.
Пусть
(44)
— бесконеч. послед-ть обучающих образов,
выбранных из обучающего мн-ва
,
причем
и
.
Пусть потенц. ф-ия K(x,xj)
ограничена при
и
сущ. решающая ф-ия, представимая
разложением
и удовлетв. условиям:
,
где ε>0
Тогда сущ. целое число
,
(45)
не зависящее от выбора обучающей послед-ти Sx и такое, что при исп-ии алгоритмов число коррекций не превышает величины R.
Теорема. (О свойствах сходимости алгоритма)
Пусть векторы образов x удовлетворяют в пространстве образов следующим условиям:
1. Потенциальная
функция
ограничена для
.
2. Сущ. решающ. ф-ия, представимая в виде , такая, что
, где ε>0
3.Обучающая выборка образов обладает следующ. св-ми: (а) в обучающей послед-ти выборочные образы появ-ся независимо.; (б) если на k-том шаге алгоритма обучения решающая ф-ия не обеспечивает прав. классиф-ии всех образов x1,x2,…,xk, то с положительной вероятностью будет предъявлен образ xk+1, корректирующий ошибку.
Тогда с вероятностью 1 можно определить конечное число шагов R таких, что кумулятивный потенциал
46. Достоинства и недостатки распознающих процедур перцептронного типа.
+: возможность обучения при опред-х условиях безошибочной классификации объектов; универсальность; ОП м\б в достаточной степени произвольной; результат обучения не зависит от начального состояния перц-на.
-: для решения сложных ЗР может потреб-ся перцептрон с большим числом элементов; длина ОП может оказаться очень большой; для сложных задач невозможно проверить условия, при кот-х ЗР с помошью перцептрона разрешена, а также усл-я сходимости АОП, которые описаны в тh Новикова.
VIII Стохастический подход к распознаванию образов
47. Элементы задачи решения.
Введем в рассм-е след. Элементы задачи принятия решения:
={w1,…,wm}-конечное множество m состояний природы(ситуаций)
D={d1,…,dp} – конечное множество p возможных решений (действий)
L(di,wj) – ф-я потерь: потери от принятия решения di, когда реализуется состояние wj.
X=(x1,…,xn) – в-р признаков. Б. Считать что он явл. реализ-ей сист. СВ X=(X1,…,Xn), которая для состояния природы wj характеризуется:
- Плотностью вероятности p(x/wj), если X – сист. абс. непр. СВ
-Законом распределения (набором вероятностей) P(x/wj)=P(X=x/wj), если X – сист дискретных СВ.
Пусть P(wj) вероятность появления состояния природы wj и пусть P(wj/x) – условная вероятность появления состояния природы wj при условии, что будет наблюдаться значение случ вектора X=x.