
- •I. Основные понятия
- •1. Изображение объекта. Виды изображений.
- •2. Образ (класс).
- •II Простейшие методы распознавания (сравнение с эталоном)
- •Вопрос 10. Общая характеристика простейших методов распознавания.
- •11. Метод совмещения с эталоном.
- •12. Метод зондов
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Достоинства и недостатки алгоритмов обучения без учителя.
- •V. Применение алгебры высказываний для решения задач распознавания
- •26. Изображающие числа и базис.
- •27. Восстановление булевой функции по изображающему числу.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника решения логических уравнений с помощью булевых матриц.
- •32. Две задачи о замене переменных в булевых функциях.
- •33. Прямая и обратная логические задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •Вопрос 35. Алгоритм вычисления оценок (аво).
- •Вопрос 36. Основные идеи, лежащие в основе аво.
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные процедуры распознав. На основе градиентных методов: минимизация одной ф-ии.
- •41. Итеративные процедуры распознав. На основе градиентных методов: совместная минимизация нескольких ф-ий.
- •42. Алгоритм обучения перцептрона как реализация спец. Стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных ф-ий.
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа.
- •VIII Стохастический подход к распознаванию образов
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •70. Требование к вектору признаков
Вопрос 35. Алгоритм вычисления оценок (аво).
См вопрос 36.
Вопрос 36. Основные идеи, лежащие в основе аво.
Рассмотрим полный набор признаков х = {x1,...,xN} и выделим систему подмножеств множества признаков (систему опорных множеств алгоритма) S1,...,Sl. В АВО обычно рассматриваются либо все подмножества множества признаков фиксированной длины k, k=2,...,N—1, либо вообще все подмножества множества признаков.
Удалим произвольный поднабор признаков из строк ω1, ω2, ..., ωrm , ω’и обозначим полученные строки Sω1, Sω2,... ,Sωrm, Sω’ . Правило близости, позволяющее оценить похожесть строки Sω’, соответствующей распознаваемому объекту ω', и строки Sωk, соответствующей произвольному объекту исходной таблицы, состоит в следующем.
Пусть «усеченные» строки содержат q первых признаков, т. е. Swk = (α1,..., αq) и Sω’ = (β1,..., βq), и заданы пороги ε1, ε2,... ,εq, δ . Строки Sωи Sωk считаются похожими, если выполняется не менее чем δ неравенств вида | αj – βj| < εj, j =1,..., q. Величины ε1, ε2,... ,εq, δ входят в качестве параметров в АВО.
Рассмотрим процедуру вычисления оценок по подмножеству Si . Проверяется близость строки Siω’ строками Siω1, Siω2,... ,Siωr1,-,, принадлежащими объектам класса Ω1. Число строк этого класса, близких по выбранному критерию классифицируемой строке Siω’, обозначается ΓSi(ω’, Ω1); последняя величина представляет собой оценку строки ω’ для класса Ω1 по опорному множеству Si. Аналогичным образом вычисляются оценки для остальных классов. Применение подобной процедуры ко всем остальным опорным множествам алгоритма позволяет получить систему оценок ΓS1(ω’, Ω1), ..., ΓS1(ω’, Ωm), ...,ΓSk(ω’, Ω1), ...,ΓSk(ω’, Ωm).
Γ(ω’,
Ω1)
= ΓS1(ω’,
Ω1)
+ ΓS2(ω’,
Ω1)
+ ... + ΓSk(ω’,
Ω1)
=
(1)Γ(ω’,
Ωm)
= ΓS1(ω’,
Ωm)
+ ΓS2(ω’,
Ωm)
+ ... + ΓSk(ω’,
Ωm)
=
Величины Γ(ω’, Ω1),...,Γ(ω’, Ωm) представляют собой оценки строки ω’ для соответствующих классов по системе опорных множеств алгоритма SA. Решающее правило может принимать различные формы, в частности распознаваемый объект может быть отнесен к классу, которому соответствует максимальная оценка, либо эта оценка будет превышать оценки всех остальных классов не меньше чем на определенную пороговую величину n1, либо значение отношения соответствующей оценки к сумме оценок для всех остальных классов будет не менее значения порога n2 и т. д. Параметры типа n1 и n2 также включаются в АВО.
38. Алгоритм обучение перцептрона
y=(y1,…,yN) -векторы из спрямляющего пр-во Y принадлежащие w1 или w2
Задачи обучения перцептрона: на данной обуч. Посл. найти w=(w1,…,wk) с помощью которой данная обуч. посл. Y классифицируется безошибочно.
Алг.: на k-м шаге:
если y(k)w1 и wT(k)y(k)<=0, то w(k+1)=w(k)+cy(k)
если y(k)w2 и wT(k)y(k)>=0, то w(k+1)=w(k)-cy(k)
иначе w(k+1)=w(k)
c -корректирующее приращение
Останов. когда вся обуч. последовательность распознана правильно при неизменном в-ре весов.
Замечания:1) приведенный алгоритм реализует принцип подкрепления и наказания.
2) при построении модели предполагалось, что распрямляющая плоскость проходит через 0, но реально м-т оказ-ся иначе. Это испрвляется путем ввода доп. координаты y=(y1,y2,..,yn1,1).
3) преобразуем обуч.
посл-ть Y
в
,
где
тогда алгоритм
проще: если
(k)w1
и wT(k)
(k)<=0,
то w(k+1)=w(k)+c
(k)
иначе w(k+1)=w(k)