- •I. Основные понятия
- •1. Изображение объекта. Виды изображений.
- •2. Образ (класс).
- •9.Примеры задач распознавания.
- •I I Простейшие методы распознавания (сравнение с эталоном)
- •Вопрос 10. Общая характеристика простейших методов распознавания.
- •11. Метод совмещения с эталоном.
- •12. Метод зондов
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Достоинства и недостатки алгоритмов обучения без учителя.
- •V. Применение алгебры высказываний для решения задач распознавания
- •26. Изображающие числа и базис.
- •27. Восстановление булевой функции по изображающему числу.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника решения логических уравнений с помощью булевых матриц.
- •32. Две задачи о замене переменных в булевых функциях.
- •33. Прямая и обратная логические задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •Вопрос 35. Алгоритм вычисления оценок (аво).
- •Вопрос 36. Основные идеи, лежащие в основе аво.
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные процедуры распознав. На основе градиентных методов: минимизация одной ф-ии.
- •41. Итеративные процедуры распознав. На основе градиентных методов: совместная минимизация нескольких ф-ий.
- •42. Алгоритм обучения перцептрона как реализация спец. Стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных ф-ий.
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа.
- •VIII Стохастический подход к распознаванию образов
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •70. Требование к вектору признаков
22. Эвристический алгоритм максиминного расстояния.
Шаг 0. Пусть задано множество N образов X1,…,XN.
Шаг 1. Один из заданных образов назначается центром первого кластера z1. Возьмем z1=X1.
Шаг 2. Затем отыскивается образ, отстоящий от образа X1 на наибольшее расстояние. Он назначается центром кластера z2.
Шаг 3. Вычисляются расстояния между всеми остальными образами выборки и центрами кластеров z1 и z2. В каждой паре этих расстояний выделяется минимальное. После этого выделяется максимальное из этих минимальных расстояний. Если последнее составляет значительную часть расстояния между центрами кластеров z1 и z2 соответствующий образ назначается центром кластера z3. В противном случае выполнение алгоритма прекращается.
Шаг m. В общем случае подобная процедура повторяется до тех пор, пока на каком-либо шаге не будет получено максимальное расстояние, для которого условие, определяющее выделение нового кластера, не выполняется.
23. Алгоритм к внутригрупповых средних.
1 шаг. Выбираются К исходных центров кластеров
z1(1), z2(1), z3(1),…, zk(1) Обычно берутся первые К точек
2 шаг. На К-ом шаге итерации заданное мн-во Х распределяется по К кластерам след. образом xSj(k) если ||x-zj(k)||<=||x-zi(k)|| i=1…k i<>j
3 шаг. На основании результата 2шага выбираются новые центры кластеров z(k+1) исходя из того, что расстояние между всеми образами в Sj(k) и новым центром будет минимально.
4 шаг. Если zj(k+1)=z(k), то алгоритм останавливается Иначе происходит новое разбиение и алгоритм продолжается до тех пор пока не будет найден оптимальное решение.
24. Алгоритм isodata.
Общая структура алгоритма такова:
Формирование подмножеств выборочных множеств .
Слияние кластеров (если требуется с переходом на 1).
Расщепление кластеров (если требуется с переходом на 1).
При этом используются следующие эвристики:
Ликвидация кластеров с числом элементов меньше заданного значения.
Объединение кластеров, находящихся близко друг к другу.
При объединении кластеров с центрами и образуется один кластер с центром
Расщепление кластера может происходить по одному из следующих критериев:
1. При достаточно сильной разбросанности образов расщепляемого кластера в масштабе общего множества образов.
2. Если требуется получить достаточно большое число кластеров.
25. Достоинства и недостатки алгоритмов обучения без учителя.
- необходимость проведения обширных экспериментов, трудность применения к данным сложной структуры.
+простота реализации, применение эвристических подходов.
V. Применение алгебры высказываний для решения задач распознавания
26. Изображающие числа и базис.
Базис - таблица, которая представляет все возможные комбинации значении истинности некоторого набора элементов А, В, С, ... .
Для п элементов А1, ..., Ап базис содержит п строк и 2n колонок.
Тогда базис для одного элемента: #A=0 1;
для двух элементов A и B:
0 1 2 3
#A = 0 1 0 1
#B = 0 0 1 1
Строки базиса называют изображающими числами соответствующих элементов и обозначают приписыванием слева от элемента знака #. Операции над изобр числами: 1) изображающее число дизъюнкции двух элементов равно сумме изображающих чисел слагаемых: #(A + B)= #А + #B, причем сложение #A,#В выпол-я поразрядно без переносов в высшие разряды по правилу 0+0=0, 0+1=1+0=1, 1+1=1. 2) изображающее число конъюнкции двух элементов опред-я как произведение ич сомножителей: #(A•B)=( #А)•(#B ), причем перемножение #A, #В выпол-я поразрядно по правилу 0•0=0, 0•1=1•0=0, 1•1=1. 3) ич отрицания А получается из ич А заменой в каждом разряде 0 на 1 и 1 на 0.