
- •18. Достоинства и недостатки методов, основанных на близости описании.
- •19. Меры сходства изображений, используемые для выявления классов (кластеров).
- •20. Подходы к построению процедуры классификации (кластеризации).
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Дост-ва и нед-ки алг-ов обуч-я без учителя.
- •26. Изображающие числа и базис.
- •27. Восстан-е булевой ф-ции по ич.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника реш-я лог.Ур-й с помощью булевых матриц.
- •32. 2 Задачи о замене переем-х в булевых ф-ях.
- •33. Прямая и обратная лог. Задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные проц-ры распознав. На основе град.-ных методов: минимизация одной ф-ии.
- •41. Итератив.Проц-ры распознав. На основе град. Методов: совмест. Миним-ция неск. Ф-ий.
- •43. Физич.Интерпретация метода потенц. Ф-ий.
- •44. Кумулятив. Потенциал. Алг-м итеративного выч-я кумул. Потенциала.
- •45. Тh о сходимости обуч-я классификации методом потенц. Ф-ций.
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обуч-е байесовской пр-ры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизв. Плот-ти вер-ти с использ-ем экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •61. Постановка з-чи распоз-я линг. Образов.
- •62. 3 Способа реш-я зр линг-ких образов.
- •63. Зад. Восст. Грамматики по обучающей выборке
- •66. Теорема о разр-ти для информаторного представления.
- •69. Алгоритм Фельдмана.
- •70. Требование к вектору признаков
- •71.Среднеквадрат. Расстояния м/у различ. Типами объектов в евклидовом пространстве
- •72. Преобр-е детерминир. Вектора признаков, миним-щих внутриклассовое расстояние.
- •73. Способы учета измен-я межклассовых расст-й при мин-ции внутрикл. Расстояний
33. Прямая и обратная лог. Задачи распознавания.
Пусть вектор признаков классиф-го объекта явл-ся бинарным, каждая компонента- пропозициональная переменная А1,…Аn. Пусть имеется m классов. Каждому классу поставим в соотв-ие величину – индикатор класса m - тоже – пропозици-ная переменная, принимающая значение 1, если соотв-щий класс имеет место, и 0, если нет. Пусть имеются нек-е заранее известные ограничения, наложенные на значения признаков А1,…, Аn; на индикаторы m ; и на признаки, и на индикаторы классов (совместные ограничения). Ограничения опред-го типа заданы в виде булевых уравнений. Для ограничений типа :
Фi(А1,…Аn)=1i=1..L
, где все функции- правильно постр-ные высказывания от пропоз-х перемен-х
Пусть получена нек-ая инф-ия об объекте: G(A1,…,An)=1. (**)
Задача распознавания: найти такую функцию (правильно построенную формулу), которая является логическим следствием G(A1,…,An) при условии (*), т.е. G(А1,…Аn)|=F).
Обратная зр: определить множество неизвестных посылок G(А1,…Аn), из к-х следуют нек-е данные выводы F) при ограничениях (*).
34. Пример логической задачи распознавания
Пусть объект характ-ся единс-ым бинар.признаком A1 (n=1). m=2 : w1,w2=>Ω1, 2.
Априорная информация:
- классы не м/т иметь место одновременно:
Ω1=не 2.
- знач-е признака однозначно определяет класс : A1= Ω1.
Пусть об объекте известно: A1=0 не А1=1(**), G≡не А1. Тогда система ограничений имеет вид :
(не не А1UF(Ω1, 2))=1& Ω1≡не 2& А1= Ω1. => F(Ω1, 2)=не А1(из1),
F(Ω1, 2)=не Ω1 (из 3)=> F(Ω1, 2)= 2.
37. Перцептрон и его мат. Модель
в)
R-э
(воспринимает сигнал от А-э, выраб-т
вых-й сигнал, кот-й явл-ся линейной
комбинацией а-э).
Обучение перц-на свод-ся к установлению таких
значений wi, при кот-х маркир-я ОП правильно классиф-ся перц-м.
Матмодель перц-на: S-э поставим в соответ-е вектор x=(x1,…,xn); А-э –вектор y=(y1,…,yn1). y=(y1,…,yn1)T=φ(x)=(φ1(x),…,φn1(x))T.
Решение об отнесении х к одному из классов принимается так: 1) если ∑ i=1n1 wiyi(в матр виде wTy)>0∑i=1n1 wi φi(x)>0=>x принадл-т w1. 2)если <0<0=>х прин-т w2.
Геометр.интерпрет-я: если x€Xn, то wTφ(x)=0-определяет разделяющую гиперпов-ть в прост-ве Х. Если Х лежит по одну сторону раздел-й гиперпов-ти, то х€w1, и наоборот. x€Xn1 y€Yn1 , то wTy=0-ур-е плоскости, проход-й ч/з начало координат. Тогда решение: 2 полупрост-ва (для w1 и w2), простр-во Yn1 –спрямляющее пространство.
38. Алгоритм обучение перцептрона
Процедура определения вектора весов w.
Пусть задана посл-ть Х= (х1,..хN)-марк-ая и соотв-щая Y=(у1,…уN). Пусть w(1)- произв. нач. вектор весов. Алгоритм на k-м шаге: если y(k)w1 и wT(k)y(k)<=0, то
w(k+1)=w(k)+cy(k),
если y(k)w2 и wT(k)y(k)>=0,
то w(k+1)=w(k)-cy(k)
иначе w(k+1)=w(k), где
c>0 -корректирующее приращение; w(k)-вектор весов на К-ом шаге; у(к)- вектор признаков в спрямляющем простр-ве Y, соотв-щий вектору признаков х(к) в пр-ве Х, использ-ом на шаге К.
Останов. когда вся обуч. послед-ть у1,…уN распознана правильно при неизменном в-ре весов.