Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Мотины шпоры .doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
457.22 Кб
Скачать

33. Прямая и обратная лог. Задачи распознавания.

Пусть вектор признаков классиф-го объекта явл-ся бинарным, каждая компонента- пропозициональная переменная А1,…Аn. Пусть имеется m классов. Каждому классу поставим в соотв-ие величину – индикатор класса m - тоже – пропозици-ная переменная, принимающая значение 1, если соотв-щий класс имеет место, и 0, если нет. Пусть имеются нек-е заранее известные ограничения, наложенные на значения признаков А1,…, Аn; на индикаторы m ; и на признаки, и на индикаторы классов (совместные ограничения). Ограничения опред-го типа заданы в виде булевых уравнений. Для ограничений типа :

Фi1,…Аn)=1i=1..L

, где все функции- правильно постр-ные высказывания от пропоз-х перемен-х

Пусть получена нек-ая инф-ия об объекте: G(A1,…,An)=1. (**)

Задача распознавания: найти такую функцию (правильно построенную формулу), которая является логическим следствием G(A1,…,An) при условии (*), т.е. G(А1,…Аn)|=F).

Обратная зр: определить множество неизвестных посылок G(А1,…Аn), из к-х следуют нек-е данные выводы F) при ограничениях (*).

34. Пример логической задачи распознавания

Пусть объект характ-ся единс-ым бинар.признаком A1 (n=1). m=2 : w1,w2=>Ω1, 2.

Априорная информация:

- классы не м/т иметь место одновременно:

Ω1=не 2.

- знач-е признака однозначно определяет класс : A1= Ω1.

Пусть об объекте известно: A1=0 не А1=1(**), G≡не А1. Тогда система ограничений имеет вид :

(не не А1UF(Ω1, 2))=1& Ω1≡не 2& А1= Ω1. => F(Ω1, 2)=не А1(из1),

F(Ω1, 2)=не Ω1 (из 3)=> F(Ω1, 2)= 2.

37. Перцептрон и его мат. Модель

в) R-э (воспринимает сигнал от А-э, выраб-т вых-й сигнал, кот-й явл-ся линейной комбинацией а-э).

Обучение перц-на свод-ся к установлению таких

значений wi, при кот-х маркир-я ОП правильно классиф-ся перц-м.

Матмодель перц-на: S-э поставим в соответ-е вектор x=(x1,…,xn); А-э –вектор y=(y1,…,yn1). y=(y1,…,yn1)T=φ(x)=(φ1(x),…,φn1(x))T.

Решение об отнесении х к одному из классов принимается так: 1) если ∑ i=1n1 wiyi(в матр виде wTy)>0∑i=1n1 wi φi(x)>0=>x принадл-т w1. 2)если <0<0=>х прин-т w2.

Геометр.интерпрет-я: если x€Xn, то wTφ(x)=0-определяет разделяющую гиперпов-ть в прост-ве Х. Если Х лежит по одну сторону раздел-й гиперпов-ти, то х€w1, и наоборот. x€Xn1 y€Yn1 , то wTy=0-ур-е плоскости, проход-й ч/з начало координат. Тогда решение: 2 полупрост-ва (для w1 и w2), простр-во Yn1 –спрямляющее пространство.

38. Алгоритм обучение перцептрона

Процедура определения вектора весов w.

Пусть задана посл-ть Х= (х1,..хN)-марк-ая и соотв-щая Y=(у1,…уN). Пусть w(1)- произв. нач. вектор весов. Алгоритм на k-м шаге: если y(k)w1 и wT(k)y(k)<=0, то

w(k+1)=w(k)+cy(k),

если y(k)w2 и wT(k)y(k)>=0,

то w(k+1)=w(k)-cy(k)

иначе w(k+1)=w(k), где

c>0 -корректирующее приращение; w(k)-вектор весов на К-ом шаге; у(к)- вектор признаков в спрямляющем простр-ве Y, соотв-щий вектору признаков х(к) в пр-ве Х, использ-ом на шаге К.

Останов. когда вся обуч. послед-ть у1,…уN распознана правильно при неизменном в-ре весов.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]