Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпоры РО.doc
Скачиваний:
0
Добавлен:
12.12.2019
Размер:
565.25 Кб
Скачать

Вопрос 35. Алгоритм вычисления оценок (аво).

См вопрос 36.

Вопрос 36. Основные идеи, лежащие в основе аво.

Рассмотрим полный набор признаков х = {x1,...,xN} и выде­лим систему подмножеств множества признаков (систему опор­ных множеств алгоритма) S1,...,Sl. В АВО обычно рассматриваются либо все подмножества множества признаков фиксированной длины k, k=2,...,N—1, либо вообще все подмножества множе­ства признаков.

Удалим произвольный поднабор признаков из строк ω1, ω2, ..., ωrm , ω’и обозначим полученные строки Sω1, Sω2,... ,Sωrm, Sω’ . Правило близости, позволяющее оценить похожесть стро­ки Sω, соответствующей распознаваемому объекту ω', и строки Sωk, соответствующей произвольному объекту исходной таблицы, состоит в следующем.

Пусть «усеченные» строки содержат q первых признаков, т. е. Swk = (α1,..., αq) и Sω= (β1,..., βq), и заданы пороги ε1, ε2,...q, δ . Строки Sωи Sωk считаются по­хожими, если выполняется не менее чем δ неравенств вида | αj – βj| < εj, j =1,..., q. Величины ε1, ε2,...q, δ входят в качестве параметров в АВО.

Рассмотрим процедуру вычисления оценок по подмножеству Si . Проверяет­ся близость строки Siω строками Siω1, Siω2,... ,Siωr1,-,, принадлежа­щими объектам класса Ω1. Число строк этого класса, близких по выбранному критерию классифицируемой строке Siω, обоз­начается ΓSi(ω’, Ω1); последняя величина представляет собой оценку строки ω’ для класса Ω1 по опорному множеству Si. Аналогичным образом вычисляются оценки для остальных клас­сов. Применение подобной процеду­ры ко всем остальным опорным множествам алгоритма позво­ляет получить систему оценок ΓS1(ω’, Ω1), ..., ΓS1(ω’, Ωm), ...,ΓSk(ω’, Ω1), ...,ΓSk(ω’, Ωm).

Γ(ω’, Ω1) = ΓS1(ω’, Ω1) + ΓS2(ω’, Ω1) + ... + ΓSk(ω’, Ω1) =

(1)Γ(ω’, Ωm) = ΓS1(ω’, Ωm) + ΓS2(ω’, Ωm) + ... + ΓSk(ω’, Ωm) =

Величины Γ(ω’, Ω1),...,Γ(ω’, Ωm) представляют собой оценки строки ω’ для соответствующих классов по системе опорных множеств алгоритма SA. Решающее правило может прини­мать различные формы, в частности распознаваемый объект мо­жет быть отнесен к классу, которому соответствует максималь­ная оценка, либо эта оценка будет превышать оценки всех ос­тальных классов не меньше чем на определенную пороговую ве­личину n1, либо значение отношения соответствующей оценки к сумме оценок для всех остальных классов будет не менее значения порога n2 и т. д. Параметры типа n1 и n2 также включаются в АВО.

38. Алгоритм обучение перцептрона

y=(y1,…,yN) -векторы из спрямляющего пр-во Y принадлежащие w1 или w2

Задачи обучения перцептрона: на данной обуч. Посл. найти w=(w1,…,wk) с помощью которой данная обуч. посл. Y классифицируется безошибочно.

Алг.: на k-м шаге:

если y(k)w1 и wT(k)y(k)<=0, то w(k+1)=w(k)+cy(k)

если y(k)w2 и wT(k)y(k)>=0, то w(k+1)=w(k)-cy(k)

иначе w(k+1)=w(k)

c -корректирующее приращение

Останов. когда вся обуч. последовательность распознана правильно при неизменном в-ре весов.

Замечания:1) приведенный алгоритм реализует принцип подкрепления и наказания.

2) при построении модели предполагалось, что распрямляющая плоскость проходит через 0, но реально м-т оказ-ся иначе. Это испрвляется путем ввода доп. координаты y=(y1,y2,..,yn1,1).

3) преобразуем обуч. посл-ть Y в , где

тогда алгоритм проще: если (k)w1 и wT(k) (k)<=0, то w(k+1)=w(k)+c (k) иначе w(k+1)=w(k)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]