Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
метод_указания.doc
Скачиваний:
9
Добавлен:
01.07.2025
Размер:
518.66 Кб
Скачать

Перцептрон и его математическая модель

Перцептрон является распознающим устройством, моделирующим работу человеческого мозга. Он представляет собой систему, включающую элементы трех типов. Элементы первого типа – S-элементы – образуют рецепторный слой, воспринимающий сигналы внешней среды (значения признаков х=(х1, х2, …, хп), характеризующих воспринимаемые объекты). Элементы второго типа – A-элементы – воспринимают (каждый) сигналы от некоторой группы S-элементов и вырабатывают выходной сигнал, если совокупное входное воздействие от прикрепленной группы S-элементов превосходит заданный порог. Элементы третьего типа – R-элементы – соответствуют (каждый) определенному образу и воспринимают (каждый) линейную комбинацию сигналов от определенной группы А-элементов с соответствующим коэффициентом усиления для каждого А-элемента этой группы. Перцептрон выносит решение о принадлежности объекта образу с номером i, если для этого объекта выходной сигнал элемента Ri, больше, чем выходные сигналы всех других R-элементов.

Обучение перцептрона сводится к установлению по реакции на маркированные объекты обучающей последовательности таких значений коэффициентов усиления для сигналов с А-элементов, которые обеспечивают правильную классификацию объектов обучающей последовательности.

Рассмотрим общую математическую модель перцептрона. Совокупность S-элементов будем считать координатами вектора описания х=(х12,…,хп), n – число S-элементов. Будем далее считать, что связи S-элементов с А-элементами задаются преобразованием

где уi – выходной сигнал i-го А-элемента. Будем рассматривать случай двух классов 1 и 2. Тогда перцептрон относит вектор х к классу 1, если

wТ(х) > 0,

и к классу 2, если

wТ(х) < 0.

(w – вектор весовых коэффициентов)

Геометрическая интерпретация: в пространстве Х векторов х задана гиперповерхность wТ(х) = 0, делящая Х на два полупространства, и если х находится по одну сторону от этой поверхности, то х1, иначе х2. Каждой гиперповерхности wТ(х) = 0 в Х соответствует гиперплоскость wТу = 0, проходящая через начало координат в спрямляющем пространстве Y; если y находится по одну сторону этой гиперплоскости, то х1, а если у находится по другую сторону гиперплоскости, то х2.

Линейные решающие функции

Основным назначением системы распознавания образов является отыскание решений о принадлежности предъявленных ей образов некоторому классу. Один из важных подходов к задаче предполагает использование решающих функций.

Общий вид линейной решающей функции задается формулой

d(у)=wTy=w1y1+w2y2+…+ wnyn+wn+1= w0Тy+wn+1 (*)

где w=(w1,w2,…, wn)Т – весовой вектор.

Общепринято во все векторы образов вводить после последней компоненты 1 и представлять соотношение (*) в виде

d(у)=wTy

где х=(х1, х2,…, хn , 1)Т и w=(w1,w2,…, wn, wn+1)Т – пополненные векторы образов и весов соответственно.

Рассмотрим случаи разбиения на несколько классов w1, w2,…, wМ.

Случай 1. Каждый класс отделяется от всех остальных одной разделяющей поверхностью. В этом случае существует М решающих функций, обладающих свойством

где wi=(wi1,wi2,…, win, wi,n+1)Т – весовой вектор, соответствующий i-ой решающей функции.

Случай 2. Каждый класс отделяется от любого другого взятого в отдельности класса «индивидуальной» разделяющей поверхностью, т.е. классы попарно разделимы. В этом случае существует М(М-1)/2 разделяющих поверхностей. Решающие функции имеют вид dij(у)=wijTy и обладают тем свойством, что если образ х принадлежит классу wi, то

dij(у) > 0 для всех j¹i; кроме того, dij(у)= - dji(у).

Случай 3. Существует М решающих функций dk(у)=wkTy, k=1,2,…,M, таких, что если образ х принадлежит классу wi, то

di(у) > dj(у) для всех j¹i.

Эта ситуация является разновидностью случая 2, поскольку можно положить

dij(у)= di(у) - dj(у) = (wi - wj)Ty= wijTy

Лабораторная работа №3. Алгоритм обучения перцептрона (принцип подкрепления-наказания)

  1. Цель работы

Целью работы является изучение алгоритма обучения перцептрона, закрепление навыков по разработке, редактированию и отладке программы, основанной на принципе «подкрепление-наказание».

  1. Теоретические сведения

Решающие функции

Основным назначением системы распознавания образов является отыскание решений о принадлежности предъявленных ей образов некоторому классу. Один из важных подходов к задаче предполагает использование решающих функций.

Рассмотрим случай двух классов 1 и 2. Тогда две совокупности образов удобно разделить прямой.

Пусть d(у)=wTy=w1y1+w2y2+w3=0 – уравнение разделяющей прямой. При этом решающая функция обладает следующим свойством:

Успех применения данной схемы распознавания образов зависит от двух факторов: 1) вида функции d(у) и 2) практической возможности определения ее коэффициентов.