
- •Детерминистские методы распознавания образов методические указания
- •Содержание
- •Детерминистские методы Расстояние между классами, списками Введение
- •Применение
- •Пример распознавания стороной а самолетов стороны в
- •Задание
- •Порядок выполнения работы
- •Литература
- •Лабораторная работа №2. Расстояние между списками
- •Цель работы
- •Теоретические сведения
- •Задание 1
- •Задание 2.
- •Порядок выполнения работы
- •Литература
- •Контрольные вопросы.
- •Распознающие процедуры перцептронного типа Введение
- •Перцептрон и его математическая модель
- •Линейные решающие функции
- •Алгоритм перцептрона
- •Задание
- •Порядок выполнения работы
- •Литература
- •Задание
- •Порядок выполнения работы
- •5. Литература
- •Контрольные вопросы.
- •Метод потенциальных функций Введение
- •Идея метода
- •Алгоритм метода потенциальных функций
- •Задание
- •Порядок выполнения работы
- •Литература
- •Контрольные вопросы.
Перцептрон и его математическая модель
Перцептрон является распознающим устройством, моделирующим работу человеческого мозга. Он представляет собой систему, включающую элементы трех типов. Элементы первого типа – S-элементы – образуют рецепторный слой, воспринимающий сигналы внешней среды (значения признаков х=(х1, х2, …, хп), характеризующих воспринимаемые объекты). Элементы второго типа – A-элементы – воспринимают (каждый) сигналы от некоторой группы S-элементов и вырабатывают выходной сигнал, если совокупное входное воздействие от прикрепленной группы S-элементов превосходит заданный порог. Элементы третьего типа – R-элементы – соответствуют (каждый) определенному образу и воспринимают (каждый) линейную комбинацию сигналов от определенной группы А-элементов с соответствующим коэффициентом усиления для каждого А-элемента этой группы. Перцептрон выносит решение о принадлежности объекта образу с номером i, если для этого объекта выходной сигнал элемента Ri, больше, чем выходные сигналы всех других R-элементов.
Обучение перцептрона сводится к установлению по реакции на маркированные объекты обучающей последовательности таких значений коэффициентов усиления для сигналов с А-элементов, которые обеспечивают правильную классификацию объектов обучающей последовательности.
Рассмотрим общую математическую модель перцептрона. Совокупность S-элементов будем считать координатами вектора описания х=(х1,х2,…,хп), n – число S-элементов. Будем далее считать, что связи S-элементов с А-элементами задаются преобразованием
где уi – выходной сигнал i-го А-элемента. Будем рассматривать случай двух классов 1 и 2. Тогда перцептрон относит вектор х к классу 1, если
wТ(х) > 0,
и к классу 2, если
wТ(х) < 0.
(w – вектор весовых коэффициентов)
Геометрическая интерпретация: в пространстве Х векторов х задана гиперповерхность wТ(х) = 0, делящая Х на два полупространства, и если х находится по одну сторону от этой поверхности, то х1, иначе х2. Каждой гиперповерхности wТ(х) = 0 в Х соответствует гиперплоскость wТу = 0, проходящая через начало координат в спрямляющем пространстве Y; если y находится по одну сторону этой гиперплоскости, то х1, а если у находится по другую сторону гиперплоскости, то х2.
Линейные решающие функции
Основным назначением системы распознавания образов является отыскание решений о принадлежности предъявленных ей образов некоторому классу. Один из важных подходов к задаче предполагает использование решающих функций.
Общий вид линейной решающей функции задается формулой
d(у)=wTy=w1y1+w2y2+…+ wnyn+wn+1= w0Тy+wn+1 (*)
где w=(w1,w2,…, wn)Т – весовой вектор.
Общепринято во все векторы образов вводить после последней компоненты 1 и представлять соотношение (*) в виде
d(у)=wTy
где х=(х1, х2,…, хn , 1)Т и w=(w1,w2,…, wn, wn+1)Т – пополненные векторы образов и весов соответственно.
Рассмотрим случаи разбиения на несколько классов w1, w2,…, wМ.
Случай 1. Каждый класс отделяется от всех остальных одной разделяющей поверхностью. В этом случае существует М решающих функций, обладающих свойством
где wi=(wi1,wi2,…, win, wi,n+1)Т – весовой вектор, соответствующий i-ой решающей функции.
Случай 2. Каждый класс отделяется от любого другого взятого в отдельности класса «индивидуальной» разделяющей поверхностью, т.е. классы попарно разделимы. В этом случае существует М(М-1)/2 разделяющих поверхностей. Решающие функции имеют вид dij(у)=wijTy и обладают тем свойством, что если образ х принадлежит классу wi, то
dij(у) > 0 для всех j¹i; кроме того, dij(у)= - dji(у).
Случай 3. Существует М решающих функций dk(у)=wkTy, k=1,2,…,M, таких, что если образ х принадлежит классу wi, то
di(у) > dj(у) для всех j¹i.
Эта ситуация является разновидностью случая 2, поскольку можно положить
dij(у)= di(у) - dj(у) = (wi - wj)Ty= wijTy
Лабораторная работа №3. Алгоритм обучения перцептрона (принцип подкрепления-наказания)
Цель работы
Целью работы является изучение алгоритма обучения перцептрона, закрепление навыков по разработке, редактированию и отладке программы, основанной на принципе «подкрепление-наказание».
Теоретические сведения
Решающие функции
Основным назначением системы распознавания образов является отыскание решений о принадлежности предъявленных ей образов некоторому классу. Один из важных подходов к задаче предполагает использование решающих функций.
Рассмотрим случай двух классов 1 и 2. Тогда две совокупности образов удобно разделить прямой.
Пусть d(у)=wTy=w1y1+w2y2+w3=0 – уравнение разделяющей прямой. При этом решающая функция обладает следующим свойством:
Успех применения данной схемы распознавания образов зависит от двух факторов: 1) вида функции d(у) и 2) практической возможности определения ее коэффициентов.