
- •К вопросу 48 Нейроинформатика. Математический нейрон Мак – Каллока - Питтса. Персептрон Розенблатта и правило Хебба. Возможности и области применения персептронов Нейроинформатика
- •Биологический нейрон
- •Математический нейрон Мак–Каллока - Питтса (формальный нейрон)
- •Персептрон Розенблатта
- •Обучение персептрона. Алгоритм корректировки весовых коэффициентов - правила Хебба.
- •Распознавание букв
- •Ограниченность однослойного персептрона
- •Многослойный персептрон
- •Возможности и области применения персептронов
Персептрон Розенблатта
Одной из первых искусственных сетей, способных к перцепции (восприятию) и формированию реакции на воспринятый стимул, явился PERCEPTRON Розенблатта (F.Rosenblatt, 1957). Персептрон рассматривался его автором не как конкретное техническое вычислительное устройство, а как модель работы мозга.
Простейший классический персептрон содержит нейроподобные элементы трех типов, назначение которых в целом соответствует нейронам рефлекторной нейронной сети. S-элементы формируют сетчатку сенсорных клеток, принимающих двоичные сигналы от внешнего мира. Далее сигналы поступают в слой ассоциативных или A-элементов (для упрощения изображения часть связей от входных S-клеток к A-клеткам не показана). Только ассоциативные элементы, представляющие собой формальные нейроны, выполняют нелинейную обработку информации и имеют изменяемые веса связей. R-элементы с фиксированными весами формируют сигнал реакции персептрона на входной стимул.
Розенблатт называл такую нейронную сеть трехслойной, однако по современной терминологии, представленная сеть обычно называется однослойной, так как имеет только один слой нейропроцессорных элементов. Однослойный персептрон характеризуется матрицей синаптических связей W от S- к A-элементам. Элемент матрицы отвечает связи, ведущей от i-го S-элемента к j-му A-элементу.
В Корнельской авиационной лаборатории была разработана электротехническая модель персептрона MARK-1, которая содержала 8 выходных R-элементов и 512 A-элементов, которые можно было соединять в различных комбинациях. На этом персептроне была проведена серия экспериментов по распознаванию букв алфавита и геометрических образов.
Обучение персептрона. Алгоритм корректировки весовых коэффициентов - правила Хебба.
Разберём принцип действия персептрона на примере решения конкретной задачи. Ниже на рисунке приведён один из простейших вариантов исполнения персептрона, предназначенного для классификации цифр на чётные и нечётные. Представим себе матрицу из 12 фотоэлементов, расположенных в виде четырёх горизонтальных рядов, в каждом из которых три фотоэлемента. На матрицу фотоэлементов накладывается карточка с изображением цифры. Если на фотоэлемент попадает какой-либо фрагмент цифры, то данный фотоэлемент вырабатывает сигнал в виде двоичной единицы, в противном случае – ноль. На рисунке первый фотоэлемент выдаёт сигнал х1=0, второй – х2=1 и т.д. Затем персептронный нейрон выполняет суммирование входных сигналов хj, помноженных на синаптические веса wj, первоначально заданные датчиком случайных чисел. После этого сумма сравнивается с порогом чувствительности θ, также заданным случайным образом. Цель обучения персептрона состоит в том, чтобы выходной сигнал Y равнялся 1, если на карточке была изображена чётная цифра, и нулю, если цифра была нечётной.
Цель обучения достигается путём корректировки весовых коэффициентов wj. Если, например, на вход персептрона была предъявлена карточка с цифрой 4, и выходной сигнал Y случайно оказался равным 1, означающей чётность, то корректировать веса не нужно, так как реакция персептрона правильная. Если выход неправилен и Y=0, то следует увеличить веса тех активных входов, которые способствуют возбуждению нейрона. В данном случае увеличению подлежат w2 , w11 и др.
Таким образом, можно сформулировать следующий итерационный алгоритм корректировки весовых коэффициентов, обеспечивающих обучение персептрона в нужном направлении.
Шаг 1. Подать входной образ и вычислить выход персептрона У.
Шаг 2. Если выход правильный, то перейти на шаг 1.
Шаг 3. Если выход неправильный и равен 0, то увеличить веса активных входов¸ например, добавить все входы к соответствующим им весам (первое правило Хебба).
Шаг 4. Если выход неправильный и равен 1, то уменьшить веса активных входов, например, вычесть каждый вход из соответствующего ему веса (второе правило Хебба).
Шаг 5. Перейти на Шаг 1или завершить процесс обучения.
Возникает вопрос: всегда ли алгоритм обучения персептрона приводит к желаемому результату?
Существует теорема сходимости персептрона: если существует множество значений весов, которые обеспечивают конкретное различение образов, то в конечном итоге алгоритм обучения персептрона приводит либо к этому множеству, либо к эквивалентному ему множеству, такому, что данное различение образов будет достигнуто.