Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ipk_shpora.docx
Скачиваний:
315
Добавлен:
18.03.2015
Размер:
2.87 Mб
Скачать

51 .Искусственные нейронные сети. Общие положения.

. Искусственная нейронная сеть (или просто НС.) – это совокупность нейроподобных элементов (нейронов), определенным образом друг с другом и с внешней средой. Используя НС., можно реализовать личные логические функции, связывающие между собой входные и выходные переменные, определенные в логическом базисе {0, 1}. Эти логические функции могут быть монотонными и немонотонными, линейно разделимыми и неразделимыми, т.е. иметь достаточно сложный вид.

Еще в 1943 году Мак-Каллок и Питтс сформулировали теорему, явившуюся ключевой в развитии теории НС. Она утверждает, что любая функция нервной системы, которая может быть логически описана с помощью конечного, числа слов, может быть реализована формальной нейронной сетью. Интерпретация данной теоремы применительно к реализации логических функций на формальных нейронах (клетках Мак-Каллока-Питтса) имеет огромное методологическое значение. Дж. Фон-Нейман писал, что теорема «кладет конец всем разговорам о том, что ввиду чрезвычайной сложности нервной системы человека, деятельность и функции ее не могут быть реализованы ни в каком из мыслимых механизмов». Однако эта теорема представляет собой теорему существования, а не «конструктивную» теорему. В ней ничего не говорится о том, как построить формальную нейронную сеть, моделирующую ту или иную функцию нервной системы; в ней лишь утверждается то положение, что такую формальную нейронную сеть принципиально построить можно.

Известный интерес представляют следующие две основополагающие теоремы, определяющие возможность реализации логических функций на базе НС. с помощью стандартных логических элементов.

Теорема 1. Любую логическую функцию можно вычислить с помощью двухслойной НС., составленной из некоторого числа формальных нейронов Мак-Каллока-Питтса.

Теорема 2. Любую логическую функцию относительно бинарных переменных можно вычислить с помощью НС, которая использует в качестве компонентов только элементы «И», «ИЛИ», «НЕ».

Учитывая эквивалентность представления логических функций с помощью конъюнкций и дизъюнкций, можно построить базис связей для логических функций на основе 2-х типов элементов : «И», «НЕ», или «ИЛИ», «НЕ».

Рис ХХ Представление нейрона

52 . Персептрон ф. Розенблатта.

Развивая идеи Мак-Каллока-Питтса, нейробиолог из Корнелльского уни-верситета (США) Франк Розенблатт в 1958 году разработал нейроподобное устройство, названное им персептроном (Perceptron). Это была первая искусственная НС с обучением. Персептрон состоит из множества элементов, связанных в единую сеть. Принцип работы модели персептрона основан на отражении чувственного восприятия (ощущения) реального мира. На рис. 30.2 показано применение комбинации различных нейронных слоев. Первый уровень нейробиологической модели представлен областью (проекционной сферой), куда подаются входные образы; второй - представлен ассоциативной средой(«детекторами признаков»); третий - представляет собой реакциии.т.д. (реагирующий слой или эффекторы).

Модель персептрона Розенблатта на основе однослойной НС. показана на рис. 30.3. Эта модель, состоящая из бинарных нейроподобных элементов свходам имеет простую топологию, что позволило достаточно полно проанализировать работу НС.

По существу, персептрон явился первой моделью мозга, которая смогла продемонстрировать способность «обучения».

Розенблатт предложил алгоритм обучения однослойного персептрона вместе с доказательством того, что персептрон может быть обучен всему, что он может реализовать. Обучение персептрона является обучением с учителем. Процесс обучения персептрона наиболее наглядно можно продемонстрировать при решении задач распознавания образов, где его применение нашло наиболее яркое воплощение.

Персептрон обучают путем последовательной подачи на его входы некоторого множества образов с последующей подстройкой весовых коэффициентов до тех пор, пока для всех предъявленных персептрону образов не будет, достигнут требуемый выход.В обучение персептрона рассматривается на примере решения следующей задачи: требуется научить его включать индикатор (лампочку) при подаче на персептрон множества входов, задающих нечетное число (цифру), и не включать в случае четного. В данном случае персептрон выступает в роли бинарного классификатора.

Будем полагать, что входные образы нанесены на специальные демонстрационные карты, каждая из которых разбита на квадраты (пикселы). От каждого квадрата на персептрон подается бинарный сигнал: единица, если квадрат содержит линию; или ноль, если такой линии нет (квадрат чист). Множество квадратов на карте задает, таким образом, множество нулей и единиц, которое и подается на вход персептрона.

Каждая компонента входного вектора умножается на соответствующую компоненту вектора весов. Эти произведения суммируются. Если полученная сумма превышает порог, то выход нейронаравен 1 (индикатор зажигается), в противном случае - 0 (индикатор не горит).

Для обучения сети образ подается на вход и вычисляется выход. Еслиправилен, то ничего не меняется; в противном случае веса, присоединенные к входам, усиливающим ошибочный результат, модифицируются, чтобы уменьшит ошибку.

К наиболее существенным недостаткам однослойного персептрона следует отнести невозможность реализации на его основе функции «Исключающего ИЛИ». М. Минский подверг резкой критике однослойные персептроны, назвав их вещами, «вплотную примыкающими к бесполезным», и строго математически обосновал ограничения, накладываемые на процесс обучения таких НС,. Уже упоминавшийся американский ученый Стаффорд Вир, один из творцов кибернетики, также подверг жестокой критике работу Розенблатта: «Поскольку в ней по существу ничего не сказано, то ее и не следовало писать, хотя она, и создает вокруг персептрона дух могущества» Однако главным преимуществом однослойных персептронов явилась впервые покачанная возможность их обучения и решения с их помощью ряда важных практических задач.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]