Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы по ИИС готово.docx
Скачиваний:
57
Добавлен:
29.03.2016
Размер:
912.97 Кб
Скачать
  1. Архитектуры искусственных нейронных сетей

На сегодняшний день можно выделить четыре основные разновидности архитектуры ИНС.

  1. Однослойные прямонаправленные сети.

K-слойной называется ИНС, состоящая из k групп нейронов, разделенных по слоям. Если сигналы в сети распространяются только по направлению из начала в конец, то такая ИНС называется прямонаправленной. На рис. 4.2 однослойная прямонаправленная ИНС.

2. Многослойные прямонаправленные сети. Они характеризуются наличием одного или нескольких промежуточных (скрытых) слоев, осуществляющих преобразование информации. Нейроны скрытого слоя называются скрытыми. В скрытых нейронах последовательно, слой за слоем, происходит нелинейное преобразование сигналов. Сигналы с последнего скрытого слоя поступают на нейроны выходного слоя, которые формируют выход сети. Структура двухслойной сети представлена на рис. 4.3.

3. Рекуррентные сети. Этот тип ИНС отличается существованием обратных связей и элементов временной задержки сигнала.

На рис. 4.4 представлена структура простейшей системы с обратной связью. Здесь входной сигнал X(t), внутренний сигнал X '(t) и выходной сигнал y(t) – функции переменной t – дискретных отсчетов времени.

Наиболее простым случаем рекуррентной сети является один слой нейронов, охваченный обратными связями. При этом каждый нейрон получает выходные сигналы всех остальных нейронов с некоторой временной задержкой.

  1. Полносвязные сети. Характерным признаком ИНС этого типа является наличие связей между всеми нейронами. Полносвязные сети применяются при решении задач классификации и распознавания образов.

Нейронные сети применяются для многих интересных проблем в различных областях науки, медицины и техники, а в некоторых случаях они обеспечивают высокотехнологичные решения.

  1. Простой и однослойный персептроны. Классификация линейно разделимых образов

Целью решения задачи классификации является разделение набора образов x1, x2, …, xp на два класса S1 и S2. Она предполагает наличие сети с определенными параметрами, которая при предъявлении образа xi, относящегося к классу S1, выдает на выходе 1, а если образ относится к классу S2 – выдает –1 (или 0)

В общем случае задача решается в многомерном пространстве образов. Образом является точка, координаты которой могут представлять собой коды атрибутов или свойств объектов, подлежащих классификации. На рис. 4.6 представлена графическая интерпретация решения задачи для двухмерного пространства.

В этом случае два класса объектов могут быть разделены прямой, причем точки, расположенные ниже прямой, соответствуют объектам класса S1, а точки, расположенные выше – объектам класса S2.

Образы, которые могут быть разделены гиперплоскостью в N-мерном пространстве признаков так, чтобы все образы, принадлежащие одному классу, находились с одной стороны гиперплоскости, а образы, принадлежащие другому классу, с другой стороны гиперплоскости, называются линейно разделимыми.

Обучение персептрона

Алгоритм обучения:

1. Инициализация. Начальные значения весовых коэффициентов обнуляются или случайно определяются как малые величины.

2. Активация. В момент времени t на вход сети подается входной обучающий вектор X(t) и значение желаемого выхода d(t).

3. Вычисление действительного выхода. Вычисляется внутренний выход I каждого нейрона и значение пороговой функции активации каждого нейрона.

4. Модификация весовых коэффициентов. Каждый вес модифицируется в соответствии с правилом обучения.

5. Приращение времени на единицу и повторение шагов со второго по пятый до тех пор, пока разница между желаемым и действительным выходами не станет достаточно малой.