Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Методичка_Нейросетевые структуры_ч1.doc
Скачиваний:
66
Добавлен:
18.11.2019
Размер:
1.71 Mб
Скачать

2.1.Персептрон

Простой персептрон – это ФН МакКаллока–Питтса со структурой рис. 2.1 и соответствующей стратегией обучения. Функция активации – пороговая, вследствие чего выходные сигналы могут принимать только два значения

(2.3)

где для выходного сигнала сумматора

(2.4)

входной вектор дополнен нулевым членом х0=1, формирующим сигнал поляризации, т.е. =(х0, х1, х2, …, хN).

Обучение – с учителем по правилу персептрона в соответствии с алгоритмом:

  1. при начальных значениях wij (выбранных, как правило, случайным образом) на вход подается обучающий , рассчитывается yi и по результатам сравнения yi с известным di уточняются значения весов;

  2. если yi = di, то wij = const;

  3. если yi = 0, а di = 1, то wij(t+1) = wij(t)+xj, где t – номер итерации;

  4. если yi = 1, а di = 0, то wij(t+1) = wij(t)–xj.

После уточнения весовых коэффициентов подается следующая обучающая пара и значения wij уточняются заново. Процесс повторяется многократно на всех обучающих выборках до минимизации разницы между всеми yi и di. Вообще говоря, правило персептрона является частным случаем предложенного позднее правила Видроу–Хоффа

(2.5)

где di, yi могут принимать любые значения.

Минимизация различий между фактическими yi и ожидаемыми di выходными сигналами нейрона может быть представлена как минимизация некоторой (целевой) функции погрешности E(w), чаще всего определяемой как

(2.6)

где р – количество обучающих выборок. Оптимизация E(w) по правилу персептрона является безградиентной, при большом р количество циклов обучения и его длительность быстро возрастают без всякой гарантии достижения минимума целевой функции. Устранить эти недостатки можно только при использовании непрерывных f(u) и E(w).

2.2.Сигмоидальный нейрон

Структура – ФН МакКаллока–Питтса (рис. 2.1).

Функции активации – униполярный f1 (табл. 2.1, рис. 2.2 в) или биполярный f2 (табл. 2.1, рис. 2.2 г) сигмоиды, непрерывно дифференцируемые во всей области определения, причем как , так и имеют практически одинаковую колоколообразную форму с максимумом при u=0 (рис. 2.3).

Обучение – с учителем путем минимизации целевой функции (2.6) с использованием градиентных методов оптимизации, чаще всего алгоритма наискорейшего спуска (АНС). Для одной обучающей пары (р=1) j–я составляющая градиента согласно (2.4), (2.6) имеет вид:

(2.7)

где . При этом значения wij уточняются либо дискретным

(2.8)

либо аналоговым способом из решения разностного уравнения

(2.9)

где ,  (0,1) играют роль коэффициентов обучения, от которых сильно зависит его эффективность. Наиболее быстрым (но одновременно наиболее трудоемким) считается метод направленной минимизации с адаптивным выбором значений , .

Следует отметить, что применение градиентных методов обучения нейрона гарантирует достижение только локального экстремума, который для полимодальной E(w) может быть достаточно далек от глобального минимума. В этом случае результативным может оказаться обучение с моментом (ММ)

(2.10)

где 0<<1 – коэффициент момента, или использование стохастических методов оптимизации.