- •Розділ 1. Основи штучних нейрони мереж
- •1.1. Біологічний прототип штучного нейрона – біологічний нейрон. Модель штучного нейрона. Активаційна функція.
- •1.2. Штучні нейронні мережі
- •1.3. Перцептрон Розенблатта
- •Розділ 2.Штучні нейронні мережі прямого поширення сигналу (feed forward) Штучні нейронні мережі зворотного поширення похибки (Back Propagation). Навчальний алгоритм зворотного поширення.
- •2.2. Шнм ffCounterPropagation(зустрічного поширення)
- •Розділ 3. Штучні нейронні мережі зі зворотними зв’язками(feed back)
- •3.1. Шнmfb Хопфілда
- •3.2. Двоскерована асоціативна пам’ять.
1.2. Штучні нейронні мережі
Функціонування моделі окремого ШН, реалізує фактично обчислення деякої функції від n змінних каналів ШН, така модель неможе вирішувати складні інтелектуальні задачі, хоча прості задачі класифікації на 2 підмножини може здійснювати.
Для вирішення більш складних інтелектуальних задач було запропоновано розглядати так звані мережі штучних нейронів природно що ШНМ є моделями біологічних нейронних з’єднань.
Очевидно що спосіб сполучень нейронів у ШНМ залежить від вирішуваної задачі при цьому традиційно розглянемо ШНМ у яких нейрони розміщені у так званих прошарках, у прошарку нейрон розміщений ніби паралельно.Схематично прошарок нейронів можна зобразити так
x1 N1
x2 N2
xn Nm
Тут x1,x2,…,xn – це вектор вхідних сигналів
=(x1,x2,…,xn)
М
атриця
W
W=
Матрицявагових коефіцієнтів усіх вхідних каналів ШН
N1,N2…,Nm – це сукупність ШН у прошарку
Out1out2outn – відповідні виходи нейронів.
Кожен із нейронів має свою власну передатну функцію outj=Fj(E)
j=
У окремих моделях ШНМ передатні функції можуть бути однакові а у інших моделях можуть бути різні.
Подача вектора вхідних сигналів через мережу вхідних каналів, та наступних їх сум в кожному нейроні може бути записана у вигляді векторно-матричного скалярного добутку
Ʃ1
x1·w11+x2·w21+…+xnwn1
=
Ʃ2
=
x1·w12+x2·w22+…+xnwn2
=
· W=
WT·
(3)
Ʃn x1·w1M+x2·w2M+…+xnwnM
По аналогії увсі передатні функції можна об’єднати у вектор стовпець функції
=
(
·w)
(4)
Окремі прошарки виконують складніші інтелектуальні операції фактично немає місце перетворення сукупності (n) вихідних сигналів у сукупність (М) вихідних сигналів.
Для реалізації ще складніших задач окремі прошарки з’єднуються у цілі багато прошаркові ШНМ, часто такі з’єднання э послідовними
x1 1 1 out1 . . . . . out1
x2 2 2 out2 . . . . . out2
xn M K outM . . . . . outM
Тут
позначення
-
це вектор вхідних сигналів. Вхідні
сигнали часто об’єднують і називають
нульовим прошарком.1-ий прошарок
називаються вхідним,виходи 1-ого прошарку
подаються на входи 2-ого по порядку
прошарку, усі прошарки окрім останнього
називають прихованими.
Усі внутрішні прошарки мають свої власні коефіцієнти.Матриця W це матриця ваг другого прошарку.Виходи останнього прошарку формують вихід усієї ШНМ.Функціонування таких ШНМ, передбачає поширення сигналу від нульового прошарку до вихідного прошарку тому такого типу ШНМ називають мережами прямого поширення сигналу.
На кожному прошарку відбувається обробка поточного значення сигналу. Функціонування таких багато прошаркових мереж теж зводиться до векторно парних операцій. Наприклад у двух прошарковому
(5)
=
(
·V)
=
(
(
·W)·V)=
Якщо передатні функції прошарків I і IІ є лінійними функція що реалізує моделі то у (5) можна виконати наступні перетворення
= ( ( ·W)·V) (6)
Переозначивши здобуток матриць W·V=U та увівши новий вектор передатних функцій
(·)
=
(
(·)
Неважко перетворити співвідношення (6) до виду (4)
=
(
(7)
MKK
(W) n · (V) m = (U) n
Таким чином у випадку моделі ШНМ із лінійною передатною функціями багатошарова мережа може бути зведена до одношарової мережі в якій результуюча матриця (ВАХ) є здобутком окремих прошарків а результуюча передатна функція є комбінацією передатних функцій окремих прошарків.
Таким чином описана модель багатошарової ШНМ, з між передатними функціями не забезпечує жодного виграшу з одношаровою ШНМ, для реалізації складних інтелектуальних задач доцільно використовувати багатошарові ШНМ з нелінійними передатними функціями.
Окрім розгляду моделі ШНМ прямого поширення сигналу використаємо моделі ШНМ із зворотними (рефлексними зв’язками). У таких мережах сигнал деякого прошарку повернеться на вхід цьогож прошарку або навіть попередніх прошарків.Схематично таку мережу можна зобразити так
x1 1 1 out
x2 2 2 out2
xN M K out3
Ⓑ
Тут зображено зворотні зв’язкі першого прошарку, та зворотні зв‘язкі останього нейрона останього прошарку на попередній
Очевидно що зворотні зв‘язкі можуть мати усі нейрони прошарку. Мережі зі зворотніми зв‘язками ще називаються рекурентими ШНМ.
Функціонування ШНМ прямого поширення та рекурентних ШНМ відрізняється:
1. У ШНМ прямого поширення сигнал проходить через мережу в 1 напрямку 1 раз
2.У рекурентних ШНМ, сигнал може проходити через мережу з повторенням багато раз до тих пір поки вихідний сигнал нестабілізується.
Навчання ШНМ
Термін ШНМ використовується для вирішення інтелектуальних задач проводяться так звані навчання мережі, в процесі навчання вагові коефіцієнти усіх нейронів кожного прошарку налаштовані певним чином.Розрізнають 2 основні способи навчання мереж які залежать від типу мережі:навчання з учителм,навчання без учителя.
У випадку навчання ШНМ з учителем передбачається так звананавчальна множина що складається із достатньо великої сукупності навчальних карт.
Кожна навчальна карта цеп пара із вхідного вектора та відповідного йому результату
,
target
Кожен крок навчання з учителем передбачає корекції ваг нейронів так щоб вихідний сигнал outi співпадав із станом очікування значення ti, для відповідного образу xi
У випадку навчання ШНМ без учителя корекція ваг насправді не проводиться адже у цьому випадку навчальна множина складається з інших карт. При цьому кожна карта це образ що ніби запам’ятований мережею, тоді запам’ятовування кожного нового образу приведи до зміни значення вагових коефіцієнтів. При навчанні без учителя немає сталих значень очікуваних результатів на виході.
Навчання з учителем у більшості випадків відноситься до мереж прямого поширення, а навчання без учителя, до рекурентних мереж зі зворотніми зв’язками.
