
- •1) Визначення ваг для сітки Хопфілда
- •1) Навчання персептрона
- •2) Послідовність створення і реалізація нейро-фаззі-систем
- •1) Правило навчання штучної нейросітки за д.Хеббом.
- •1) Способи навчання нейроних сіток.
- •2) Навчання в нейро-фаззі-системах
- •1) Прямоспрямовані нейронні сітки
- •1) Структура і математичний опис штучного нейрону та нейросітки.
1) Правило навчання штучної нейросітки за д.Хеббом.
У більш строгому формулюванні гіпотеза Хебба говорить: властивість синапса
(чи посилення уповільнення) змінюється пропорційно добутку перед і після
синаптичної активності. Іншими словами: нейронні з'єднання підсилюються,
якщо вони використовуються частіше, чи, як прийнято в повсякденній формі:
"тренування створює майстра".
Алгоритм реалізації цього правила для нейронної сітки може бути представлений
у математичній формі:
якщо wij — вага в графічній сітці від входу xi до виходу yi, то вага wij у момент
надходження вхідного сигналу змінюється на величину
wij= xi yj
тут > 0 — постійна; xi — вхід; yj — вихід.
В алгоритмах навчання правило Хебба використовується з незначними зміненнями.
Замість виходу yj приймають yj, при цьому величина yj дорівнює різниці між
бажаним виходом і фактичним виходом, що відповідає моменту навчання. Тоді
одержують так зване дельта-правило:
wj = xi yj .
Як видно, подальша корекція ваги не буде потрібна, якщо отриманий
вихід погодиться з бажаним. Ця форма правила навчання запропонована
Widrow і Hoff і називається їхнім ім'ям чи дельта-правилом.
2) етап дефазифікації (необов'язковий). Використовується тоді, коли корисно перетворити
нечіткий набір значень виведених лінгвістичних змінних до точних. Є досить велика кількість
методів переходу до точних значень (по крайней мере, 30). Два приклади загальних методів –
«методи повної інтерпретації" і "по максимуму". У методі повної інтерпретації точне значення
виведеної змінної обчислюється як значення "центру ваги" функції приналежності для нечіткого
значення. У методі максимуму в якості точного значення виведеної змінної приймається
максимальне значення функції приналежності.
В теорії нечітких множин процедура дефазифікації аналогічна знаходженню характеристик
положення (математичного очікування, моди, медіани) випадкових величин в теорії ймовірності.
Найпростішим способом виконання процедури дефазифікації є вибір чіткого числа, відповідного
максимуму функції приналежності. Однак придатність цього способу поширюється лише на
одноекстремальние функції приналежності. Для багатоекстремального функцій приналежності
часто використовуються такі методи дефазифікації: COG (центр тяжкості) - "центр ваги". Фізичним аналогом цієї формули є знаходження
центру ваги плоскої фігури, обмеженої осями координат і графіком функції
приналежності нечіткого безлічі. MOM (середнє максимумів) - "центр максимумів". При використанні методу центру
максимумів потрібно знайти середнє арифметичне елементів універсальної множини,
які мають максимальні ступеня приладдя. перший максимум-"перший максимум" - максимум функції приналежності з найменшою абсцисою.
Білет 19
1) Способи навчання нейроних сіток.
Навчання здійснюється шляхом послідовного пред'явлення вхідних векторів з
одночасним підстроюванням ваг відповідно до визначеної процедури. В процесі навчання
ваги сітки поступово змінюються так, щоб кожний вхідний вектор виробляв відповідний
до нього вихідний вектор.
Можливі, як мінімум, три підходи до навчання нейроних сіток [].
Навчання
з вчителем. На
кожному кроці навчання вектор
,
що видається сіткою
, порівнюється з цільовим вектором ц . ваги змінюються за однією з формул,
наприклад “Delta - Regal” – дельта – правилом, якщо ≠ ц .
Навчання без вчителя. Тут точний цільовий вектор не задається, а ваги на
кожному кроці трохи змінюються у довільному напрямку. За допомогою
оціночної функції визначається чи покращується розрахований вихідний вектор,
при зміні ваги в порівнянні з попереднім значенням. Якщо покращення досягнуто
, змінені ваги запам׳я товуються, а в іншому випадку вони “забуваються”.
Навчання шляхом саморганізації. Ваги змінюються на кожному кроці навчання, і
зміни залежать від а) сусідніх вхідних образів; б) імовірнісного розподілу, за яким
пропонуються до навчання допустимі вхідні образи.