Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Bilet1.docx
Скачиваний:
3
Добавлен:
08.09.2019
Размер:
573.19 Кб
Скачать

1) Правило навчання штучної нейросітки за д.Хеббом.

У більш строгому формулюванні гіпотеза Хебба говорить: властивість синапса

(чи посилення уповільнення) змінюється пропорційно добутку перед і після

синаптичної активності. Іншими словами: нейронні з'єднання підсилюються,

якщо вони використовуються частіше, чи, як прийнято в повсякденній формі:

"тренування створює майстра".

Алгоритм реалізації цього правила для нейронної сітки може бути представлений

у математичній формі:

якщо wij — вага в графічній сітці від входу xi до виходу yi, то вага wij у момент

надходження вхідного сигналу змінюється на величину

wij= xi yj

тут > 0 — постійна; xi — вхід; yj — вихід.

В алгоритмах навчання правило Хебба використовується з незначними зміненнями.

Замість виходу yj приймають yj, при цьому величина yj дорівнює різниці між

бажаним виходом і фактичним виходом, що відповідає моменту навчання. Тоді

одержують так зване дельта-правило:

wj = xi yj .

Як видно, подальша корекція ваги не буде потрібна, якщо отриманий

вихід погодиться з бажаним. Ця форма правила навчання запропонована

Widrow і Hoff і називається їхнім ім'ям чи дельта-правилом.

2) етап дефазифікації (необов'язковий). Використовується тоді, коли корисно перетворити

нечіткий набір значень виведених лінгвістичних змінних до точних. Є досить велика кількість

методів переходу до точних значень (по крайней мере, 30). Два приклади загальних методів –

«методи повної інтерпретації" і "по максимуму". У методі повної інтерпретації точне значення

виведеної змінної обчислюється як значення "центру ваги" функції приналежності для нечіткого

значення. У методі максимуму в якості точного значення виведеної змінної приймається

максимальне значення функції приналежності.

В теорії нечітких множин процедура дефазифікації аналогічна знаходженню характеристик

положення (математичного очікування, моди, медіани) випадкових величин в теорії ймовірності.

Найпростішим способом виконання процедури дефазифікації є вибір чіткого числа, відповідного

максимуму функції приналежності. Однак придатність цього способу поширюється лише на

одноекстремальние функції приналежності. Для багатоекстремального функцій приналежності

часто використовуються такі методи дефазифікації: COG (центр тяжкості) - "центр ваги". Фізичним аналогом цієї формули є знаходження

центру ваги плоскої фігури, обмеженої осями координат і графіком функції

приналежності нечіткого безлічі. MOM (середнє максимумів) - "центр максимумів". При використанні методу центру

максимумів потрібно знайти середнє арифметичне елементів універсальної множини,

які мають максимальні ступеня приладдя. перший максимум-"перший максимум" - максимум функції приналежності з найменшою абсцисою.

Білет 19

1) Способи навчання нейроних сіток.

Навчання здійснюється шляхом послідовного пред'явлення вхідних векторів з

одночасним підстроюванням ваг відповідно до визначеної процедури. В процесі навчання

ваги сітки поступово змінюються так, щоб кожний вхідний вектор виробляв відповідний

до нього вихідний вектор.

Можливі, як мінімум, три підходи до навчання нейроних сіток [].

Навчання з вчителем. На кожному кроці навчання вектор , що видається сіткою

, порівнюється з цільовим вектором ц . ваги змінюються за однією з формул,

наприклад “Delta - Regal” – дельта – правилом, якщо ≠ ц .

Навчання без вчителя. Тут точний цільовий вектор не задається, а ваги на

кожному кроці трохи змінюються у довільному напрямку. За допомогою

оціночної функції визначається чи покращується розрахований вихідний вектор,

при зміні ваги в порівнянні з попереднім значенням. Якщо покращення досягнуто

, змінені ваги запам׳я товуються, а в іншому випадку вони “забуваються”.

Навчання шляхом саморганізації. Ваги змінюються на кожному кроці навчання, і

зміни залежать від а) сусідніх вхідних образів; б) імовірнісного розподілу, за яким

пропонуються до навчання допустимі вхідні образи.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]