
- •Тема 1. Складні системи і принципи системотехніки.
- •Тема 2. Методологічні питання системного моделювання.
- •Тема 3. Моделі нейронних мереж. Навчання нейроподібної мережі. Біологічний нейрон
- •Навчання штучної нейронної мережі
- •Архітектура з'єднань штучних нейронів
- •Навчання штучної нейронної мережі
- •Контрольоване навчання
- •Неконтрольоване навчання
- •Правила навчання
- •Правило Хеба
- •Правило Хопфілда
- •Правило "дельта"
- •Правило градієнтного спуску
- •Навчання методом змагання
- •Перцептрон Розенбалата
- •Алгоритм навчання одношарового перцептрона
- •Тема 4. Мережі з симетричними зв'язками. Ансамблеві нейроні мережі.
- •Тема 5. Мережа Хопфілда.
- •Тема 6. Машина Больцмана.
- •Тема 7.Нейроний класифікатор Хеммінга.
- •Алгоритм нейронної мережі Хемінга.
- •Тема 8. Карти ознак Кохонена. Мережі з латеральним гальмуванням.
- •1.4.3. Мережі з латеральним гальмуванням.
- •Алгоритм нейронної мережі Кохонена.
- •Тема 9. Нейронна мережа art. Теорія адаптивного резонансу.
- •Тема 10. Теорія нечітких множин.
- •Нечіткі множини
- •Методи побудови функцій приналежності нечітких множин
- •Нечіткі множини в системах керування
- •Иллюстрация нечеткого вывода по Мамдани
- •Загальна структура нечіткого мікроконтролера
- •Основні етапи нечіткого виводу
- •Діаграма процесу нечіткого виводу Формування бази правил системи нечіткого виводу
- •Тема 11. Нейрокомп'ютери і додатки. Реалізація нейрокомп’ютерів.
- •Тема 12. Перспективні технології нейрокомп’ютерів. Оптичні нейрокомп'ютери. Нейрокомп'ютери на пластині.
Правило градієнтного спуску
Це правило подібне до правила "дельта" використанням похідної від передатної функції для змінювання похибки "дельта" перед тим, як застосувати її до ваг з'єднань. До кінцевого коефіцієнта зміни, що діє на вагу, додається пропорційна константа, яка пов'язана з оцінкою навчання. І хоча процес навчання збігається до точки стабільності дуже повільно, це правило поширене і є загально використовуване.
Доведено, що різні оцінки навчання для різних прошарків мережі допомагає процесу навчання збігатись швидше. Оцінки навчання для прошарків, близьких до виходу, встановлюються меншими, ніж для рівнів, ближчих до входу.
Навчання методом змагання
Навідміну від навчання Хеба, у якому множина вихідних нейронів може збуджуватись одночасно, при навчанні методом змагання вихідні нейрони змагаються між собою за активізацію. Це явище, відоме як правило "переможець отримує все". Подібне навчання має місце в біологічних нейронних мережах. Навчання за допомогою змагання дозволяє кластеризувати вхідні дані: подібні приклади групуються мережею відповідно до кореляцій і представляються одним елементом.
При навчанні модифікуються синаптичні ваги нейрона-переможця. Ефект цього правила досягається за рахунок такої зміни збереженого вмережі зразка (вектора синаптичних ваг нейрона-переможця), при якому він стає подібним до вхідного приклада. Нейрон з найбільшим вихідним сигналом оголошується переможцем і має можливість гальмувати своїх конкурентів і збуджувати сусідів. Використовується вихідний сигнал нейрона-переможця і тільки йому та його сусідам дозволяється коректувати свої ваги з'єднань.
Wij (k+1)= Wij(k)+r [xj - Wij(k)].
Розмір області сусідства може змінюватись під час періоду навчання. Звичайна парадигма повинна починатись з великої області визначення сусідства і зменшуватись під час процесу навчання. Оскільки елемент-переможець визначається по найвищій відповідності до вхідного зразку, мережі Коxонена моделюють розподіл входів. Це правило використовується в самоорганізованих картах.
Перцептрон Розенбалата
Першою моделлю нейромереж вважають перцептрон Розенбалата. Теорія перцептронів є основою для багатьох типів штучних нейромереж прямого поширення і вони є класикою для вивчення.
Одношаровий перцептрон здатний розпізнавати найпростіші образи. Окремий нейрон обчислює зважену суму елементів вхідного сигналу, віднімає значення зсуву і пропускає результат через жорстку порогову функцію, вихід якої дорівнює +1 чи -1. В залежності від значення вихідного сигналу приймається рішення:
+1 - вхідний сигнал належить класу A,
-1 - вхідний сигнал належить класу B.
На рис. 1 показана схема нейронів, використовуваних в одношарових перцептронах, графік передатної функції і схема вирішальних областей, створених у багатовимірному просторі вхідних сигналів. Вирішальні області визначають, які вхідні образи будуть віднесені до класу A, які - до класу B. Перцептрон, що складається з одного нейрона, формує дві вирішальні області, розділені гіперплощиною. На рисунку показаний випадок, коли розмірність вихідного сигналу дорівнює 2. При цьому поділяюча поверхня уявляє собою пряму лінію на площині. Рівняння, що задає поділяючу пряму, залежить від значень синаптичних ваг і зсуву.
Рис. 1. Схема нейрона, графік передатної функції і поділяюча поверхня