
- •Генетичний метод навчання нейронної мережі
- •Градієнтний алгоритм навчання нейронної мережі
- •Навчаня нм за допомогою процедури зворотнього поширення
- •Метод спряжених градієнтів для навчання нейронної мережі Back Propagation
- •Градiєнтний алгоритм навчання
- •Застосування мгуа до аналізу фінансових показників Теоретичні відомості
- •Алгоритм самоорганізації мгуа і його застосування в задачах прогнозування і розпізнавання образів
- •Опис алгоритму мгуа Перша ітерація
- •Побудова часткової моделі нмгуа
- •Загальний опис алгоритму
- •Гібридний алгоритм навчання мережі rbf
- •Застосування методів кластерного аналізу до класифікації країн за набором індексів сталого розвитку суспільства. Теоретичні відомості
Генетичний метод навчання нейронної мережі
Back Propagation.
Цей алгоритм є алгоритмом глобальної оптимізації. У ньому використовуються наступні механізми:
схрещування батьківських пар (cross-over), генерація нащадків
мутація (дія випадкових впливів)
природний добір кращих (селекція)
Мета навчання – мінімізація середньоквадратичної помилки
Задається
початкова популяція з N
особин
.
Будь-яка особина представляється
відповідними вагами. Обчислюємо індекс
придатності
(Fitness Index) і оцінюємо якість прогнозування
де С - константа.
1.
Схрещування
батьківських пар. При виборі батьків
використовується імовірностний
механізм. Позначимо
- імовірність вибору i-го
батька:
Потім здійснюється схрещування обраних пар. Можна застосовувати різні механізми схрещування. Наприклад:
Для першого нащадка беруться непарні компоненти з вектора першого батька, а парні компоненти з вектора другого батька, для другого нащадка навпаки – парні компоненти з вектора першого батька, а непарні компоненти з вектора другого батька. Це можна записати таки чином:
Береться
батьківських пар і генеруються N
нащадків.
2.
Дія мутацій
де
,
r
– початковий рівень мутації, випадкова
величина, розподілена рівномірно в
інтервалі
n – номер ітерації
3. Селекція. Можна використовувати різні механізми селекції.
1) Повна заміна старої популяції на нову.
Вибір N кращих із всіх існуючих особин
за критерієм максимуму FI.
На цьому одна ітерація генетичного алгоритму закінчується.
Описані ітерації повторюємо доти, поки не почне виконуватися одна з наступних умов зупинки:
а)
,
де
- задане значення FI;
б) k Nзад. , де Nзад. , де Nзад. – задана кількість ітерацій (103…104)
Основна перевага генетичного метода – це те, що він дозволяє знаходити глобальний мінімум, проте він має такі недоліки:
він потребує значних обчислювальних витрат;
ряд параметрів визначається експериментально, наприклад:
N – розмір популяції
-
показник загасання мутацій.
Градієнтний алгоритм навчання нейронної мережі
Першим алгоритмом навчання, який було розроблено для навчення мережі Back Propagation (ВР), являвся градієнтний метод навчання.
Нехай критерій навчання мережі, що має 3 шари (один прихований шар), такий
де
- бажане значення і-го виходу нейромережі,
-
фактичне значення і-го виходу
нейромережі ВР, для вагової матриці
.
Тобто
критерій
являє собою середній квадрат помилки
апроксимації.
Нехай
функції активації для нейронів прихованого
шару
та нейронів вихідного шару
- однакові і представляють собою функцію
“сигмоїд”
Для такої функції похідна дорівнює:
Розглянемо градієнтний алгоритм навчання нейронної мережі.
1.
Нехай
- поточне значення матриці ваг. Алгоритм
має такий вигляд:
,
де
- розмір кроку на
-й
ітерації.
2. На кожній ітерації спочатку ми навчаємо (коригуємо) вхідні ваги.
3. Знаходимо (навчаємо) вихідні ваги
де
- входи НМ,
-
виходи НМ,
-
виходи прихованого шару.
4.
та переходимо на наступну ітерацію.
Зауваження: Так званий алгоритм навчання з пам’яттю має вигляд:
,
де
-
швидкість навчання,
- параметр забування.
Градієнтний метод є першим запропонованим алгоритмом навчання, він простий в реалізації, але має такі недоліки:
повільно збігається;
знаходить лише локальний екстремум.
Удосконалення градієнтного алгоритму навчання нейронної мережі ВР
При реалізації градієнтного алгоритму навчання нейронної мережі ВР може проявитися ряд складностей, властивих градієнтним алгоритмам оптимізації:
Якщо ми знаходимося далеко від точки мінімуму функції
, то рухаємося з малим кроком, і процес пошуку може затягуватися. Для його прискорення має сенс збільшити величину кроку
. Ознакою такої ситуації є сталість знака
(Рис 2.1а).
Якщо ж ми знаходимося в околиці точки мінімуму
, і величина кроку
велика, то ми перескакуємо через точку , і виникає явище “осциляції”. У цьому випадку доцільно поступово зменшувати величину . Ознакою такої ситуації є зміна знака
, тобто
(див. Рис 2.1б).
Рис.1а |
Рис.1б |