
- •Нейронні мережі та нейрокомп’ютери
- •Контрольні запитання
- •Історія нейронних мереж
- •Контрольні запитання
- •Штучні нейронні мережі
- •3.1 Біологічний нейрон
- •3.2 Штучний нейрон
- •3.3 Штучні нейронні мережі
- •3.4 Навчання штучної нейронної мережі
- •Контрольні запитання
- •Обгрунтування застосування нейромереж
- •4.8 Керування
- •Контрольні запитання
- •Розширена модель штучного нейрона та компоненти штучного нейрона
- •5.1 Розширена модель штучного нейрона
- •5.2 Компоненти штучного нейрона
- •5.2.1 Вагові коефіцієнти
- •5.2.2 Функція суматора
- •5.2.3 Передавальна функція
- •5.2.4 Масштабування
- •5.25 Вихідна функція
- •5.2.6 Функція похибки та поширюване назад значення
- •5.2.7 Функція навчання
- •Контрольні запитання
- •Архітектура з’єднань штучних нейронів
- •Контрольні запитання
- •Навчання штучної нейронної мережі
- •7.1 Контрольоване навчання
- •7.2 Неконтрольоване навчання
- •7.3 Оцінки навчання
- •7.4 Правила навчання
- •7.4.1 Правило Хеба
- •7.4.2 Правило Хопфілда
- •7.4.3 Правило “дельта”
- •7.4.4 Правило градієнтного спуску
- •7.4.5 Навчання методом змагання
- •Контрольні запитання
- •Перцептрон розенбалата та нейромережа зворотнього поширення похибки
- •8.1 Перцептрон Розенбалата
- •8.2 Нейромережа зворотнього поширення похибки (Back Propagation)
- •Контрольні запитання
- •Мережі delta bar delta,
- •9.3 Скерований випадковий пошук
- •Контрольні запитання
- •Нейронна мережа вищого порядку. Мережа кохонена. Квантування навчального вектора
- •10.1 Нейронна мережа вищого порядку або функціонально-пов’язана нейронна мережа
- •10.2 Мережа Кохонена
- •10.3 Квантування навчального вектора (Learning Vector Quantization)
- •Контрольні запитання
- •Мережа зустрічного поширення. Ймовірнісна нейронна мережа. Мережа хопфілда. Машина больцмана
- •11.1 Мережа зустрічного поширення (CounterРropagation)
- •Навчання мережі
- •Функціонування мережі
- •11.2 Ймовірнісна нейронна мережа
- •11.3 Мережа Хопфілда
- •Алгоритм функціонування мережі:
- •11.4 Машина Больцмана
- •Алгоритм функціонування мережі:
- •Контрольні запитання
- •Мережа хемінга. Двоскерована асоціативна пам’ять. Мережа адаптивної резонансної теорії
- •12.1 Мережа Хемінга
- •Алгоритм функціонування мережі Хемінга:
- •12.2 Двоскерована асоціативна пам’ять
- •12.3 Мережа адаптивної резонансної теорії
- •Алгоритм функціонування мережі: - ініціалізація мережі:
- •Контрольні запитання
- •Нейронна мережа на основі моделі “функціонал на множині табличних функцій”
- •13.1 Базові концепції моделі “функціонал на множині табличних функцій”
- •13.2 Навчання та функціонування нейромережі фтф
- •13.3 Алгоритм для режиму навчання нейромереж
- •13.4 Алгоритм для режиму функціонування нейромережі
- •13.5 Особливості формування передавальних функцій
- •Контрольні запитання
- •Нейромережі в задачах відображення
- •14.1 Типи задач відображення і підходи до їх вирішення
- •14.1.1 Факторний аналіз
- •14.1.2 Кореляційний аналіз
- •14.1.3 Ранжування входів
- •14.2 Вибір даних для обробки
- •14.3 Згладжування даних
- •14.4 Задачі прогнозування
- •За характером основних ознак об’єкту:
- •За числом ознак об’єкту досліджень:
- •За часом випередження розрізняють види прогнозів:
- •14.5 Адаптація нейромереж в режимах прогнозування
- •Однопараметрична задача прогнозування
- •Багатопараметрична задача прогнозування
- •Однокрокове прогнозування (передбачення)
- •Багатокрокове прогнозування
- •Багатокрокове прогнозування з перенавчанням нейромережі на кожному кроці прогнозу
- •14.6 Критерії оцінки якості функціонування мережі
- •14.7 Оцінювання точності прогнозів
- •Контрольні запитання
- •Сучасні напрямки розвитку нейрокомп’ютерних технологій
- •Загальні задачі - це задачі досить просто зводяться до обробки нейронною мережею багатовимірних векторів дійсних змінних, наприклад:
- •Нейромережеві експертні системи
- •Нейрочіпи і нейрокомп’ютери
- •Контрольні запитання
- •Перелік рекомендованих джерел
Навчання мережі
Карта Кохонена класифікує вхідні вектори в групи схожих. В результаті самонавчання прошарок здобуває здатність розділяти несхожі вхідні вектори. Який саме нейрон буде активуватися при пред’явленні конкретного вхідного сигналу, заздалегідь важко передбачити.
При навчанні прошарку Кохонена на вхід подається вхідний вектор і обчислюються його скалярні добутки з векторами ваг всіх нейронів.
Скалярний добуток є мірою подібності між вхідним вектором і вектором ваг. Нейрон з максимальним значенням скалярного добутку з’являється “переможцем” і його ваги підсилюються (ваговий вектор наближається до вхідного.
wн=wc+r(x-wc) , (11.1)
де wн - нове значення ваги, що з’єднує вхідний компонент x з нейроном-переможцем;
wс - попереднє значення цієї ваги;
r - коефіцієнт швидкості навчання, що спочатку звичайно дорівнює 0,7 і може поступово зменшуватися в процесі навчання. Це дозволяє робити великі початкові кроки для швидкого грубого навчання і менші кроки при підході до остаточної величини.
Кожна вага, зв’язана з нейроном-переможцем Кохонена, змінюється пропорційно різниці між його величиною і величиною входу, до якого він приєднаний. Напрямок зміни мінімізує різницю між вагою і відповідним елементом вхідного прошарку.
Навчальна множина може містити багато подібних між собою вхідних векторів, і мережа повинна бути навченою активувати один нейрон Кохонена для кожного з них. Ваги цього нейрона уявляють собою усереднення вхідних векторів, що його активують.
Виходи прошарку Кохонена подаються на входи нейронів прошарку Гросберга. Входи нейронів обчислюються як зважена сума виходів прошарку Кохонена. Кожна вага коректується лише в тому випадку, якщо вона з’єднана з нейроном Кохонена, який має ненульовий вихід. Величина корекції ваги пропорційна різниці між вагою і необхідним виходом нейрона Гросберга. Навчання прошарку Гросберга - це навчання “з вчителем”, алгоритм використовує задані бажані виходи.
Функціонування мережі
У своїй найпростішій формі прошарок Кохонена функціонує за правилом “переможець отримує все”. Для даного вхідного вектора один і тільки один нейрон Кохонена видає логічну одиницю, всі інші видають нуль.
Прошарок Гросберга функціонує подібно до вищеописаного. Його вихід є зваженою сумою виходів прошарку Кохонена.
Якщо прошарок Кохонена функціонує таким чином, що лише один вихід дорівнює одиниці, а інші дорівнюють нулю, то кожен нейрон прошарку Гросберга видає величину ваги, що зв’язує цей нейрон з єдиним нейроном Кохонена, чий вихід відмінний від нуля.
У повній моделі мережі зустрічного поширення є можливість одержувати вихідні сигнали по вхідним і навпаки. Цим двом діям відповідають пряме і зворотне поширення сигналів.
Області застосування: розпізнавання образів, відновлення образів (асоціативна пам’ять), стиснення даних (із втратами).
Недоліки: мережа не дає можливості будувати точні апроксимації (точні відображення). У цьому мережа значно уступає мережам зі зворотним поширенням похибки. До недоліків моделі також варто віднести слабкий теоретичний базис модифікацій мережі зустрічного поширення.
Переваги:
- мережа зустрічного поширення проста. Вона дає можливість отримувати статистичні властивості з множини вхідних сигналів. Кохонен довів, що для навченої мережі ймовірність того, що випадково обраний вхідний вектор буде найближчим до будь-якого заданого вагового вектора, дорівнює 1/k, k - число нейронів Кохонена;
- мережа швидко навчається. Час навчання в порівнянні зі зворотним поширенням може бути в 100 разів меншим;
- за своїми можливостями будувати відображення мережа зустрічного поширення значно перевершує одношарові перцептрони;
- мережа корисна для застосувань, у яких потрібно швидка початкова апроксимація;
- мережа дає можливість будувати функцію і зворотню до неї, що знаходить застосування при рішенні практичних задач.
Модифікації: мережі зустрічного поширення можуть розрізнятися способами визначення початкових значень синаптичних ваг.
Для підвищення ефективності навчання застосовується додавання шуму до вхідних векторів.
Ще один метод підвищення ефективності навчання - надання кожному нейрону “почуття справедливості”. Якщо нейрон стає переможцем частіше, ніж 1/k (k - число нейронів Кохонена), то йому тимчасово збільшують поріг, даючи тим самим навчатися й іншим нейронам.
Крім “методу акредитації”, при якому для кожного вхідного вектора активується лише один нейрон Кохонена, може бути використаний “метод інтерполяції”, при використанні якого ціла група нейронів Кохонена, що мають найбільші виходи, може передавати свої вихідні сигнали в прошарок Гросберга. Цей метод підвищує точність відображень, реалізованих мережею.