Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Інтелектуальні системи.doc
Скачиваний:
12
Добавлен:
27.11.2019
Размер:
254.46 Кб
Скачать

Двохшаровий персептрон

У багатошаровій мережі вихідні сигнали нейронів попереднього шару відіграють роль вхідних сигналів для нейронів наступного шару, тобто нейрони попереднього шару виступають як рецептори для нейронів наступного шару. 

  • Зв'язки між суміжними шарами нейронів називають безпосередніми.

  • Зв'язки між шарами, розділеними N проміжних шарів називають зв'язками N-го рівня опосередкованості.

  • Безпосередні зв'язки – це зв'язки 0-го рівня опосередкованості.

  • Проміжні шари нейронів у багатошарових мережах називають схованими.

Багатошаровий персептрон – це навчальна система, що розпізнає, реалізуючи в процесі навчання лінійне вирішальне правило, яке коректується в просторі побічних ознак, що звичайно є фіксованими випадково обраними лінійними граничними функціями від первинних ознак.  При навчанні на вхід персептрона по черзі подаються сигнали з навчальної вибірки, а також вказівки про клас, до якого варто віднести даний сигнал.  При ідентифікації, розпізнаванні, прогнозуванні на вхід багатошарового персептрона надходить сигнал, що представляє собою набір первинних ознак, що і фіксуються рецепторами.  Спочатку обчислюються побічні ознаки. Кожній такій побічній ознаці відповідає лінійна від первинних ознак. Побічна ознака приймає значення 1, якщо відповідна лінійна функція перевищує поріг. В іншому випадку вона приймає значення 0. Потім для кожного з класів обчислюється функція, лінійна щодо побічних ознак. Перцептрон виробляє рішення про приналежність вхідного сигналу до того класу, якому відповідає функція від вторинних параметрів, що має найбільше значення.  Показано, що для представлення довільного нелінійного функціонального відображення, що задається навчальної вибіркою, досить всього двох шарів нейронів. Однак на практиці, у випадку складних функцій, використання більш ніж одного схованого шару може давати економію повного числа нейронів.  У багатошарових мережах оптимальні вихідні значення нейронів усіх шарів, крім останнього, як правило, не відомі, і двох чи більш шаровий перцептрон неможливо навчити, керуючись тільки величинами помилок на виходах НМ. 

Варіанти рішення проблеми

  1. Розробка наборів вихідних сигналів, що відповідають вхідним, для кожного шару НМ.

  2. Динамічне підстроювання вагових коефіцієнтів синапсів, у ході якої вибираються, як правило, найбільш слабкі зв'язки і змінюються на малу величину в ту чи іншу сторону, а зберігаються тільки ті зміни, що спричинили зменшення помилки на виході всієї мережі.

  3. Поширення сигналів помилки від виходів НМ до її входів, у напрямку, зворотному прямому поширенню сигналів у звичайному режимі роботи.

Лекція 4 нейромережі

Основи теорії нейроподібних мереж. Нейроподібна мережа

Нейроподібна мережа — це рівнобіжна зв'язна мережа простих адаптивних елементів, що взаємодіє з об'єктами реального світу аналогічно біологічній нервовій системі.  Налаштована і навчена нейроподібна мережа може використовуватися на реальних вхідних даних, не тільки підказуючи користувачу коректне рішення, але й оцінюючи ступінь його вірогідності.