- •Навчальний посібник
- •Isbn 966-574-606-5
- •4.1. Структура і загальна характеристика сппр
- •4.2. Сфери та приклади застосування сппр
- •4.3. Сппр Visual ifps/Plus
- •Balance
- •Interest 13.13 13.30 13.46 13.65 13.83 14.01
- •Interest .0131 .0131 .0131 .0131 .0131 .0131
- •4.4. Система підтримки прийняття рішень plexsys
- •5.3 База даних і система керування базою даних у сппр
- •6.3.2. Загальні категорії моделей
- •1) Структурування моделі за допомогою методу перетягувань з місця на місце — «перемістити і залишити»
- •2) Встановлення пріоритетів цілей шляхом попарних порівнянь
- •3) Оцінювання альтернатив
- •7.3. «Школи» створення сппр
- •7.3.1. Аналіз рішень
- •7.3.2. Числення рішень
- •8.1. Концептуальні засади розроблення сппр
- •8.1.4. Проектувальники
- •9.4.3. Біологічні нейрони і нейромережі
- •9.4.5. Архітектура нейромереж
- •9.4.6. Навчання та використання нейромереж
- •Ibm: Visual Warehouse
- •Informix: MetaCube
- •10.2.4. Проектування сховищ даних
- •Правила кода для olap
- •11.2.2. Таксономії продуктів Groupware
- •11.3.2. Підтримуючі засоби гсппр
- •12.1.2. Призначення віс
- •12.2.4. Створення рішень виконавцями
- •12.3.3. Зіставлення ісм, сппр та віс
- •Переваги та недоліки виконавчої інформаційної системи
- •12.3.4. Деякі особливості побудови віс
- •Критерії адаптивност1 віс
9.4.5. Архітектура нейромереж
У процесі розроблення нейромереж автори наділяють штучні нейрони різноманітними властивостями з тим, щоб комп'ютерні нейромережі адекватно відображали можливості біологічних нейромереж стосовно розв'язання певного типу проблем, що зумовило появу великого різноманіття підходів до алгоритмів нейромереж, зокрема штучні нейрони можуть бути з різними передавальними функціями, з різними функціями стану, двійковими, цілочисельними, дійсними та іншими числовими значеннями входів і ваг. Тому в термінах нейронних мереж можна описувати алгоритми розв'язання як добре формалізованих задач, наприклад задач математичної фізики, так і задач розпізнавання, що погано формалізуються, класифікації, узагальнення і асоціативного запам'ятовування.
Мережі можуть бути такими, що конструюються або що навчаються. У мережі, що конструюється, кількість і тип нейронів, граф міжнейронних зв'язків, ваги входів нейронів визначаються за створення мережі, виходячи із задачі, що розв'язується. Наприклад, за конструювання мережі Хопфілда, що функціонує як асоціативна пам'ять, кожна вхідна послідовність із заздалегідь визначеного певного ряду бере участь у визначенні ваги входів нейронів мережі. Після етапу конструювання функціонування мережі полягає в наступному. За подачі на входи часткової або помилкової вхідної послідовності мережа через якийсь час переходить в один зі стійких станів, передбачених за її конструювання. При цьому на входах мережі з'являється послідовність, що визнається мережею як найближча до спочатку поданої. Кількість вхідних послідовностей — М, що запам'ятовуються, пов'язана з кількістю нейронів у мережі співвідношенням: M<N/41ogN, де N — кількість нейронів.
У мережах, що навчаються, графи міжнейронних зв'язків і ваги входів змінюються за виконання алгоритму навчання. За алго-
429
ритмом навчання мережі поділяться на ті, що спостерігаються, ті що не спостерігаються і змішані (комбіновані). Перші у разі навчання порівнюють заздалегідь відоме значення виходу із фактичним вихідним значенням. Якщо відмінність між виходом мережі і відомим значенням суттєва, то виконується корегування ваг мережі. Такий алгоритм називається зворотним розповсюдженням {Back Propagation) помилки в зворотному напрямку по мережі.
Другі навчаються, не знаючи заздалегідь правильних вихідних значень, але групуючи «близькі» вхідні вектори так, щоб вони формували той самий вихід мережі. Навчання, що не спостерігається, використовується, зокрема, для розв'язання задач класте-ризації. За змішаного алгоритму навчання частина ваг визначається методом навчання, що спостерігається, а решта — за навчання, що не спостерігається.
На даний час використовується кілька типів архітектур ней-ромереж. Найчастіше в дейтамайнінгу використовується багатошаровий персептрон, як об'єднання простих нейронів у багатошарову штучну нейромережу. Всередині кожного ввідні вершини з'єднуються з вивідними вершинами через один або більше невидимих шарів (рівнів). Ввідні вершини графа нейромережі утворюють нейрони вхідного рівня, які за аналогією з біологічною нейромережею назвемо рецепторними нейронами (або просто — рецепторами), а вихідні вершини утворюють вершини вихідного рівня — ефекторні нейрони (ефектори).
Найбільшу популярність отримали трьохшарові персептрони, що включають вхідний рівень, кількість нейронів якого дорівнює кількості параметрів, що вводяться в нейромережу (наприклад, за прогнозування це число спостережень у певному ряді даних), вихідний рівень, кількість нейронів якого дорівнює кількості показників на виході (якщо прогнозуємо скалярну величину, то це одиниця) та середній (внутрішній) рівень (приховані, невидимі нейрони).
Кількість прихованих нейронів може бути довільною, проте є обґрунтовані рекомендації щодо вибору даного числа: кількість нейронів внутрішнього рівня має дорівнювати півсумі кількостей вхідних і вихідних нейронів. Кожний внутрішній нейрон має бути зв'язаним з виходами всіх вхідних нейронів, а кожний вихідний нейрон — з виходами всіх нейронів внутрішнього шару.
У практиці дейтамайнінгу використовуються й інші типи ней-ромереж, зокрема, ймовірнісні нейромережі PPN (Probabilistic Neural Network), докладні описи яких можна знайти у спеціальній літературі.
430