Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Voprosy_I_S.doc
Скачиваний:
0
Добавлен:
19.12.2018
Размер:
805.89 Кб
Скачать

[]Задачи обобщения

Так же как и в случае экспериментов по различению, что математически может быть сформулированно как кластеризация, при обобщении понятий можно исследовать спонтанное обобщение, при котором критерии подобия не вводятся извне или не навязываются экспериментатором.

При этом в эксперименте по «чистому обобщению» от модели мозга или перцептрона требуется перейти от избирательной реакции на один стимул (допустим, квадрат, находящийся в левой части сетчатки) к подобному ему стимулу, который не активизирует ни одного из тех же сенсорных окончаний (квадрат в правой части сетчатки). К обобщению более слабого вида относится, например, требование, чтобы реакции системы распространялись на элементы класса подобных стимулов, которые не обязательно отделены от уже показанного ранее (или услышанного, или воспринятого на ощупь) стимула.

[]Задачи поиска правил ассоциации

Исходная информация представляется в виде признаковых описаний. Задача состоит в том, чтобы найти такие наборы признаков, и такие значения этих признаков, которые особенно часто (неслучайно часто) встречаются в признаковых описаниях объектов.

[]Задачи сокращения размерности

Исходная информация представляется в виде признаковых описаний, причём число признаков может быть достаточно большим. Задача состоит в том, чтобы представить эти данные в пространстве меньшей размерности, по возможности, минимизировав потери информации.

Методы решения

  • Метод главных компонент

  • Метод независимых компонент

  • Многомерное шкалирование

[]Задачи визуализации данных

Некоторые методы кластеризации и снижения размерности строят представления выборки в пространстве размерности два. Это позволяет отображать многомерные данные в виде плоских графиков и анализировать их визуально, что способствует лучшему пониманию данных и самой сути решаемой задачи.

Методы решения

  • Дендрограмма

  • Самоорганизующаяся карта Кохонена

  • Generative topographic map

  • Карта сходства

[]Некоторые приложения

  • Социологические исследования: формирование представительных подвыборок при организации социологических опросов.

  • Маркетинговые исследования: разбиение множества всех клиентов на кластеры для выявления типичных предпочтений.

  • Анализ рыночных корзин: выявление сочетаний товаров, часто встречающихся вместе в покупках клиентов.

Нейромережі, класифікація. (7)

Штучні нейронні мережі (ШНМ) — математичні моделі, а також їхня програмна та апаратна реалізація, побудовані за принципом функціонування біологічних нейронних мереж — мереж нервових клітин живого організму. Системи, архітектура і принцип дії базується на аналогії з мозком живих істот. Ключовим елементом цих систем виступає штучний нейрон як імітаційна модель нервової клітини мозку — біологічного нейрона. Даний термін виник при вивченні процесів, які відбуваються в мозку, та при спробі змоделювати ці процеси. Першою такою спробою були нейронні мережі Маккалока і Піттса. Як наслідок, після розробки алгоритмів навчання, отримані моделі стали використовуватися в практичних цілях: в задачах прогнозування, для розпізнавання образів, в задачах керування та інші.

ШНМ представляють собою систему з'єднаних і взаємодіючих між собою простих процесорів(штучних нейронів). Такі процесори зазвичай достатньо прості, особливо в порівнянні з процесорами, що використовуються в персональних комп'ютерах. Кожен процесор схожої мережі має справу тільки з сигналами, які він періодично отримує, і сигналами, які він періодично посилає іншим процесорам. І тим не менш, будучи з'єднаними в досить велику мережу з керованою взаємодією, такі локально прості процесори разом здатні виконувати достатньо складні завдання. З точки зору машинного навчання, нейронна мережа являє собою окремий випадок методів розпізнавання образів, дискримінантного аналізу, методів кластеризації тощо З математичної точки зору, навчання нейронних мереж — це багатопараметрична задача нелінійної оптимізації. З точки зору кібернетики, нейронна мережа використовується в задачах адаптивного управління і як алгоритми для робототехніки. З точки зору розвитку обчислювальної техніки та програмування, нейронна мережа — спосіб вирішення проблеми ефективного паралелізму. Нейронні мережі не програмуються в звичайному розумінні цього слова, вони навчаються. Можливість навчання — одна з головних переваг нейронних мереж перед традиційними алгоритмами. Технічно навчання полягає в знаходженні коефіцієнтів зв'язків між нейронами. У процесі навчання нейронна мережа здатна виявляти складні залежності між вхідними даними і вихідними, а також виконувати узагальнення. Це означає, що у разі успішного навчання мережа зможе повернути вірний результат на підставі даних, які були відсутні в навчальній вибірці, а також неповних та / або «зашумленних», частково перекручених даних.

Класифікація за типом вхідної інформації:

  • Аналогові нейронні мережі (використовують інформацію у формі дійсних чисел);

  • Двійкові нейронні мережі (оперують з інформацією, представленою в двійковому вигляді).

Класифікація за характером навчання:

  • Навчання з учителем — відомі вихідні результати нейронної мережі;

  • Навчання без вчителя — нейронна мережа опрацьовує тільки вхідні дані та самостійно формує вихідні результати. Такі мережі називають самоорганізаційними;

  • Навчання з підкріпленням — система призначення штрафів і заохочень від середовища.

Класифікація за характером налаштування синапсів:

  • Мережі з фіксованими зв'язками (вагові коефіцієнти нейронної мережі вибираються відразу, виходячи з умов завдання, при цьому: dW / dt = 0 , де W — вагові коефіцієнти мережі);

  • Мережі з динамічними зв'язками (для них в процесі навчання відбувається налаштування синаптичних зв'язків, тобто dW / dt ≠ 0, де W — вагові коефіцієнти мережі).

Складові нейромережі «Персептрон». (8)

Перцептро́н, або персептро́н — математична та комп'ютерна модель сприйняття інформації мозком ( кібернетична модель мозку), запропонована Френком Розенблатом в 1957 році і реалізована у вигляді електронної машини «Марк-1». У 1960 році перцептрон став однією з перших моделей нейромереж , а «Марк-1» — першим у світі нейрокомп'ютером. Не зважаючи на свою простоту, перцептрон здатний навчатися і вирішувати досить складні завдання.

Перцептрон складається з трьох типів елементів, а саме: сенсорні, асоціативні та реагуючі. Сигнали, що надходять від сенсорних елементів передаються асоціативним, а потім реагуючим елементам. Таким чином, перцептрони дозволяють створити набір «асоціацій» між вхідними стимулами і необхідною реакцією на виході. Відповідно до сучасної термінології, перцептрони можуть бути класифіковані як штучні нейронні мережі:

  • З одним прихованим шаром;

  • З пороговою передавальною функцією;

  • З прямим розповсюдженням сигналу.

Опис на основі сигналів:

Для початку визначимо складові елементи перцептрона, які є частковими випадками штучного нейрону з пороговою функцією передачі.

  • Простим S-елементом (сенсорним) є чутливий елемент, який від дії будь-якого з видів енергії (наприклад, світла, звуку, тиску, тепла тощо) виробляє сигнал. Якщо вхідний сигнал перевищує певний поріг θ, на виході елемента отримуємо 1, в іншому випадку — 0.

  • Простим A-елементом (асоціативним) називається логічний елемент, який дає вихідний сигнал 1, коли алгебраїчна сума його вхідних сигналів дорівнює або перевищує деяку граничну величину θ (кажуть, що елемент Активний), в іншому випадку вихід дорівнює нулю.

  • Простим R-елементом (реагує, то є чинним) називається елемент, який видає сигнал 1, якщо сума його вхідних сигналів є строго позитивною, і сигнал −1, якщо сума його вхідних сигналів є строго негативною. Якщо сума вхідних сигналів дорівнює нулю, вихід вважається або рівним нулю, або невизначеним.

Якщо на виході будь-якого елемента ми отримуємо 1, то говорять, що елемент активний або збуджений.

Всі розглянуті елементи називаються простими, тому що вони реалізують стрибкоподібні функції.

У результаті Розенблат ввів такі визначення:

  • Перцептрон представляє собою мережу, що складається з S-, A- та R-елементів, зі змінною матрицею взаємодії W (елементи якої wij — вагові коефіцієнти), що визначається послідовністю минулих станів активності мережі.

  • Перцептроном з послідовними зв'язками називається система, в якій всі зв'язки, що починаються від елементів з логічною відстанню d від найближчого S-елементу, закінчуються на елементах з логічною відстанню d+1 від найближчого S-елементу.

  • Елементарним перцептроном називається простий перцептрон, у якоговсі елементи — прості.

Додатково можна вказати на такі концепції, запропоновані в книзі, і пізніше розвинуті в рамках теорії нейронних мереж:

  • Перцептрон з перехресними зв'язками — це система, в якій існують зв'язки між елементами одного типу (S, A або R), що знаходяться на однаковій відстані від S-елементів, причому всі інші зв'язки — послідовного типу.

  • Перцептрон зі зворотнім зв'язком — це система, в якій існує хоча б один зв'язок від логічно віддаленішого елемента до менш віддаленого. Відповідно до сучасної термінології такі мережі називаються рекурентними нейронними мережами.

  • Перцептрон зі змінними S-A зв'язками — це система, в якій знято обмеження на фіксованість зв'язків від S-елементів до A-елементів. Доведено, що шляхом оптимізації S-A зв'язків можна досягти значного поліпшення характеристик перцептрона.

  • Перцептрони, обмежені за діаметром — кожна фігура X, розпізнана приватними предикатами, не перевищує за діаметром деяку фіксовану величину.

  • Перцептрони обмеженого порядку — кожен приватний предикат залежить від обмеженої кількості точок з X.

  • Перцептрони Гамба — кожен приватний предикат повинен бути лінійною пороговою функцією, тобто міні-перцептроном.

  • Випадкові перцептрони — перцептрони обмеженого порядку, коли приватні предикати представляють собою випадково вибрані булеві функції.

  • Обмежені перцептрони — множина приватних предикатів нескінченна, а множина можливих значень коефіцієнтів ai скінченна.

Історична класифікація перцептронів:

Перцептрон з одним прихованим шаром

Це класичний перцептрон, якій присвячена більша частина книги Розенблата, і що розглядається в цій статті: у нього є по одному шару S-, A-і R-елементів.

Одношаровий перцептрон

Це модель, у якій вхідні елементи безпосередньо з'єднані з вихідними за допомогою системи ваг. Чи є найпростішою мережею прямого розповсюдження — лінійним класифікатором, і окремим випадком класичного перцептрона, в якому кожен S-елемент однозначно відповідає одному A-елементу, S-A зв'язку мають вагу 1 і всі A-елементи мають поріг θ = 1. Одношарові перцептрони фактично є формальними нейронами, тобто пороговими елементами Мак-Каллока — Піттса. Вони мають безліч обмежень, зокрема, вони не можуть ідентифікувати ситуацію, коли на їхні входи подані різні сигнали.

Багатошаровий перцептрон (за Розенблатом)

Це перцептрон, в якому присутні додаткові шари A-елементів.

Багатошаровий перцептрон (за Румельхартом)

Це перцептрон, в якому присутні додаткові шари A-елементів, причому, навчання такої мережі проводиться за методом зворотнього поширення помилки, причому навчаються всі шари перцептрону (у тому числі S-A). Цей перцептрон є частковим випадком багатошарового перцептрону Розенблата.

Моделі нейромереж, без персептрона. (9)

Моделі нейромереж. Як моделюеться. (10)

10.

этапы моделирования нейронной сети

Тут вы можете оставить комментарий к выбранному абзацу или сообщить об ошибке.

Оставленные комментарии видны всем.