3 курс (заочка) / Доклад - Data Mining / Полезности по теме / Data Mining хорошая методичка
.pdf
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Г |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
К |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ш |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Рис.16 |
Искусственный нейрон |
|
|
|
Ы |
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ЧЕ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Каждый синапс характеризуется величиной синаптической связи (ее |
||||||||||||||||||||||||||||||||
|
|
|
|
|
весом wi). Текущее состояние нейрона определяется как взвешенная. |
сумма его |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Г |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
входов: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
НИ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
М |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
: y=f(s). |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
Выход нейрона есть функция его состоянияТ |
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
называют характеристической |
|||||||||||||
|
|
|
|
|
|
|
Активационная функция, которую такжеТ |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
функцией, - |
|
это |
|
|
|
|
|
|
|
|
|
|
С |
вычисляющая |
выходной сигнал |
|||||||||||||||||||
|
|
|
|
|
|
нелинейная функция, |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
формального нейрона. |
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Часто используемые активационные функции: |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
У |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
1. |
Жесткая пороговаяН |
функция. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2. |
Линейный порог. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
3. |
СигмоидальнаяЫ |
функция. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
Выбор активационнойН |
функции определяется спецификой поставленной |
|||||||||||||||||||||||||||||||
|
|
|
|
|
задачи |
либо |
|
|
|
|
Е |
|
|
, накладываемыми некоторыми алгоритмами |
|||||||||||||||||||||||||
|
|
|
|
|
|
ограничениямиВ |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
обучения. |
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
Р |
преобразователь - это элемент искусственного нейрона, |
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
НелинейныйА |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
Д |
текущее состояние нейрона (выходной сигнал адаптивного |
||||||||||||||||||||||||||||
|
|
|
|
|
преобразующийУ |
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
сумматора) в выходной сигнал нейрона по некоторому нелинейному закону |
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
Г |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(активационной функции). |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
ИТочка |
|
ветвления (выход) |
|
- это |
элемент формального |
|
нейрона, |
||||||||||||||||||||||||||
|
|
|
|
|
|
К |
|
|
|
|
его выходной сигнал по нескольким адресам и имеющий один |
||||||||||||||||||||||||||||
|
|
|
|
|
посылающийС |
||||||||||||||||||||||||||||||||||
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
несколько выходов. На |
|
вход точки |
ветвления |
обычно |
|
подается |
||||||||||||||||||||||||||
|
|
|
Т |
вход и |
|
|
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
А |
|
выходной сигнал нелинейного преобразователя, который затем посылается на |
|||||||||||||||||||||||||||||||||||
|
Р |
|
|
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
А |
|
|
|
входы других нейронов. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
Архитектура нейронных сетей. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Нейронные сети могут быть синхронные и асинхронные.
Всинхронных нейронных сетях в каждый момент времени свое состояние меняет лишь один нейрон.
Васинхронных - состояние меняется сразу у целой группы нейронов, как правило, у всего слоя.
61
Можно выделить две базовые архитектуры - слоистые и полносвязные сети. Ключевым в слоистых сетях является понятие слоя.
Слой - один или несколько нейронов, на входы которых подается один и тот же общий сигнал.
|
|
|
|
|
|
|
Слоистые нейронные сети - нейронные сети, в которых нейроны |
|||||||||||||||||||||||||||||
|
|
|
|
|
разбиты на отдельные группы (слои) так, что обработка информации |
|||||||||||||||||||||||||||||||
|
|
|
|
|
осуществляется послойно. |
В слоистых сетях нейроны i-го слоя получают |
||||||||||||||||||||||||||||||
|
|
|
|
|
входные |
сигналы, преобразуют |
их и через |
|
|
|
|
|
|
|
|
|
|
|
О |
|||||||||||||||||
|
|
|
|
|
точки ветвления передаютГ |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
нейронам (i+1) слоя. И так до k-го слоя, который выдает выходные сигналыК |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
для интерпретатора и пользователя. Число нейронов в каждом слое не связано |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
с количеством нейронов в других слоях, может быть произвольным. |
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
В рамках |
одного |
слоя данные обрабатываются |
|
|
|
Ш |
|
|
|
в |
|||||||||||||||||||
|
|
|
|
|
|
|
параллельно, а |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
масштабах всей сети обработка ведется последовательно - от слоя к слою. К |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
слоистым |
|
нейронным |
|
|
сетям |
|
относятся, |
|
например, |
многослойные |
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ЧЕ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
, некогнитрон, |
|||||||
|
|
|
|
|
персептроны, сети радиальных базисных функций, когнитронГ |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
сети ассоциативной памяти. |
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
Cигнал не всегда подается на все нейроны слоя. В когнитроне, например, |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
НИ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
каждый нейрон текущего слоя получает сигналыЕ |
только от близких ему |
||||||||||||||||||||||||||||||
|
|
|
|
|
нейронов предыдущего слоя. |
|
|
|
|
М |
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Слоистые |
|
сети, в |
|
свою |
очередь, |
Т |
|
|
быть |
однослойными |
и |
||||||||||||||||||
|
|
|
|
|
|
|
|
|
могут |
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
многослойными. |
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
из одного слоя. |
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
Однослойная сеть - сеть, состоящаяС |
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
несколько слоев. |
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
Многослойная сеть - сеть, имеющаяЕ |
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В многослойной сети первыйИ слой называется входным, последующие - |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
внутренними или скрытыми,Упоследний слой - выходным. Таким образом, |
|||||||||||||||||||||||||||||||
|
|
|
|
|
промежуточные слои - это Йвсе слои в многослойной нейронной сети, кроме |
|||||||||||||||||||||||||||||||
|
|
|
|
|
входного |
и выходного. |
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
Входной слой сети реализует связь с входными |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
данными, выходной - с выходными. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Нейроны могут быть входными, выходными и скрытыми. |
|
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Входной слой организован из входных нейронов (input neuron), которые |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
получают данные и распространяют их на входы нейронов скрытого слоя сети. |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
Д |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
У |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Скрытый нейрон (hidden neuron) - это нейрон, находящийся в скрытом слое |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
нейроннойО сети. Выходные нейроны (output neuron), из которых организован |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
Г |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
выходной слой сети, выдает результаты работы нейронной сети. |
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
К |
В полносвязных сетях каждый нейрон передает свой выходной сигнал |
|||||||||||||||||||||||||||||
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
остальным нейронам, включая самого себя. Выходными сигналами сети могут |
|||||||||||||||||||||||||||||||
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Обыть все или некоторые выходные сигналы нейронов после нескольких тактов |
||||||||||||||||||||||||||||||||
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
функционирования сети. Все входные сигналы подаются всем нейронам. |
|
|
||||||||||||||||||||||||||||||
|
Р |
|
|
|
|
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Эпоха - одна итерация в процессе обучения, включающая предъявление всех примеров из обучающего множества и, возможно, проверку качества обучения на контрольном множестве.
Процесс обучения осуществляется на обучающей выборке. Обучающая выборка включает входные значения и соответствующие им
|
|
|
выходные значения набора данных. В ходе обучения нейронная сеть находит |
|||||||||||||||||||||||||||||||||||||||
|
|
|
некие зависимости выходных полей от входных. |
|
|
|
|
|
|
|
|
|
|
|
|
О |
||||||||||||||||||||||||||
|
|
|
|
|
Таким образом, |
|
|
ставится |
вопрос |
|
- |
какие |
входные |
поля |
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
(признакиГ) |
|||||||||||||||||||||||||||||||||
|
|
|
необходимо |
|
|
|
использовать. |
Первоначально |
|
выбор |
|
|
|
|
|
|
|
|
О |
|
||||||||||||||||||||||
|
|
|
|
|
|
|
осуществляетсяК |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
эвристически, далее количество входов может быть изменено. |
|
|
|
|
|
В |
|
|
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
Е |
|
|
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ш |
|
|
|
|
|
|
|
|
|
|
Сложность может вызвать вопрос о количестве наблюдений в наборе |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
||
|
|
|
данных. |
Количество |
|
|
необходимых |
наблюдений |
зависит от |
|
|
сложности |
||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
решаемой |
|
задачи. При |
|
увеличении |
|
количества |
|
|
Р |
|
|
количество |
|||||||||||||||||||||||||||
|
|
|
|
|
|
признаков |
|
|
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ЧЕ |
|
|
|
|
|
|
|
|
|
|
|
|
|
наблюдений возрастает нелинейно, эта проблема носит название "проклятие |
|||||||||||||||||||||||||||||||||||||||
|
|
|
размерности". |
|
|
При |
|
|
недостаточном |
количестве |
|
. |
|
рекомендуется |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
данныхГ |
|
||||||||||||||||||||||||||||||||||
|
|
|
использовать линейную модель. |
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
НИ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Необходимо определить количество слоев в сети и количество нейронов |
|||||||||||||||||||||||||||||||||||||
|
|
|
в каждом слое, назначить такие значения весов иЕсмещений, которые смогут |
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
М |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
минимизировать |
ошибку |
решения. |
Веса |
И |
смещения |
|
автоматически |
||||||||||||||||||||||||||||||||
|
|
|
|
и |
|
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
настраиваются |
|
|
таким |
|
|
образом, |
чтобы |
|
Е |
|
|
|
|
|
разность между |
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
минимизировать |
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
желаемым и полученным на выходе сигналами, которая называется ошибка |
|||||||||||||||||||||||||||||||||||||||
|
|
|
обучения. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
нейронной сети вычисляется путем |
||||||||||||||||
|
|
|
|
|
Ошибка обучения для построеннойЕ |
|||||||||||||||||||||||||||||||||||||
|
|
|
сравнения |
выходных |
и |
|
|
В |
(желаемых) |
значений. |
Из |
|
полученных |
|||||||||||||||||||||||||||||
|
|
|
целевыхИ |
|
||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
ошибок. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
разностей формируется функцияУ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
Функция ошибок - этоЙ целевая функция, требующая минимизации в |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
процессе |
управляемого |
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
обучения нейронной сети. С помощью функции |
||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
ошибок можно оценить качество работы нейронной сети во время обучения. |
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Например, сумма квадратов ошибок. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
От качества обучения нейронной сети зависит ее способность решать |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
Д |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
поставленные перед ней задачи. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
У |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Переобучение нейронной сети. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
Г |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ПриОобучении нейронных сетей часто возникает серьезная трудность, |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
называемая проблемой переобучения (overfitting). |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
К |
Переобучение, или чрезмерно близкая подгонка - излишне точное |
||||||||||||||||||||||||||||||||||||||
|
|
|
С |
|
||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
соответствие нейронной сети конкретному набору обучающих примеров, при |
|||||||||||||||||||||||||||||||||||||||
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
Окотором сеть теряет способность к обобщению. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Р |
|
|
|
Переобучение |
|
возникает |
в |
случае |
|
слишком |
долгого |
|
обучения, |
|||||||||||||||||||||||||||||
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
|
недостаточного числа обучающих примеров или переусложненной структуры |
|||||||||||||||||||||||||||||||||||||||
|
|
|
нейронной |
|
сети. |
Переобучение |
связано |
с |
|
тем, |
что |
выбор |
|
обучающего |
||||||||||||||||||||||||||||
|
|
|
(тренировочного) множества является случайным. С первых шагов обучения |
|||||||||||||||||||||||||||||||||||||||
|
|
|
происходит уменьшение ошибки. На последующих шагах с целью |
|||||||||||||||||||||||||||||||||||||||
|
|
|
уменьшения ошибки (целевой функции) параметры подстраиваются под |
|||||||||||||||||||||||||||||||||||||||
|
|
|
особенности |
|
обучающего |
множества. |
|
|
Однако |
при |
этом |
|
|
происходит |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
63 |
"подстройка" не под общие закономерности ряда, а под особенности его части - обучающего подмножества. При этом точность прогноза уменьшается.
|
|
|
|
|
|
|
|
|
Один из вариантов борьбы с переобучением сети - деление обучающей |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
выборки на два множества (обучающее и тестовое). |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
На обучающем множестве происходит обучение нейронной сети. На |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
тестовом множестве осуществляется проверка построенной модели. Эти |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
множества не должны пересекаться. |
С каждым шагом параметры модели |
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
изменяются, |
|
однако постоянное уменьшение |
значения целевой |
|
|
|
О |
||||||||||||||||||||||||||||||
|
|
|
|
|
|
функцииГ |
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
происходит именно на обучающем множестве. При разбиении множестваК на |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
два мы можем наблюдать изменение ошибки прогноза на тестовом множестве |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
параллельно |
|
с |
|
наблюдениями |
над |
обучающим |
|
|
|
|
|
|
Ш |
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
множеством. Какое-то |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
количество шагов |
ошибки прогноза |
уменьшается |
на |
|
обоих |
|
множествах. |
||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
Однако на определенном шаге ошибка на тестовом |
|
|
Р |
|
|
|
|
|
|
||||||||||||||||||||||||||||
|
|
|
|
|
множестве начинает |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ЧЕ |
|
|
|
|
|
|
|
|
|
|
|
|
|
возрастать, |
|
при |
|
этом |
|
ошибка |
на |
обучающем |
множестве |
|
продолжает |
||||||||||||||||||||||||||
|
|
|
|
|
уменьшаться. Этот |
|
момент считается концом |
|
|
|
|
. |
или |
настоящего |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
реальногоГ |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
обучения, с него и начинается переобучение. |
|
|
|
. |
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
НИ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Прогноз на тестовом множестве является проверкой работоспособности |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
построенной |
|
модели. |
|
Ошибка |
на тестовом |
|
множествеЕ |
может |
являться |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
М |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ошибкой прогноза, |
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
если тестовое множество максимально приближено к |
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
текущему моменту. |
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
Модели нейронных сетей. |
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
Рассмотрим наиболее простые моделиС |
нейронных сетей: однослойный и |
||||||||||||||||||||||||||||||||
|
|
|
|
|
многослойный персептрон. |
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Однослойный персептронИ (персептрон Розенблатта) - однослойная |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
нейронная сеть, все нейроныУкоторой имеют жесткую пороговую функцию |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
активации. |
|
|
|
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Однослойный персептрон имеет простой алгоритм обучения и способен |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
решать лишь самые простые задачи. Классический пример такой нейронной |
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
сети - однослойный трехнейронный персептрон - представлен на рис.17. |
|
|
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Д |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
У |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Г |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
К |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Рис. 17 Однослойный трехнейронный персептрон
64
Сеть, изображенная на рисунке, имеет n входов, на которые поступают сигналы, идущие по синапсам на 3 нейрона. Эти три нейрона образуют единственный слой данной сети и выдают три выходных сигнала.
Многослойный персептрон (MLP) - нейронная сеть прямого распространения сигнала (без обратных связей), в которой входной сигнал преобразуется в выходной, проходя последовательно через несколько слоев.
|
|
|
|
|
|
|
|
Первый из таких слоев называют входным, последний - выходным. Эти |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
слои содержат так называемые вырожденные нейроны и иногда в количествеГ |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
слоев не учитываются. Кроме входного и выходного слоев, в многослойномК |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
персептроне |
есть один |
|
или несколько |
|
промежуточных |
|
|
|
|
В |
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
слоев, которые |
||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
называют скрытыми. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ш |
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
В этой модели персептрона должен быть хотя бы один скрытый слой. |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
Присутствие нескольких таких слоев оправдано лишь в случае использования |
||||||||||||||||||||||||||||||||
|
|
|
|
|
нелинейных функций активации. |
|
|
|
|
|
|
|
|
|
ЧЕ |
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Пример двухслойного персептрона представлен наГрис.18. |
|
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
НИ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
М |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
У |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
Рис. 18 Двухслойный перцептрон |
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
на рисунке, имеет n входов. На них поступают |
||||||||||||||||||||
|
|
|
|
|
|
|
|
Сеть, изображеннаяР |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
А |
далее по синапсам на 3 нейрона, которые образуют первый |
||||||||||||||||||||||||||
|
|
|
|
|
сигналы, идущиеД |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
У |
|
|
сигналы первого слоя передаются двум нейронам второго |
|||||||||||||||||||||||||
|
|
|
|
|
слой. ВыходныеС |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
О |
|
|
, в свою очередь, выдают два выходных сигнала. |
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
слоя. ПоследниеГ |
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
К |
ЙМетод обратного распространения ошибки (Back propagation, backprop) |
||||||||||||||||||||||||||||||
|
|
|
|
|
– |
С |
алгоритм |
обучения |
|
многослойных |
|
персептронов, |
основанный на |
||||||||||||||||||||||||
|
|
|
|
|
Ввычислении градиента функции ошибок. В процессе обучения веса нейронов |
||||||||||||||||||||||||||||||||
|
|
|
|
О |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
каждого слоя нейросети корректируются с учетом сигналов, поступивших с |
|||||||||||||||||||||||||||||||||
|
|
А |
|
предыдущего слоя, и невязки каждого слоя, которая вычисляется рекурсивно |
|||||||||||||||||||||||||||||||||
|
Р |
|
|
||||||||||||||||||||||||||||||||||
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
в обратном направлении от последнего слоя к первому. |
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Программное обеспечение, имитирующее работу нейронной сети, называют нейросимулятором либо нейропакетом.
Большинство нейропакетов включают следующую последовательность действий:
65
1.Создание сети (выбор пользователем параметров либо одобрение установленных по умолчанию).
2.Обучение сети.
3.Выдача пользователю решения.
Самоорганизующиеся карты Кохонена.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
|
Классификация нейронных сетей |
|
|
|
|
|
|
|
|
|
Г |
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|||||||||||||||||||
|
|
|
|
|
|
|
Одна |
|
из |
|
возможных |
|
классификаций |
нейронных |
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
сетей -К по |
||||||||||||||||||||||||||
|
|
|
направленности связей. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ш |
|
|
|
|
|
|
|
|
|
|
|
Нейронные сети бывают с обратными связями и без обратных связей. |
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
Сети без обратных связей. |
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
1. |
Сети с обратным распространением ошибки. |
Н |
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
Сети |
|
этой |
|
группы |
характеризуются фиксированнойЧЕ |
|
структурой, |
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
итерационным обучением, корректировкой весов по ошибкамГ . |
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2. |
Другие сети |
(когнитрон, |
|
неокогнитронН , |
другие |
сложные |
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
модели). |
|
|
|
|
|
|
|
|
|
|
|
|
НИ |
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
М |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Преимуществами сетей без обратных связей является простота их |
|||||||||||||||||||||||||||||
|
|
|
реализации и гарантированное получение ответаИ |
после прохождения данных |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
по слоям. Недостатком этого вида сетей считается минимизация размеров сети |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
– нейроны многократно участвуют в обработке данных. |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Меньший объем сети облегчает процесс обучения. |
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Сети с обратными связями. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1. |
Сети Хопфилда (задачиИ |
ассоциативной памяти). |
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
2. |
Сети КохоненаУ(задачи кластерного анализа). |
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Преимуществами сетей с обратными связями является сложность |
|||||||||||||||||||||||||||||
|
|
|
обучения, вызванная большимН |
числом нейронов для алгоритмов одного и того |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
же уровня сложности.Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
Недостатки |
|
В |
|
|
|
|
сетей |
|
- |
|
требуются специальные |
условия, |
|||||||||||||||||
|
|
|
|
|
|
|
Тэтого вида |
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
гарантирующиеРсходимость вычислений. |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Д |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Другая классификация нейронных сетей: сети прямого распространения |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
У |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
и рекуррентные сети. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Г |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Сети прямого распространения: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
Й |
|
1. |
Персептроны. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
И |
|
2. |
Сеть Back Propagation. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
К |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
С |
|
|
|
3. |
Сеть встречного распространения. |
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
О |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
4. |
Карта Кохонена. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
АР |
|
|
|
|
|
|
Рекуррентные сети. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
С |
|
|
|
|
|
|
|
|
1. |
Сеть Хопфилда. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
2. |
Сеть Элмана |
- |
|
сеть, состоящая |
из двух |
слоев, в |
которой |
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
скрытый слой охвачен динамической обратной связью, что позволяет учесть предысторию наблюдаемых процессов и накопить информацию для выработки правильной стратегии
66
управления. Эти сети применяются в системах управления движущимися объектами.
Характерная особенность таких сетей - наличие блоков динамической задержки и обратных связей, что позволяет им обрабатывать динамические модели.
|
|
|
|
|
|
|
|
Нейронные сети могут обучаться с учителем или без него. |
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
При обучении с учителем для каждого обучающего входного примера |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
требуется знание правильного ответа или функции оценки качества ответаГ. |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
Такое |
обучение |
|
называют |
управляемым. |
Нейронной сети |
|
|
|
|
|
О |
|
|||||||||||||||||||||||
|
|
|
|
|
|
предъявляютсяК |
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
значения входных и выходных сигналов, а она по определенному алгоритму |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
подстраивает веса синаптических связей. В процессе обучения производится |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ш |
|
|
|
|
|
|
|
|
|
корректировка весов сети по результатам сравнения фактических выходных |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
значений с входными, известными заранее. |
|
|
|
|
|
|
|
Н |
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
При обучении без учителя раскрывается внутренняя структура данных |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ЧЕ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
нейронной сети |
||||||||
|
|
|
|
|
или корреляции между образцами в наборе данных. ВыходыГ |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
формируются самостоятельно, а веса изменяютсяН |
|
по алгоритму, |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
учитывающему только входные и производные от них сигналы. Это обучение |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
НИ |
обучения объекты или |
||||||||||
|
|
|
|
|
называют также неуправляемым. В результате такогоЕ |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
примеры распределяются по категориям, |
|
М |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
сами категории и их количество |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
могут быть заранее не известны. |
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Подготовка данных для обучения. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
При |
подготовке данных для |
|
И |
|
|
нейронной |
сети необходимо |
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
обученияС |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
моменты. |
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
обращать внимание на следующие существенныеЕ |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
Количество |
|
|
|
|
|
|
|
|
|
В |
|
|
|
данных. Следует |
|
учитывать тот |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
наблюдений Ив наборе |
|
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
данных, тем больше времени потребуется |
||||||||||||||||
|
|
|
|
|
фактор, что чем больше размерностьУ |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
для обучения сети. |
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Работа с выбросами. Следует определить наличие выбросов и оценить |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
необходимость их присутствия в выборке. Обучающая выборка должна быть |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
представительной (репрезентативной), не должна содержать противоречий, |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
так как нейронная сеть однозначно сопоставляет выходные значения входным. |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Нейронная сеть работает только с числовыми входными данными, |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
Д |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
У |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
поэтому важным этапом при подготовке данных является преобразование и |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
С |
данных. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
кодированиеО |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
Г |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
При использовании на вход нейронной сети следует подавать значения |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
из того диапазона, на котором она обучалась. Например, если при обучении |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
К |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
нейронной сети на один из ее входов подавались значения от 0 до 10, то при |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Оее применении на вход следует подавать значения из этого же диапазона или |
||||||||||||||||||||||||||||||||||||
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
близлежащие. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
Существует |
|
|
|
понятие |
нормализации |
данных. |
Целью |
нормализации |
||||||||||||||||||||||||||
А |
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||
С |
|
|
|
|
значений является преобразование данных к виду, который наиболее подходит |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
для обработки, т.е. данные, поступающие на вход, должны иметь числовой |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
тип, а их значения должны быть распределены в определенном диапазоне. |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
Нормализатор может приводить дискретные данные к набору уникальных |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
индексов |
либо |
|
|
преобразовывать |
значения, |
лежащие |
в |
|
|
произвольном |
диапазоне, в конкретный диапазон, например, [0..1]. Нормализация выполняется путем деления каждой компоненты входного вектора на длину вектора, что превращает входной вектор в единичный.
|
|
|
|
|
|
|
|
Выбор структуры нейронной сети. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
Выбор структуры нейронной сети обуславливается спецификой и |
||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
сложностью решаемой задачи. В большинстве случаев выбор структуры |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
нейронной |
сети |
определяется на |
основе |
объединения |
|
опыта и |
интуиции |
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|
|
|
|
|
разработчика. Однако существуют основополагающие принципы, которымиГ |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
следует руководствоваться при разработке новой конфигурации: |
|
|
|
|
|
|
О |
|
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
К |
|
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
1. |
возможности сети |
возрастают |
|
с |
увеличением |
числа |
|
|
|
|
С |
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
ячеек |
|
сети, |
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
||
|
|
|
|
|
плотности связей между ними и числом выделенных слоев; |
|
|
|
|
Е |
|
|
|
|
|
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
Ш |
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
2. введение обратных связей наряду с увеличением возможностей сети |
||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
поднимает вопрос о динамической устойчивости сети; |
|
|
|
Н |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
3. |
|
сложность |
|
алгоритмов |
|
функционирования сети |
|
(в |
|
том |
|
числе, |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ЧЕ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
, тормозящих |
|||||||||
|
|
|
|
|
например, введение нескольких типов синапсов - возбуждающихГ |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
и др.) также способствует усилению мощи НС. |
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
Вопрос о необходимых и достаточных свойствах сети для решения того |
||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
или иного |
|
|
рода |
|
|
задач |
представляет |
|
|
НИ |
целое |
|
|
направление |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
собойЕ |
|
|
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
М |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
нейрокомпьютерной науки. Так как проблема синтеза нейронной сети сильно |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
зависит |
|
от |
|
|
решаемой |
|
задачи, |
|
дать |
|
|
|
Т |
|
|
|
|
|
|
рекомендации |
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
общие подробные |
|
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
затруднительно. |
Очевидно, |
что |
|
|
|
|
|
Т |
функционирования |
НС, то |
есть |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
процесс |
|
|||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
выполнять, |
|
зависит от величин |
|||||||||||||||
|
|
|
|
|
сущность действий, которые она способнаС |
|
||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
синаптических |
связей, |
поэтому, |
|
|
Р |
|
|
|
|
|
определенной структурой НС, |
||||||||||||||||||||||||||||||||
|
|
|
|
|
задавшисьЕ |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
сети должен найти оптимальные |
|||||||||||||||||
|
|
|
|
|
отвечающей какой-либо задаче, разработчикИ |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
значения |
|
всех |
|
|
|
|
|
|
|
Н |
|
весовых коэффициентов (некоторые |
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
переменныхУ |
|
|
||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
синаптические связи могут бытьЙ |
постоянными). |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Карты Кохонена |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Самоорганизующиеся карты (Self-Organizing Maps, SOM). |
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Сети, |
|
|
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
называемые картами Кохонена, - это одна из разновидностей |
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
Д |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
У |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
нейронных сетей, однако они принципиально отличаются от рассмотренных |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
выше, |
|
С |
|
|
|
|
|
используют неконтролируемое |
обучение. |
|
При |
|
|
таком |
|||||||||||||||||||||||||||||
|
|
|
|
|
посколькуО |
|
|
|
|
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
Г |
обучающее |
|
множество состоит |
|
лишь |
из |
|
значений |
|
входных |
||||||||||||||||||||||||||||||
|
|
|
|
|
обучении |
|
|
|
|
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
переменных, в процессе обучения нет сравнивания выходов нейронов с |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
К |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
эталонными значениями. Можно сказать, что такая сеть учится понимать |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Оструктуру данных. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
|
|
|
Основной принцип работы сетей - введение в правило обучения нейрона |
|||||||||||||||||||||||||||||||||||||||||
|
Р |
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||||
|
|
|
информации относительно его расположения. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||
С |
|
|
|
|
|
|
|
В основе идеи сети Кохонена лежит аналогия со свойствами |
||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
человеческого мозга. Кора головного мозга человека представляет собой |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
плоский лист и свернута складками. Таким образом, можно сказать, что она |
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
обладает |
|
|
определенными |
топологическими свойствами (участки, |
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
ответственные |
за близкие |
части |
|
тела, |
|
|
примыкают друг |
к |
другу |
|
|
и |
все |
изображение человеческого тела отображается на эту двумерную поверхность).
Задачи, решаемые при помощи карт Кохонена.
Самоорганизующиеся карты могут использоваться для решения таких
|
|
|
|
|
задач, как моделирование, прогнозирование, поиск закономерностей в |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
больших массивах данных, выявление наборов независимых признаков и |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
сжатие информации. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
О |
|||||||||||
|
|
|
|
|
|
|
|
|
Наиболее распространенное |
применение сетей Кохонена |
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
- решениеГ |
|||||||||||||||||||||||||||||
|
|
|
|
|
задачи классификации без учителя, т.е. кластеризации. |
|
|
|
|
|
|
|
О |
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
К |
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
При |
такой постановке задачи |
|
дается |
набор |
объектов, |
|
|
|
С |
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
каждому из |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
которых |
сопоставлена строка |
таблицы |
(вектор |
значений |
|
Е |
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
|
признаков). |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ш |
|
|
|
|
|
|
|
|
|
|
Требуется разбить исходное множество на классы, т.е. для каждого объекта |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
найти класс, к которому он принадлежит. |
|
|
|
|
|
|
Н |
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
В результате |
|
получения |
новой информации |
о |
классах |
возможна |
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ЧЕ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
|
|
коррекция существующих правил классификации объектовГ . |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Наиболее распространенным применением картН |
Кохонена являются |
||||||||||||||||||||||||||||
|
|
|
|
|
разведочный анализ данных и обнаружение новых явлений. |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
Разведочный анализ данных. |
Сеть |
|
|
|
НИ |
способна |
распознавать |
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
КохоненаЕ |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
М |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
кластеры в данных, а также устанавливать близость классов. Таким образом, |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
пользователь может улучшить свое понимание структуры данных, чтобы |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
затем уточнить нейросетевую модель. Если в данных распознаны классы, то |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
их можно обозначить, после чего сетьСсможет решать задачи классификации. |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
и в тех задачах классификации, где |
|||||||||||||||
|
|
|
|
|
Сети Кохонена можно использоватьЕ |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
классы уже заданы, |
- |
|
|
|
В |
|
|
|
|
|
будет в том, что сеть сможет |
||||||||||||||||||||||
|
|
|
|
|
|
тогда преимуществоИ |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
классами. |
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
выявить сходство между различнымиУ |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
Обнаружение новых Йявлений. Сеть Кохонена распознает кластеры в |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
обучающих данных и относит все данные к тем или иным кластерам. Если |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Н |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
после этого сеть встретится с набором данных, непохожим ни на один из |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
известных образцов, то она не сможет классифицировать такой набор и тем |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
самым выявит его новизну. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
Р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Обучение сети Кохонена. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
Д |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
У |
|
|
|
|
|
|
в отличие от многослойной нейронной сети, очень |
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
Сеть Кохонена, |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
С |
представляет собой два слоя: входной и выходной. Ее также |
|||||||||||||||||||||||||||
|
|
|
|
|
проста; онаО |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
Г |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
называют самоорганизующейся картой. Элементы карты располагаются в |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
Й |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
И |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
некотором пространстве, как правило, двумерном. Сеть Кохонена изображена |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
К |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
на рис.19. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
В |
|
|
Сеть Кохонена обучается методом последовательных приближений. В |
||||||||||||||||||||||||||||||
|
|
|
|
О |
|
|
|
|||||||||||||||||||||||||||||||
|
|
|
Т |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
А |
|
процессе обучения таких сетей на входы подаются данные, но сеть при этом |
||||||||||||||||||||||||||||||||||
|
Р |
|
|
|||||||||||||||||||||||||||||||||||
|
|
|
подстраивается не под эталонное значение выхода, а под закономерности во |
|||||||||||||||||||||||||||||||||||
А |
|
|
|
|||||||||||||||||||||||||||||||||||
С |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
входных данных. Начинается обучение с выбранного случайным образом выходного расположения центров.
В процессе последовательной подачи на вход сети обучающих примеров определяется наиболее схожий нейрон (тот, у которого скалярное произведение весов и поданного на вход вектора минимально). Этот нейрон
объявляется победителем и является центром при подстройке весов у соседних нейронов. Такое правило обучения предполагает "соревновательное"