
- •Ответы на зачет по из (Питолин)
- •1. Классы задач, решаемые искусственными нейронными сетями
- •2. Биологический нейрон как прототип искусственного нейрона
- •3. Математическая модель искусственного нейрона
- •4. Функция активации. Сигмоидальная функция активации.
- •5. Основные этапы нейросетевого анализа
- •6. Топологии инс
- •7. Многослойные сети. Классификация многослойных инс
- •8. Классификация инс по различным признакам.
- •9 Математическая постановка нейросетевого анализа данных
- •10 Оценка количества нейронов в скрытых слоях инс. Теорема о полотне.
- •11. Общая схема процесса обучения инс.
- •15. Алгоритм обратного распространения ошибки. Общее описание.
- •16. Математическое описание алгоритма обратного распространения ошибки для однослойной сети.
- •17. Математическое описание алгоритма обратного распространения ошибки для двухслойной сети.
- •18. Особенности функционирования алгоритма обратного распространения ошибки.
- •19. Геометрическая интерпретация алгоритма обратного распространения ошибки.
- •20. Переобучение и обобщение.
- •21. Обучение без учителя. Алгоритм Хебба.
- •22. Обучение без учителя. Алгоритм обучения Кохонена.
- •23. Геометрическая интерпретация алгоритма обучения Кохонена.
- •24. Персептроны
- •25. Проблема «исключающее или» и пути ее решения
- •26. Инс встречного распространения. Функционирование сети.
- •27. Инс встречного распространения. Обучение сети.
- •28. Инс Хопфилда.
- •29. Инс Хемминга.
- •30. Классификация и сравнительный анализ пакетов прикладных программ нейросетевого моделирования
- •31. Общие принципы построения нейрокомпьютеров
- •32. Элементная база нейровычислений
26. Инс встречного распространения. Функционирование сети.
Нейронные сети встречного распространения, состоящие из входного слоя нейронов и так называемых слоев нейронов Кохонена и Гроссберга, по своим характеристикам существенно превосходят возможности сетей с одним скрытым слоем нейронов. Так, время их обучения задачам распознавания и кластеризации более, чем в сто раз меньше времени обучения аналогичным задачам сетей с обратным распространением. Это может быть полезно в тех приложениях, где долгая обучающая процедура невозможна
Одними из определяющих характеристик сети встречного распространения являются ее хорошие способности к обобщению, позволяющие получать правильный выход даже при неполным или зашумленном входном векторе. Это позволяет эффективно использовать данную сеть для распознавания и восстановления образов, а также для усиления сигналов.
В процессе обучения сети встречного распространения входные векторы ассоциируются с соответствующими выходными векторами. Эти векторы могут быть двоичными или непрерывными. После обучения сеть формирует выходные сигналы, соответствующие входным сигналам. Обобщающая способность сети дает возможность получать правильный выход, когда входной вектор неполон или искажен.
В режиме функционирования сети предъявляется входной сигнал X и формируется выходной сигнал Y. В режиме обучения на вход сети подается входной сигнал и веса корректируются, чтобы сеть выдавала требуемый выходной сигнал.
При функционировании сети в своей простейшей форме слой Кохонена функционирует по правилу «победитель получает все». Для данного входного вектора один и только один нейрон Кохонена выдает логическую единицу, все остальные выдают ноль. Выход каждого нейрона Кохонена является просто суммой взвешенных элементов входных сигналов:
где Sj - выход j-го нейрона Кохонена, Wj = (w1j, w2j,..., wnj) - вектор весов j-го нейрона Кохонена, X = (x1, х2, ..., хп) - вектор входного сигнала, или в векторно-матричной форме: S=XW
где S — вектор выходов слоя Кохонена.
Нейрон Кохонена с максимальным значением sj является «победителем». Его выход равен единице, у остальных он равен нулю.
Слой Гроссберга функционирует в сходной манере. Его выход является взвешенной суммой выходов слоя Кохонена (т.е. он является слоем нейронов с линейными актива-ционными функциями).
Если слой Кохонена функционирует таким образом, что лишь один выход равен единице, а остальные равны нулю, то каждый нейрон слоя Гроссберга выдает величину веса, который связывает этот нейрон с единственным нейроном Кохонена, чей выход отличен от нуля.
27. Инс встречного распространения. Обучение сети.
Нейронные сети встречного распространения, состоящие из входного слоя нейронов и так называемых слоев нейронов Кохонена и Гроссберга, по своим характеристикам существенно превосходят возможности сетей с одним скрытым слоем нейронов. Так, время их обучения задачам распознавания и кластеризации более, чем в сто раз меньше времени обучения аналогичным задачам сетей с обратным распространением. Это может быть полезно в тех приложениях, где долгая обучающая процедура невозможна
Одними из определяющих характеристик сети встречного распространения являются ее хорошие способности к обобщению, позволяющие получать правильный выход даже при неполным или зашумленном входном векторе. Это позволяет эффективно использовать данную сеть для распознавания и восстановления образов, а также для усиления сигналов.
В процессе обучения сети встречного распространения входные векторы ассоциируются с соответствующими выходными векторами. Эти векторы могут быть двоичными или непрерывными. После обучения сеть формирует выходные сигналы, соответствующие входным сигналам. Обобщающая способность сети дает возможность получать правильный выход, когда входной вектор неполон или искажен.
Уравнение, описывающее процесс обучения, имеет вид
где wн - новое значение веса, соединяющего входную компоненту х с выигравшим нейроном, wc - предыдущее значение этого веса, - коэффициент скорости обучения.
Каждый вес, связанный с выигравшим нейроном Кохонена, изменяется пропорционально разности между его величиной и величиной входа, к которому он присоединен. Направление изменения минимизирует разность между весом и соответствующим элементом входного сигнала.
Коэффициент скорости обучения вначале обычно полагается равным 0,7 и может затем постепенно уменьшаться в процессе обучения. Это позволяет делать большие начальные шаги для быстрого грубого обучения и меньшие шаги при подходе к окончательной величине.
Если бы с каждым нейроном Кохонена ассоциировался один входной вектор, то слой Кохонена мог бы быть обучен с помощью одного вычисления на вес ( = 1). Как правило, обучающее множество включает много сходных между собой входных векторов, и сеть должна быть обучена активировать один и тот же нейрон Кохонена для каждого из них. Веса этого нейрона должны получаться усреднением входных векторов, которые должны его активировать.
Обучение слоя Гроссберга. Выходы слоя Кохонена подаются на входы нейронов слоя Гроссберга. Выходы нейронов вычисляются, как при обычном функционировании. Далее каждый вес корректируется лишь в том случае, если он соединен с нейроном Кохонена, имеющим ненулевой выход. Величина коррекции веса пропорциональна разности между весом и требуемым выходом нейрона Гроссберга.
Обучение слоя Гроссберга - это обучение с учителем, алгоритм использует заданные желаемые выходы.