
- •Оглавление
- •Искусственные нейронные сети (инс) Строение биологического нейрона
- •Биологический нейрон и его состав.
- •Искусственный нейрон и его состав.
- •Как работают нейросети (почему они могут решать задачи) 2 2 2
- •Синапсы
- •Уровень сложности нейросетей
- •6. Возможности компьютерного моделирования нейронных сетей.
- •7. Скорости обработки информации реализациями инс и мозгом человека
- •Классификация проблем по сложности
- •8. Типы задач, решаемых с помощью искусственных нейронных сетей (инс). Задачи, решаемые с помощью инс
- •12. Преимущества и недостатки нейронных сетей
- •Устойчивость к шумам входных данных
- •Адаптация к изменениям
- •3. Отказоустойчивость
- •Сверхвысокое быстродействие
- •Недостатки нейронных сетей
- •Ответ инс всегда приблизительный
- •Невозможно многошаговое принятие решений
- •27. Решение задачи принятия решения с помощью инс
- •3. Неспособность решать вычислительные задачи
- •3.Разновидности функций активации искусственного нейрона
- •1. Единичная ступенчатая функция
- •Сигмоидальная функция
- •4.Логистическая функция активации и ее преимущества.
- •3. Гиперболический тангенс
- •9. Виды инс
- •10. Инс со свойством кратковременной памяти.
- •60. Искусственные нейронные системы со свойством кратковременной памяти
- •Обучение нейронной сети
- •11. Обучение инс с учителем и без учителя
- •13. Состав персептрона Розенблатта
- •14. Значения выходов сенсоров, r-элементов, s-a и a-r связей в персептроне.
- •5. Нейронная сеть человека и ее оценки.
- •Разновидности персептронов.
- •19. Классификация персептронов
- •16. Отличие однослойного персептрона от искусственного нейрона
- •17. Задачи, решаемые с помощью персептронов.
- •18. Теоремы Розенблатта и условия их выполнения. Теорема Розенблатта.
- •Вторая теорема Розенблатта.
- •20. Линейная разделимость
- •22. Прикладные возможности нейронных сетей
- •23. Решение задач классификации и распознавания образов с помощью инс
- •24. Решение задач прогнозирования с помощью инс
- •25. Решение задач идентификации и управления динамическими процессами
- •26. Решение задач ассоциации с помощью инс
- •28. Черты искусственного интеллекта в нейронных сетях.
- •Модели нейронов и методы их обучения
- •29. Персептрон МакКаллока-Питса
- •30. Обучение персептрона. Правило Видроу-Хоффа
- •31. Сигмоидальный нейрон
- •32. Нейрон типа «адалайн»
- •33. Сеть мадалайн
- •34. Инстар и аутстар Гроссберга
- •35. Нейроны типа wta
- •36. Нейронная сеть типа wta и ее обучение
- •37. Проблема мертвых нейронов
- •38. Модель нейрона Хебба
- •39. Коэффициент забывания при обучении по правилу Хебба
- •40. Обучение линейного нейрона по правилу Ойя
- •41. Однонаправленные многослойные сети сигмоидального типа
- •42. Однослойная сеть. Ограниченность возможностей однослойных сетей
- •43. Решение проблемы нелинейного разделения применением двух линейных разделителей
- •44. Структура инс, выполняющей функцию xor
- •45. Многослойный персептрон
- •46. Алгоритм обратного распространения ошибки
- •47. Этапы алгоритма обратного распространения ошибки
- •48. Градиентные алгоритмы обучения сети
- •50. Математические основы теории радиальных инс
- •51. Простейшая нейронная сеть радиального типа
- •49. Радиальная нейронная сеть
- •52. Отличия радиальной инс от сигмоидальной
- •53. Сравнение радиальных и сигмоидальных инс
- •74. Алгоритм нейронного газа
- •75. Сети с самоорганизацией корреляционного типа
- •76. Нейронные сети рса
- •77. Нейронные ica-сети Херольта-Джуттена
- •Литература
- •Свёрточные нейронные сети
- •54. Сверточные нейронные сети (снс), их особенности и структура
- •Слои свёрточной нейронной сети
- •57. Преимущества снс
- •56. Параметры сверточного слоя в снс
- •55. Алгоритмы обучения снс
31. Сигмоидальный нейрон
Нейрон сигмоидального
типа (рис. 2) имеет структуру, подобную
модели МакКаллока-Питса, с той разницей,
что функция активации является непрерывной
и может быть выражена в виде сигмоидальной
униполярной или биполярной функции.
Униполярная функция, как правило,
представляется формулой
тогда как биполярная
функция задается в виде
Рис. 2. Модель сигмоидального нейрона
В этих формулах параметр β подбирается пользователем. Его значение влияет на форму функции активации. На рис. 3 представлены графики сигмоидальной функции от переменной х для различных значений β, причем на рис. 3а) показана униполярная, а на рис. 3б) – биполярная функция.
Графики обеих функций сильно зависят от значения β. При малых величинах β график функции достаточно пологий, но по мере роста значения β крутизна графика увеличивается. При β→∞ сигмоидальная функция превращается в функцию ступенчатого типа, идентичную функции активации персептрона.
На практике чаще всего для упрощения используется значение β =1.
Рис. 3. Графики сигмоидальной функции при различных значениях параметра β
Важным свойством
сигмоидальной функции является ее
дифференцируемость. Для униполярной
функции имеем
а
для биполярной
И в первом, и во втором случае график изменения производной относительно переменной х имеет колоколообразную форму, а его максимум соответствует значению x=0 (рис. 4).
Рис. 4. Графики изменения производной сигмоидальной функции
Сигмоидальный нейрон, как правило, обучается с учителем по принципу минимизации целевой функции, которая для единичного обучающего кортежа <x,d> i-го нейрона определяется в виде:
,
где
Функция f(ui) является сигмоидальной, x – это входной вектор x=[x0, x1, …, xN]T со значением x0=1 при наличии поляризации и x0=0 при ее отсутствии, а di – соответствующее ему ожидаемое значение на выходе i-го нейрона. Применение непрерывной функции активации позволяет использовать при обучении градиентные методы.
Проще всего реализовать метод наискорейшего спуска, в соответствии с которым уточнение вектора весов w=[wi0, wi1, …wiN]T проводится в направлении отрицательного градиента целевой функции.
32. Нейрон типа «адалайн»
Модель нейрона типа “адалайн” (англ.: ADAptive LInear NEuron - адаптивный линейный нейрон) была предложена Б. Видроу. Ее структурная схема, демонстрирующая адаптивный способ подбора весовых коэффициентов, изображена на рис. 5. По методу весового суммирования сигналов нейрон типа “адалайн” аналогичен представленным ранее моделям нейронов. Функция активации имеет тип signum, т.е.
Рис. 5. Структурная схема нейрона типа “адалайн”
Адаптивный подбор весовых коэффициентов осуществляется в процессе минимизации квадратичной ошибки, определяемой как
Несмотря на нелинейный характер модели, в целевой функции присутствуют только линейные члены, представляющие собой сумму взвешенных входных сигналов. В связи с выполнением условия непрерывности целевой функции стало возможным применение алгоритма градиентного обучения. Как и в ситуации с сигмоидальным нейроном, в алгоритме Видроу для минимизации целевой функции применяется метод наискорейшего спуска. Значения весовых коэффициентов могут уточняться либо дискретным способом:
либо аналоговым способом - путем решения дифференциальных
уравнений вида:
Несмотря на то, что адалайн имеет на выходе нелинейный блок типа signum, он все же считается линейным элементом, поскольку в определении целевой функции нелинейности отсутствуют, а подбор весов происходит так, как будто никакой нелинейности не существует.
Нейрон типа “адалайн” имеет относительно простую практическую реализацию как в случае аналогового подхода на основе уравнения
так и в дискретном варианте на базе выражения
Основные компоненты модели в первом случае - это вычислительные элементы (интеграторы и сумматоры), тогда как во втором случае - это элементы задержки, описываемые оператором запаздывания z-1, и также интеграторы и сумматоры. Обе адалайн-модели могут служить базой для компьютерного моделирования нейрона этого типа.