- •Оглавление
- •Искусственные нейронные сети (инс) Строение биологического нейрона
- •Биологический нейрон и его состав.
- •Искусственный нейрон и его состав.
- •Как работают нейросети (почему они могут решать задачи) 2 2 2
- •Синапсы
- •Уровень сложности нейросетей
- •6. Возможности компьютерного моделирования нейронных сетей.
- •7. Скорости обработки информации реализациями инс и мозгом человека
- •Классификация проблем по сложности
- •8. Типы задач, решаемых с помощью искусственных нейронных сетей (инс). Задачи, решаемые с помощью инс
- •12. Преимущества и недостатки нейронных сетей
- •Устойчивость к шумам входных данных
- •Адаптация к изменениям
- •3. Отказоустойчивость
- •Сверхвысокое быстродействие
- •Недостатки нейронных сетей
- •Ответ инс всегда приблизительный
- •Невозможно многошаговое принятие решений
- •27. Решение задачи принятия решения с помощью инс
- •3. Неспособность решать вычислительные задачи
- •3.Разновидности функций активации искусственного нейрона
- •1. Единичная ступенчатая функция
- •Сигмоидальная функция
- •4.Логистическая функция активации и ее преимущества.
- •3. Гиперболический тангенс
- •9. Виды инс
- •10. Инс со свойством кратковременной памяти.
- •60. Искусственные нейронные системы со свойством кратковременной памяти
- •Обучение нейронной сети
- •11. Обучение инс с учителем и без учителя
- •13. Состав персептрона Розенблатта
- •14. Значения выходов сенсоров, r-элементов, s-a и a-r связей в персептроне.
- •5. Нейронная сеть человека и ее оценки.
- •Разновидности персептронов.
- •19. Классификация персептронов
- •16. Отличие однослойного персептрона от искусственного нейрона
- •17. Задачи, решаемые с помощью персептронов.
- •18. Теоремы Розенблатта и условия их выполнения. Теорема Розенблатта.
- •Вторая теорема Розенблатта.
- •20. Линейная разделимость
- •22. Прикладные возможности нейронных сетей
- •23. Решение задач классификации и распознавания образов с помощью инс
- •24. Решение задач прогнозирования с помощью инс
- •25. Решение задач идентификации и управления динамическими процессами
- •26. Решение задач ассоциации с помощью инс
- •28. Черты искусственного интеллекта в нейронных сетях.
- •Модели нейронов и методы их обучения
- •29. Персептрон МакКаллока-Питса
- •30. Обучение персептрона. Правило Видроу-Хоффа
- •31. Сигмоидальный нейрон
- •32. Нейрон типа «адалайн»
- •33. Сеть мадалайн
- •34. Инстар и аутстар Гроссберга
- •35. Нейроны типа wta
- •36. Нейронная сеть типа wta и ее обучение
- •37. Проблема мертвых нейронов
- •38. Модель нейрона Хебба
- •39. Коэффициент забывания при обучении по правилу Хебба
- •40. Обучение линейного нейрона по правилу Ойя
- •41. Однонаправленные многослойные сети сигмоидального типа
- •42. Однослойная сеть. Ограниченность возможностей однослойных сетей
- •43. Решение проблемы нелинейного разделения применением двух линейных разделителей
- •44. Структура инс, выполняющей функцию xor
- •45. Многослойный персептрон
- •46. Алгоритм обратного распространения ошибки
- •47. Этапы алгоритма обратного распространения ошибки
- •48. Градиентные алгоритмы обучения сети
- •50. Математические основы теории радиальных инс
- •51. Простейшая нейронная сеть радиального типа
- •49. Радиальная нейронная сеть
- •52. Отличия радиальной инс от сигмоидальной
- •53. Сравнение радиальных и сигмоидальных инс
- •74. Алгоритм нейронного газа
- •75. Сети с самоорганизацией корреляционного типа
- •76. Нейронные сети рса
- •77. Нейронные ica-сети Херольта-Джуттена
- •Литература
- •Свёрточные нейронные сети
- •54. Сверточные нейронные сети (снс), их особенности и структура
- •Слои свёрточной нейронной сети
- •57. Преимущества снс
- •56. Параметры сверточного слоя в снс
- •55. Алгоритмы обучения снс
50. Математические основы теории радиальных инс
Математическую основу функционирования радиальных сетей составляет теорема Т. Ковера о распознаваемости образов, в соответствии с которой нелинейные проекции образов в некоторое многомерное пространство могут быть линейно разделены с большей вероятностью, чем при их проекции в пространство с меньшей размерностью.
Если вектор радиальных функций φ(x)=[φ1(x), φ2(x), …, φK(x)]T в N-мерном входном пространстве обозначить φ(x), то это пространство является нелинейно φ-разделяемым на два пространственных класса
X+ и X- тогда, когда существует такой вектор весов w, что
(61)
Граница между этими классами определяется уравнением wTφ(x)=0.
Доказано, что каждое множество образов, случайным образом размещенных в многомерном пространстве, является разделяемым с вероятностью 1 при условии соответственно большой размерности К этого пространства. На практике это означает, что применение достаточно большого количества скрытых нейронов, реализующих радиальные функции φi(x) гарантирует решение задачи классификации при построении всего лишь двухслойной сети: скрытый слой должен реализовать вектор φ(x), а выходной слой может состоять из единственного линейного нейрона, выполняющего суммирование выходных сигналов от скрытых нейронов с весовыми коэффициентами, заданными вектором w.
51. Простейшая нейронная сеть радиального типа
Простейшая нейронная сеть радиального типа функционирует по принципу многомерной интерполяции, состоящей в отображении p различных входных векторов xi (i=1, 2, …, p) из входного N-мерного пространства во множество из p рациональных чисел di (i=1, 2, …, p). Для реализации этого процесса необходимо использовать p скрытых нейронов радиального типа и задать такую функцию отображения F(x), для которой выполняется условие интерполяции F(xi)=di.
Использование p скрытых нейронов, соединяемых связями с весами wi с выходными линейными нейронами, означает формирование выходных сигналов сети путем суммирования взвешенных значений соответствующих базисных функций.
Рассмотрим радиальную сеть с одним выходом и p обучающими парами (xi,di). Примем, что координаты каждого из p центров узлов сети определяются одним из векторов xi, т.е. ci= xi. В этом случае взаимосвязь между входными и выходными сигналами сети может быть определена системой уравнений, линейных относительно весов wi, которая в матричной форме имеет вид:
(62)
где φij=||xj - xi|| определяет радиальную функцию с центром в точке xi с вынужденным вектором xj.
Если обозначить матрицу из элементов φij как Ф и ввести обозначения векторов w=[w1, w2, …, wp]T, d=[d1, d2, …, dp]T, то система уравнений (62) может быть представлена в редуцированной матричной форме (63)
Доказано, что для ряда радиальных функций в случае x1≠x2≠…≠ xp квадратная интерполяционная матрица Ф является несобственной и при этом неотрицательно определенной. Поэтому существует решение уравнения (63) в виде (64)
что позволяет получить вектор весов выходного нейрона сети.
Теоретическое решение проблемы, представленное выражением (64), не может считаться абсолютно истинным по причине серьезного ограничения общих свойств сети, вытекающих из сделанных вначале допущений. При очень большом количестве обучающих выборок и равном ему количестве радиальных функций проблема с математической точки зрения становится бесконечной (плохо структурированной), поскольку количество уравнений начинает превышать число степеней свободы физического процесса, моделируемого уравнением (62). Это означает, что результатом такого чрезмерного количества весовых коэффициентов станет адаптация модели к разного рода шумам или нерегулярностям, сопровождающим обучающие выборки. Как следствие, интерполирующая эти данные гиперплоскость не будет гладкой, а обобщающие возможности останутся очень слабыми. Чтобы их усилить, следует уменьшить количество радиальных функций и получить из избыточного объема данных дополнительную информацию для регуляризации задачи и улучшения ее обусловленности.