
- •1)Компьютеры и мозг. Нейрокомпьютеры
- •2)Нейрокомпьютеры, их особенности и архитектура
- •3)Одиночный нейрон, топология и функции активации
- •4)Персептрон Розенблата. Алгоритм обучения
- •5)Классификация базовых архитектур, типы обучения
- •6)Дельта-обучающее правило нс (линейная функция активации)
- •7)Дельта-обучающее правило нс (нелинейная функция активации)
- •8)Нс – обучение с учителем (метод обратного распространения ошибки)
- •9. Обучение без учителя – сжатие информации.
- •10. Сжатие многомерной информации на основе метода главных компонент.
- •11. Физический смысл и информационная значимость собственных чисел в методе главных компонент.
- •12. Нейрон индикатор – правило обучения Хебба.
- •13. Нейрон индикатор – правило обучения Ойя.
- •14. Соревновательное обучение нейронов – кластеризация.
- •15. Победитель забирает все
- •17. Рекуррентные сети (ассоциативная память).
- •18. Сеть Хопфилда как ассоциативная память
- •19. Сеть Хэмминга.
- •20. Методы предварительной обработки данных.
- •Обработка данных методом независимых компонент.
- •22. Нс и статистика – связь и отличия.
- •23. Томография – проекции.
- •24. Теорема о проекционном срезе.
- •25. Алгоритм фильтрованной обратной проекции.
- •26. Влияние числа проекций на эффективность томографического восстановления.
- •27. Природа численной неустойчивости алгоритма фильтрованной обратной проекции.
- •Статистические характеристики для классификации текстур.
- •1. Математическое ожидание (expected value) случайной величины
- •2.Дисперсия (variance) случайной величины.
- •3. Cтандартное отклонение (standard deviation). Одно из важнейших понятий математической статистики.
- •Спектрально-коррелляционные характеристики классификации текстур.
- •Выделение информативных признаков сигналов и изображений в пространстве параметров модели линейного предсказания.
- •31. Классификация сигналов в пространстве параметров нелинейной модели Вольтера.
3)Одиночный нейрон, топология и функции активации
Простейшим устройством распознавания образов, принадлежащим к рассматриваемому классу сетей, является одиночный нейрон, превращающий входной вектор признаков в скалярный ответ, зависящий от линейной комбинации входных переменных:
Здесь и далее мы предполагаем наличие у каждого нейрона дополнительного единичного входа с нулевым индексом, значение которого постоянно: x0 ≡ 1. Это позволит упростить выражения, трактуя все синаптические веса wj , включая порог w0 , единым образом.
Скалярный выход нейрона можно использовать в качестве т.н. дискриминантной
функции. Этим термином в теории распознавания образов называют индикатор принадлежности входного вектора к одному из заданных классов. Так, если входные векторы могут принадлежать одному из двух классов, нейрон способен различить тип входа, например, следующим образом: если f (x) ≥ 0 , входной вектор принадлежит первому классу, в противном случае - второму.
Поскольку дискриминантная функция зависит лишь от линейной комбинации входов, нейрон является линейным дискриминатором. В некоторых простейших ситуациях линейный дискриминатор - наилучший из возможных, а именно - в случае когда вероятности принадлежности входных векторов к классу k задаются гауссовыми распределениями
с
одинаковыми ковариационными матрицами
Σ . В этом случае границы, разделяющие
области, где вероятность одного класса
больше, чем вероятность остальных,
состоят из гиперплоскостей
принадлежности к различным классам - гауссовы, с одинаковым разбросом и разными центрами в пространстве параметров.
В общем случае поверхности раздела между классами можно описывать приближенно набором гиперплоскостей - но для этого уже потребуется несколько линейных дискриминаторов- нейронов.
Выбор функции активации
Монотонные функции активации f (⋅) не влияют на классификацию. Но их значимость можно повысить, выбрав таким образом, чтобы можно было трактовать выходы нейронов как вероятности принадлежности к соответствующему классу, что дает дополнительную информацию при классификации. Так, можно показать, что в упомянутом выше случае гауссовых распределений вероятности, сигмоидная функция активации нейрона f (a)=1 (1+exp(−a)) дает вероятность принадлежности к соответствующему классу.
Результаты многих исследований аппроксимирующих способностей перцептронов.
Сеть с одним скрытым слоем, содержащим H нейронов со ступенчатой функцией
активации, способна осуществить произвольную классификацию Hd точек d-мерного
пространства
Одного скрытого слоя нейронов с сигмоидной функцией активации достаточно для
аппроксимации любой границы между классами со сколь угодно высокой точностью.
Для задач аппроксимации последний результат переформулируется следующим образом:
Одного скрытого слоя нейронов с сигмоидной функцией активации достаточно для
аппроксимации любой функции со сколь угодно высокой точностью.
Точность аппроксимации возрастает с числом нейронов скрытого слоя.
4)Персептрон Розенблата. Алгоритм обучения
В середине 1958 г. Фрэнком Розенблатом была предложена модель электронного устройства, названного им перцептроном, которое должно было бы имитировать процессы человеческого мышления. Перцептрон должен был передавать сигналы от "глаза", составленного из фотоэлементов, в блоки электромеханических ячеек памяти, которые оценивали относительную величину электрических сигналов. Эти ячейки соединялись между собой случайным образом в соответствии с господствующей тогда теорией, согласно которой мозг воспринимает новую информацию и реагирует на нее через систему случайных связей между нейронами. Два года спустя была продемонстрирована первая действующая машина "Марк-1", которая могла научится распознавать некоторые из букв, написанных на карточках, которые подносили к его "глазам", напоминающие кинокамеры. Чтобы научить перцептрон способности строить догадки на основе исходных предпосылок, в нем предусматривалась некая элементарная разновидность автономной работы или "самопрограммирования". При распознании той или иной буквы одни ее элементы или группы элементов оказываются гораздо более существеными, чем другие. Перцептрон мог научаться выделять такие характерные особенности буквы полуавтоматически, своего рода методом проб и ошибок, напоминающим процесс обучения. Однако возможности перцептрона были ограниченными: машина не могла надежно распознавать частично закрытые буквы, а также буквы иного размера или рисунка, нежели те, которые использовались на этапе ее обучения.
Опишем алгоритм обучения с учителем.
1. Проинициализировать элементы весовой матрицы (обычно небольшими
случайными значениями).
2. Подать на входы один из входных векторов, которые сеть должна научиться
различать, и вычислить ее выход.
3. Если выход правильный, перейти на шаг 4.
Иначе вычислить разницу между идеальным и полученным значениями выхода:
δ =Y −Y I
Модифицировать веса в соответствии с формулой:
w(t +1) = w (t) +ν ⋅δ ⋅ x
где t и t+1 – номера соответственно текущей и следующей итераций; ν – коэффициент
скорости обучения, 0<ν<1; i – номер входа.
Очевидно, что если YI > Y весовые коэффициенты будут увеличены и тем самым
уменьшат ошибку. В противном случае они будут уменьшены, и Y тоже уменьшится,
приближаясь к YI.
4. Цикл с шага 2, пока сеть не перестанет ошибаться.