- •1)Компьютеры и мозг. Нейрокомпьютеры
- •2)Нейрокомпьютеры, их особенности и архитектура
- •3)Одиночный нейрон, топология и функции активации
- •4)Персептрон Розенблата. Алгоритм обучения
- •5)Классификация базовых архитектур, типы обучения
- •6)Дельта-обучающее правило нс (линейная функция активации)
- •7)Дельта-обучающее правило нс (нелинейная функция активации)
- •8)Нс – обучение с учителем (метод обратного распространения ошибки)
- •9. Обучение без учителя – сжатие информации.
- •10. Сжатие многомерной информации на основе метода главных компонент.
- •11. Физический смысл и информационная значимость собственных чисел в методе главных компонент.
- •12. Нейрон индикатор – правило обучения Хебба.
- •13. Нейрон индикатор – правило обучения Ойя.
- •14. Соревновательное обучение нейронов – кластеризация.
- •15. Победитель забирает все
- •17. Рекуррентные сети (ассоциативная память).
- •18. Сеть Хопфилда как ассоциативная память
- •19. Сеть Хэмминга.
- •20. Методы предварительной обработки данных.
- •Обработка данных методом независимых компонент.
- •22. Нс и статистика – связь и отличия.
- •23. Томография – проекции.
- •24. Теорема о проекционном срезе.
- •25. Алгоритм фильтрованной обратной проекции.
- •26. Влияние числа проекций на эффективность томографического восстановления.
- •27. Природа численной неустойчивости алгоритма фильтрованной обратной проекции.
- •Статистические характеристики для классификации текстур.
- •1. Математическое ожидание (expected value) случайной величины
- •2.Дисперсия (variance) случайной величины.
- •3. Cтандартное отклонение (standard deviation). Одно из важнейших понятий математической статистики.
- •Спектрально-коррелляционные характеристики классификации текстур.
- •Выделение информативных признаков сигналов и изображений в пространстве параметров модели линейного предсказания.
- •31. Классификация сигналов в пространстве параметров нелинейной модели Вольтера.
2)Нейрокомпьютеры, их особенности и архитектура
Сегодня одно из перспективнейших направлений в микроэлектронике — нейрокомпьютеры. Их устройство, или, архитектура, иная, чем у обычных вычислительных машин. Микросхемы близки по строению нейронным сетям человеческого мозга. Именно отсюда пошло и название.
Отсюда и особенности нейрокомпьютера. Он способен к обучению, а значит, ему под силу справиться с задачами, которые обычному компьютеру не под силу. Его главный козырь — решение задач без четкого алгоритма или с огромными потоками информации. Поэтому уже сегодня нейрокомпьютеры применяются на финансовых биржах, где помогают предсказывать колебания курса валют и акций. Понятно, что не остались в стороне и военные. Нейрокомпьютеры, распознавая образы, корректируют полет ракет по заданному маршруту.
Нейрокомпьютер - это вычислительная система с MSIMD архитектурой, т.е. с параллельными потоками одинаковых команд и множественным потоком данных. На сегодня можно выделить три основных направления развития вычислительных систем с массовым параллелизмом (ВСМП):
1)ВСМП на базе каскадного соединения универсальных SISD, SIMD, MISD микропроцессоров. Описание: элементная база - универсальные RISC или CISC процессоры: Intel, AMD, Sparc, Alpha, Power PC, MIPS и т.п.
2)На базе процессоров с распараллеливанием на аппаратном уровне. Элементная база - DSP процессоры: TMS, ADSP, Motorola, ПЛИС.
3)ВСМП на специализированной элементной базе . Элементная база от специализированных однобитовых процессоров до нейрочипов.
Нейросетевые системы, реализованные на аппаратных платформах первого направления (пусть и мультипроцессорных) будем относить к нейроэмуляторам - т.е. системам реализующим типовые нейрооперации (взвешенное суммирование и нелинейное преобразование) на программном уровне. Нейросетевые системы, реализованные на аппаратных платформах второго и третьего направления в виде плат расширения стандартных вычислительных систем (1-го направления) - будем называть нейроускорителями системы, реализованные на аппаратной платформе третьего направления в виде функционально законченных вычислительных устройств, следует относить к нейрокомпьютерам (все операции выполняются в нейросетевом логическом базисе).
Рассмотрим архитектуру на примере нейрокомпьютера Synaps 1 (Siemens, Герания).
В архитектуре SYNAPS1 можно выделить четыре основные компоненты: матричный процессор, память весов, устройство управления и устройство данных со следующими характеристиками:
1)Процессорная плата с матрицей из 8-ми сигнальных процессоров МА 16 с производительностью 3,2 миллиарда операций умножения (16х16 бит) и сложения (48 бит) в секунду
2)Память весов 128Мб
3)Устройство управления на базе Моторолла MC68040
4)Устройство данных на базе Моторолла MC68040
Проводиые исследования показали, что по производительности выполнение нейросетевых операций на нейрокомпьютере Synaps 1 по крайней мере на три порядка превышают производительность традиционных вычислительных систем и позволяют моделировать нейросети с количество синапсов равным 64 миллионов, а гибкость архитектуры практически не ограничивает разнообразность реализуемых нейросетевых парадигм.
