
- •1)Компьютеры и мозг. Нейрокомпьютеры
- •2)Нейрокомпьютеры, их особенности и архитектура
- •3)Одиночный нейрон, топология и функции активации
- •4)Персептрон Розенблата. Алгоритм обучения
- •5)Классификация базовых архитектур, типы обучения
- •6)Дельта-обучающее правило нс (линейная функция активации)
- •7)Дельта-обучающее правило нс (нелинейная функция активации)
- •8)Нс – обучение с учителем (метод обратного распространения ошибки)
- •9. Обучение без учителя – сжатие информации.
- •10. Сжатие многомерной информации на основе метода главных компонент.
- •11. Физический смысл и информационная значимость собственных чисел в методе главных компонент.
- •12. Нейрон индикатор – правило обучения Хебба.
- •13. Нейрон индикатор – правило обучения Ойя.
- •14. Соревновательное обучение нейронов – кластеризация.
- •15. Победитель забирает все
- •17. Рекуррентные сети (ассоциативная память).
- •18. Сеть Хопфилда как ассоциативная память
- •19. Сеть Хэмминга.
- •20. Методы предварительной обработки данных.
- •Обработка данных методом независимых компонент.
- •22. Нс и статистика – связь и отличия.
- •23. Томография – проекции.
- •24. Теорема о проекционном срезе.
- •25. Алгоритм фильтрованной обратной проекции.
- •26. Влияние числа проекций на эффективность томографического восстановления.
- •27. Природа численной неустойчивости алгоритма фильтрованной обратной проекции.
- •Статистические характеристики для классификации текстур.
- •1. Математическое ожидание (expected value) случайной величины
- •2.Дисперсия (variance) случайной величины.
- •3. Cтандартное отклонение (standard deviation). Одно из важнейших понятий математической статистики.
- •Спектрально-коррелляционные характеристики классификации текстур.
- •Выделение информативных признаков сигналов и изображений в пространстве параметров модели линейного предсказания.
- •31. Классификация сигналов в пространстве параметров нелинейной модели Вольтера.
Обработка данных методом независимых компонент.
Анализ независимых компонент (independent component analysis) – это статистический вычислительный метод для обнаружения скрытых факторов, лежащих в основе набора случайных величин, измерений или сигналов.
Задачей анализа независимых компонент (Independent Components Analysis, ICA) является разложение наблюдаемых случайных переменных xj в линейную комбинацию независимых случайных величин sk:
xj=aj1s1+aj2s2+...+ajnsn для всех j.
Основными предположениями, используемыми в данном методе, являются независимость компонент sk и, то, что их распределение отлично от нормального (non-gaussian). Алгоритм вычисления независимых компонент опирается на центральную предельную теорему, утверждающую, что при определенных условиях сумма независимо распределенных случайных величин стремится к нормальному распределению по мере увеличения количества слагаемых. Использую это утверждение, поиск независимых компонентов, как линейных комбинаций наблюдаемых переменных, ведется таким способом, чтобы получить независимые случайные величины, распределение которых максимально далеко от нормального. Степень близости распределения случайной величины к нормальному измеряется различным способами.
По своей формулировке, ICA близок к методу главных компонент (PCA) и факторному анализу (FA), однако имеет ряд существенных различий:
- В ICA существенно используется предположение о том, что распределения независимых компонент отличны от нормального, что дает возможность интерпретировать ICA как FA для неортогональных факторов, с распределением отличным от нормального;
- В ICA понижение размерности не является целью, в отличии от FA и PCA;
- PCA добивается того, чтобы проекции векторов исходного набора на оси главных компонент были некоррелированы, в то время как ICA добивается их независимости (более сильное условие);
- Оси PCA ортогональны, в то время как оси независимых компонент – необязательно.
22. Нс и статистика – связь и отличия.
Благодаря своим способностям к самоорганизации и обучению, искусственные нейронные сети сейчас рассматриваются как перспективные средства для интеллектуальных систем. Архитектура и функции таких сетей строятся на основе биологических структур мозга. Характерные черты нейронных сетей — параллельность, распределенность, самоорганизация.
Распределенная память означает, что информация хранится по многим адресам, распределенным образом, так что каждый элемент данных представляется шаблоном активности, распределенным по многим вычислительным элементам, и каждый вычислительный элемент участвует в представлении многих различных элементов данных. В обычных компьютерах реализуется локальная память, или локальное представление, в котором используется один вычислительный элемент для каждого элемента данных. На основе распределенной архитектуры представления информация в нейронных сетях может дробиться и обрабатываться по частям.
Последнее из характерных свойств нейронных сетей — самоорганизация — называется также способностью к обучению. Нейронные сети могут автономно «изучать» статические и динамические свойства управляемого объекта на основе результатов измерений, производившихся в прошлом, а затем действовать таким образом, чтобы принять лучшее решение при неизвестном состоянии внешней среды
В большинстве бионических моделей нейронных сетей в качестве основных постулатов являются следующие:
· входные воздействия на нейрон могут быть возбуждающими или тормозящими;
· реакция нейрона делится на подпороговую и надпороговую;
· для подпороговой реакции характерна линейность процессов;
· надпороговая реакция связана с подпороговой с помощью нелинейной функции активации;
· процессы передачи сигналов по аксону не вносят существенных искажений в сигналы, сгенерированные телом нейрона;
· синаптические связи между активными нейронами усиливаются (правило Хэбба).
Основополагающим моментом в теории нейросетей является предположение о том, что нейроны можно моделировать относительно простыми искусственными конструкциями, а сложность мыслительных процессов определяется связями между ними. Такое представление позволяет из относительно несложных элементов конструировать достаточно сложные системы, обладающие рядом свойств:
· однородностью, так как элементы одинаковы и просты, а процессы и функции определяются структурой связи;
· высокой степенью общей надежности системы при формировании ее из отдельных ненадежных элементов;
· «голографичности» — при разрушении случайно выбранной части система сохраняет свои полезные свойства.
Между НС существуют отличия, связанные с архитектурой НС и законами их функционирования. Разновидности НС:
- многослойные сети
- монотонные слоистые сети
- полносвязные сети
- рекуррентные сети
- слоисто-полносвязные сети
- полносвязно-слоистые
- сети Хэмминга
- карты Кохонена
- вероятностная нейронные сети и т.д.