- •1)Компьютеры и мозг. Нейрокомпьютеры
- •2)Нейрокомпьютеры, их особенности и архитектура
- •3)Одиночный нейрон, топология и функции активации
- •4)Персептрон Розенблата. Алгоритм обучения
- •5)Классификация базовых архитектур, типы обучения
- •6)Дельта-обучающее правило нс (линейная функция активации)
- •7)Дельта-обучающее правило нс (нелинейная функция активации)
- •8)Нс – обучение с учителем (метод обратного распространения ошибки)
- •9. Обучение без учителя – сжатие информации.
- •10. Сжатие многомерной информации на основе метода главных компонент.
- •11. Физический смысл и информационная значимость собственных чисел в методе главных компонент.
- •12. Нейрон индикатор – правило обучения Хебба.
- •13. Нейрон индикатор – правило обучения Ойя.
- •14. Соревновательное обучение нейронов – кластеризация.
- •15. Победитель забирает все
- •17. Рекуррентные сети (ассоциативная память).
- •18. Сеть Хопфилда как ассоциативная память
- •19. Сеть Хэмминга.
- •20. Методы предварительной обработки данных.
- •Обработка данных методом независимых компонент.
- •22. Нс и статистика – связь и отличия.
- •23. Томография – проекции.
- •24. Теорема о проекционном срезе.
- •25. Алгоритм фильтрованной обратной проекции.
- •26. Влияние числа проекций на эффективность томографического восстановления.
- •27. Природа численной неустойчивости алгоритма фильтрованной обратной проекции.
- •Статистические характеристики для классификации текстур.
- •1. Математическое ожидание (expected value) случайной величины
- •2.Дисперсия (variance) случайной величины.
- •3. Cтандартное отклонение (standard deviation). Одно из важнейших понятий математической статистики.
- •Спектрально-коррелляционные характеристики классификации текстур.
- •Выделение информативных признаков сигналов и изображений в пространстве параметров модели линейного предсказания.
- •31. Классификация сигналов в пространстве параметров нелинейной модели Вольтера.
9. Обучение без учителя – сжатие информации.
В отсутствие внешней цели, "учителем" сети могут служить лишь сами данные, т. е. имеющаяся в них информация, закономерности, отличающие входные данные от случайного шума. Лишь такая избыточность позволяет находить более компактное описание данных, что, согласно общему принципу, и является обобщением эмпирических данных. Сжатие данных, уменьшение степени их избыточности, использующее существующие в них закономерности, может существенно облегчить последующую работу с данными, выделяя действительно независимые признаки. Поэтому самообучающиеся сети чаще всего используются именно для предобработки "сырых" данных. Практически, адаптивные сети кодируют входную информацию наиболее компактным при заданных ограничениях кодом.
Длина описания данных пропорциональна, во-первых, разрядности данных (т. е. числу бит), определяющей возможное разнообразие принимаемых ими значений, и, во-вторых, размерности данных, т. е. числу компонент входных векторов. Соответственно, можно различить два предельных типа кодирования, использующих противоположные способы сжатия информации:
Понижение размерности данных с минимальной потерей информации. (Сети, например, способны осуществлять анализ главных компонент данных, выделять наборы независимых признаков.)
Уменьшение разнообразия данных за счет выделения конечного набора прототипов, и отнесения данных к одному из таких типов. (Кластеризация данных, квантование непрерывной входной информации.)
Рис.
Два типа сжатия информации. Понижение
размерности (a) позволяет описывать
данные меньшим числом компонент.
Кластеризация или квантование (b)
позволяет снизить разнообразие данных,
уменьшая число бит, требуемых для
описания данных
Возможно также объединение обоих типов кодирования. Например, очень богат приложениями метод топографических карт (или самоорганизующихся карт Кохонена), когда сами прототипы упорядочены в пространстве низкой размерности. Например, входные данные можно отобразить на упорядоченную двумерную сеть прототипов так, что появляется возможность визуализации многомерных данных.
10. Сжатие многомерной информации на основе метода главных компонент.
Метод главных компонент (Principal Component Analysis, PCA) применяется для сжатия информации без существенных потерь информативности.
Метод
состоит в линейном ортогональном
преобразовании входного вектора X
размерности N в выходной вектор Y
размерности M
N.
При этом компоненты вектора Y являются
некоррелированными и общая дисперсия
после преобразования остаётся неизменной.
Матрица X состоит из всех примеров
изображений обучающего набора. Решив
уравнение
,
получаем матрицу собственных векторов
,
где
–
ковариационная матрица для X, а
–
диагональная матрица собственных чисел.
Выбрав из
подматрицу
,
соответствующую M наибольшим собственным
числам, получим, что преобразование
,
где
–
нормализованный вектор с нулевым
математическим ожиданием, характеризует
большую часть общей дисперсии и отражает
наиболее существенные изменения X.
Выбор
первых M главных компонент разбивает
векторное пространство на главное
(собственное) пространство
,
содержащее главные компоненты, и его
ортогональное дополнение
.
Т.о. метод главных компонент дает
возможность по М – числу исходных
признаков выделить М главных компонент,
или обобщенных признаков.
