- •1. Определение искусственного интеллекта.
- •2. Тест Тьюринга.
- •3. Обзор прикладных областей искусственного интеллекта. Основные сферы применения искусственного интеллекта.
- •4. Интеллектуальные информационные системы: определение и области применения.
- •5. Инженерия знаний. Типы решаемых задач.
- •6. Представление данных и знаний.
- •7. Данные.
- •8. Знания.
- •9. Информационно-поисковые системы: процесс поиска текстовой информации.
- •10. Экспертные системы. Краткая характеристика. Общие задачи.
- •11. Архитектура типовой экспертной системы.
- •12. Выбор задачи экспертной системы. Исследовательский цикл разработки.
- •13. Концептуальная модель.
- •14. Поиск на основе данных и цели. Графы.
- •15. Экспертные системы, основанные на правилах (диагностика автомобиля) (на основе цели).
- •16. Объяснения и прозрачность при поиске на основе цели.
- •17. Экспертные системы, основанные на данных.
- •18. Поиск в глубину и ширину.
- •19. Рассуждения на основе моделей.
- •20. Рассуждения на основе опыта.
- •21. Рассуждения на основе правил (достоинства и недостатки).
- •22. Рассуждения на основе опыта (достоинства и недостатки).
- •23. Рассуждения на основе моделей (достоинства и недостатки).
- •24. Гибридные системы.
- •25. Семантические сети.
- •26. Сценарии.
- •27. Фреймы.
- •28. Концептуальные графы: введение, типы, экземпляры, имена.
- •29. Обобщение и специализация.
- •Наследование в теории концептуальных графов.
- •30. Машинное обучение на основе связей: введение, основы нейронных сетей.
- •31. Нейрон Мак-Каллока-Питтса.
- •32. Персептрон ф. Розенблата.
- •33. Карты Кохонена.
- •34. Социальные и эмерджентные модели обучения. Эволюционное алгоритмы.
- •35. Системы классификации и эволюционное программирование.
- •Деревья решений
- •36. Деревья решений - математический аппарат (алгоритм с 4.5).
- •37. Деревья решений - математический аппарат (алгоритм cart).
- •38. Ассоциативные правила. Алгоритм ограниченного перебора.
33. Карты Кохонена.
Самоорганизующиеся карты Кохонена – одна из разновидностей нейросетевых алгоритмов. Основные отличия данной технологии от остальных нейросетей является то, что обучение этой структуры происходит без учителя.
Нейросети данного типа применяются для решения различных задач начиная от прогнозирования до восстановления пропущенных данных. Алгоритм функционирования самообучающихся карт (Self Organizing Maps – SOM) представляет собой один из вариантов кластеризации многомерных векторов. Примером таких алгоритмов может служить алгоритм k-ближайших средних (c-means). Важным отличием алгоритма SOM является то, что в нем все нейроны (узлы, центры классов…) упорядочены в некоторую структуру (обычно двумерную сетку). При этом в ходе обучения модифицируется не только нейрон-победитель, но и его соседи, но в меньшей степени. За счет этого SOM можно считать одним из методов проецирования многомерного пространства в пространство с более низкой размерностью. При использовании этого алгоритма вектора, схожие в исходном пространстве, оказываются рядом и на полученной карте.
Структура
SOM подразумевает использование
упорядоченной структуры нейронов.
Обычно используются одно и двумерные
сетки. При этом каждый нейрон представляет
собой n-мерный вектор-столбец
,
где n определяется размерностью исходного
пространства (размерностью входных
векторов). Применение одно и двумерных
сеток связано с тем, что возникают
проблемы при отображении пространственных
структур большей размерности (при этом
опять возникают проблемы с понижением
размерности до двумерной, представимой
на мониторе).
Обычно нейроны располагаются в узлах двумерной сетки с прямоугольными или шестиугольными ячейками. При этом, как было сказано выше, нейроны также взаимодействуют друг с другом. Величина этого взаимодействия определяется расстоянием между нейронами на карте. На рисунке 1 дан пример расстояния для шестиугольной и четырехугольной сеток.
Расстояние
между нейронами на карте для шестиугольной
(а) и четырехугольной (б) сеток. При этом
легко заметить, что для шестиугольной
сетки расстояние между нейронами больше
совпадает с евклидовым расстоянием,
чем для четырехугольной сетки.
При этом количество нейронов в сетке определяет степень детализации результата работы алгоритма, и в конечном счете от этого зависит точность обобщающей способности карты.
Начальная инициализация карты
При реализации алгоритма SOM заранее задается конфигурация сетки (прямоугольная или шестиугольная), а также количество нейронов в сети. Некоторые источники рекомендуют использовать максимально возможное количество нейронов в карте. При этом начальный радиус обучения (neighborhood в англоязычной литературе) в значительной степени влияет на способность обобщения при помощи полученной карты.
Радиус обучения - Параметр алгоритма обучения карт Кохонена, который определяет, сколько нейронов кроме нейрона-победителя участвует в обучении (т.е. корректируют свои веса) на данной итерации. Под радиусом в данном случае подразумевается расстояние в пространстве векторов весов нейронов. Иными словами, любой нейрон карты, расстояние от вектора весов которого до вектора весов нейрона победителя менее радиуса обучения, участвует в коррекции весов на данной итерации.
Радиус обучения максимален на первой итерации и уменьшается с увеличением числа итераций по линейному закону таким образом, что в конце обучения корректирует свои веса только нейрон-победитель.
Перед началом обучения карты необходимо проинициализировать весовые коэффициенты нейронов. Удачно выбранный способ инициализации может существенно ускорить обучение, и привести к получению более качественных результатов. Существуют три способа инициирования начальных весов.
* Инициализация случайными значениями, когда всем весам даются малые случайные величины.
* Инициализация примерами, когда в качестве начальных значений задаются значения случайно выбранных примеров из обучающей выборки
* Линейная инициализация. В этом случае веса инициируются значениями векторов, линейно упорядоченных вдоль линейного подпространства, проходящего между двумя главных собственными векторами исходного набора данных.
Обучение
Обучение состоит из последовательности
коррекций векторов, представляющих
собой нейроны. На каждом шаге обучения
из исходного набора данным случайно
выбирается один из векторов, а затем
производится поиск наиболее похожего
на него вектора коэффициентов нейронов.
При этом выбирается нейрон-победитель,
который наиболее похож на вектор входов.
Под похожестью в данной задаче понимается
расстояние между векторами, обычно
вычисляемое в евклидовом пространстве.
Таким образом, если обозначит
нейрон-победитель как c, то получим
После того, как найден нейрон-победитель производится корректировка весов нейросети. При этом вектор, описывающий нейрон-победитель и вектора, описывающие его соседей в сетке перемещаются в направлении входного вектора. Данная процедура повторяется до тех пор пока исходный вектор из исходного множества и вектор весов нейрона-победителя не совпадут.
После окончания процесса обучения для каждой переменной строится карта. На каждой карте при помощи цветовой кодировки отмечаются примеры из исходного множества. Так правила с меньшим значением соответствуют более холодным цветам и наоборот. На каждой карте отмечаются границы получившихся групп (кластеров).
Полученные карты могут быть использованы для других аналитических операций. Качество разбиения по каждому разбиению оценивается визуально.
