- •1. Определение и 2 направления развития искусственного интеллекта
- •2. Основные направления исследований в области ии
- •3)Моделирования биологических систем.
- •4. Условия для разработки и внедрения экспертных систем. Задачи, подходящие для создания экспертной системы.
- •Различие прототипов эс.
- •3. Интеллектуальные системы и признак структурированности задач.
- •Этапы проектирования эс: выбор проблемы. Коллектив разработчиков эс.
- •7. Основные программные блоки экспертной системы.
- •8. Этапы проектирования эс: оценка, стыковка и поддержка.
- •9. Различия бд и баз знаний
- •10. Продукционная модель знаний
- •11. Диагностические эс байесовского типа.
- •12. Семантические сети.
- •13. Фреймы.
- •14. Схема машины логического вывода. Особенности вывода на знаниях.
- •Стратегии получения знаний (извлечение, приобретение и формирование знаний).
- •Психологический аспект извлечения знаний.
- •Контактный слой:
- •Процедурный слой:
- •Когнитивный слой:
- •Лингвистический аспект извлечения знаний, общий код.
- •Проблема общего кода
- •Понятийная структура
- •Словарь пользователя
- •Текстологические и пассивные методы извлечения знаний.
- •Гносеологический аспект извлечения знаний, проблемы применения критериев научного знания.
- •Активные групповые методы извлечения знаний.
- •Активные индивидуальные методы извлечения знаний.
- •22. Структурирование знаний. Объектно–структурный подход и его свойства. Объектно-структурный анализ знаний о предметной области.
- •23. Алгоритм формирования поля знаний.
- •Уровни реализации моделей нейронных сетей (нс). Нейрокомпьютер. Сравнение архитектуры фон Неймана и архитектуры нейрокомпьютера.
- •Структура и свойства искусственного нейрона.
- •26. Типы нейронных сетей и типы нейронов в многослойной нс. Оценка числа нейронов в скрытых слоях.
- •27. Классы задач, решаемые нс. Примеры использования нс в различных предметных областях.
- •28. Определение и схема процесса обучения нс. От чего зависит качество обучения нс?
- •29. Алгоритм обратного распространения ошибки.
- •30. Обучение без учителя. Алгоритм Хебба.
- •Понятие самоорганизующейся нс. Настройка числа нейронов в скрытых слоях многослойной нс в процессе обучения.
- •1. Алгоритмы сокращения.
- •2. Конструктивные алгоритмы.
- •32. Нс с обратными связями (сеть Хопфилда и сеть Хемминга).
- •33. Когнитрон. Неокогнитрон.
- •34. Генетические алгоритмы. Отжиг.
- •35. Нечеткая логика. Лингвистическая переменная.
- •Основные понятия теории нечетких множеств: функция принадлежности, нечеткая переменная, нечеткое число.
Понятие самоорганизующейся нс. Настройка числа нейронов в скрытых слоях многослойной нс в процессе обучения.
Самоорганизующаяся сеть (карта Кохонена) — соревновательная нейронная сеть с обучением без учителя, выполняющая задачу визуализации и кластеризации (кластеризация – это автоматическое разбиение элементов множества на группы в зависимости от их схожести). При таком обучении обучающее множество состоит лишь из значений входных переменных, в процессе обучения нет сравнивания выходов нейронов с эталонными значениями. Идея сети предложена финским учёным Кохоненом. Основной принцип работы сетей - введение в правило обучения нейрона информации относительно его расположения. В основе идеи сети Кохонена лежит аналогия со свойствами человеческого мозга.
Самоорганизующиеся карты могут использоваться для решения таких задач, как моделирование, прогнозирование, поиск закономерностей в больших массивах данных, выявление наборов независимых признаков и сжатие информации. Наиболее распространенное применение сетей Кохонена - решение задачи классификации без учителя, т.е. кластеризации.
Способы настройки многослойной нейронной сети делятся на две группы:
алгоритмы сокращения
конструктивные алгоритмы
1. Алгоритмы сокращения.
В основе алгоритмов сокращения лежит принцип постепенного удаления из нейронной сети синапсов и нейронов. В начале работы алгоритма обучения с сокращением число нейронов в скрытых слоях сети заведомо избыточно.
Существуют два подхода к реализации алгоритмов сокращения:
а) метод штрафных функций: в целевую функцию алгоритма обучения вводится штрафы за то, что значения синаптических весов отличны от нуля; пример штрафа:
где w - синаптический вес, i - номер нейрона, j - номер входа, N - число нейронов, M - размерность входного сигнала нейронов;
б) метод проекций: синаптический вес обнуляется, если его значение попало в заданный диапазон:
где ε- некоторая константа.
Алгоритмы сокращения имеют по крайней мере два недостатка:
нет методики определения числа нейронов скрытых слоев, которое является избыточным, поэтому перед началом работы алгоритма нужно угадать это число,
в процессе работы алгоритма сеть содержит избыточное число нейронов, поэтому обучение идет медленно.
2. Конструктивные алгоритмы.
Предшественником конструктивных алгоритмов можно считать методику обучения многослойных сетей, включающую в себя следующие шаги:
выбор начального числа нейронов в скрытых слоях,
инициализация сети, то есть присваивание синаптическим весам и смещениям сети случайных значений из заданного диапазона,
обучение сети по заданной выборке,
завершение в случае успешного обучения; если сеть обучить не удалось, то число нейронов увеличивается и повторяются шаги со второго по четвертый.
В конструктивных алгоритмах число нейронов в скрытых слоях также изначально мало и постепенно увеличивается. В отличие от описанной методики, в конструктивных алгоритмах сохраняются навыки, приобретенные сетью до увеличения числа нейронов.
Конструктивные алгоритмы различаются правилами задания значений параметров в новых добавленных в сеть нейронах:
значения параметров - случайные числа из заданного диапазона,
значения синаптических весов нового нейрона определяются путем расщепления одного из старых нейронов.
Первое правило не требует значительных вычислений, однако его использование приводит к некоторому увеличению значения функции ошибки после каждого добавления нового нейрона. В результате случайного задания значений параметров новых нейронов может появиться избыточность в числе нейронов скрытого слоя. Расщепление нейронов лишено двух указанных недостатков.
В результате расщепления вместо исходного нейрона в сеть вводятся два новых нейрона. Значение каждого синаптического веса нового нейрона есть значение соответствующего веса старого нейрона плюс некоторый очень небольшой шум. Величины весов связей выходов новых нейронов и нейронов следующего слоя равны половине весов связей исходного нейрона с соответствующими весами следующего слоя. Данный алгоритм гарантирует, что функция ошибки после расщепления увеличиваться не будет.