- •1. Определение и 2 направления развития искусственного интеллекта
- •2. Основные направления исследований в области ии
- •3)Моделирования биологических систем.
- •4. Условия для разработки и внедрения экспертных систем. Задачи, подходящие для создания экспертной системы.
- •Различие прототипов эс.
- •3. Интеллектуальные системы и признак структурированности задач.
- •Этапы проектирования эс: выбор проблемы. Коллектив разработчиков эс.
- •7. Основные программные блоки экспертной системы.
- •8. Этапы проектирования эс: оценка, стыковка и поддержка.
- •9. Различия бд и баз знаний
- •10. Продукционная модель знаний
- •11. Диагностические эс байесовского типа.
- •12. Семантические сети.
- •13. Фреймы.
- •14. Схема машины логического вывода. Особенности вывода на знаниях.
- •Стратегии получения знаний (извлечение, приобретение и формирование знаний).
- •Психологический аспект извлечения знаний.
- •Контактный слой:
- •Процедурный слой:
- •Когнитивный слой:
- •Лингвистический аспект извлечения знаний, общий код.
- •Проблема общего кода
- •Понятийная структура
- •Словарь пользователя
- •Текстологические и пассивные методы извлечения знаний.
- •Гносеологический аспект извлечения знаний, проблемы применения критериев научного знания.
- •Активные групповые методы извлечения знаний.
- •Активные индивидуальные методы извлечения знаний.
- •22. Структурирование знаний. Объектно–структурный подход и его свойства. Объектно-структурный анализ знаний о предметной области.
- •23. Алгоритм формирования поля знаний.
- •Уровни реализации моделей нейронных сетей (нс). Нейрокомпьютер. Сравнение архитектуры фон Неймана и архитектуры нейрокомпьютера.
- •Структура и свойства искусственного нейрона.
- •26. Типы нейронных сетей и типы нейронов в многослойной нс. Оценка числа нейронов в скрытых слоях.
- •27. Классы задач, решаемые нс. Примеры использования нс в различных предметных областях.
- •28. Определение и схема процесса обучения нс. От чего зависит качество обучения нс?
- •29. Алгоритм обратного распространения ошибки.
- •30. Обучение без учителя. Алгоритм Хебба.
- •Понятие самоорганизующейся нс. Настройка числа нейронов в скрытых слоях многослойной нс в процессе обучения.
- •1. Алгоритмы сокращения.
- •2. Конструктивные алгоритмы.
- •32. Нс с обратными связями (сеть Хопфилда и сеть Хемминга).
- •33. Когнитрон. Неокогнитрон.
- •34. Генетические алгоритмы. Отжиг.
- •35. Нечеткая логика. Лингвистическая переменная.
- •Основные понятия теории нечетких множеств: функция принадлежности, нечеткая переменная, нечеткое число.
33. Когнитрон. Неокогнитрон.
Когнитрон – алгоритм обучения без учителя.
Когнитрон – это гипотетическая модель биологической системы восприятия и распознавания (модель электронного глаза), инвариантная (может распознавать предмет) к поворотам и изменениям масштабов образов. Нейроны делятся на возбуждающие и тормозящие.
Когнитрон: все слои состоят из одинаковых нейронов.
Неокогнитрон
В слоях разные нейроны
34. Генетические алгоритмы. Отжиг.
60-70 гг.Джон Холланд.
Генетический алгоритм – это последовательность управляющих действий и операций, моделирующая эволюционные процессы на основе аналогов механизмов генетического наследования и естественного отбора.
{рисунок хромосомы 3 штуки: || X | - мутация}
Хромосома – это вектор или последовательность, каждая позиция которой называется геном – единица информации.
Хромосома: 010001001...
Особь (индивидуум) – это набор хромосом
Особи объединяются в популяцию, число её членов конечно.
Начальная популяция;
Обучение нейронных сетей на основе генетических алгоритмов.
Выделение управляющих параметров задачи обучения
Получение решения при фиксированных значениях параметров
Определение рассогласованности полученного и требуемого решения
Выбор новых значений параметров на основе работы генетического алгоритма
Остановка в случае получения удовлетворительного значения ошибки или переход к пункту 2.
Параметры генетического алгоритма
1 синоптические веса
2 функция активации
35. Нечеткая логика. Лингвистическая переменная.
Теория нечетких (размытых) множеств была впервые предложена американским математиком Лотфи Заде в 1965 г. и предназначалась для преодоления трудностей представления неточных понятий, анализа и моделирования систем. Отличие нечеткой логики от классической заключается в том, что она интерпретирует не только значениями «истина» и «ложь», но и промежуточными значениями.
Л. Заде ввел одно из главных понятий в нечеткой логике — понятие лингвистической переменной.
Лингвинистическая переменная – это переменная, значение которой определяется набором вербальных (то есть словесных) характеристик некоторого свойства. (Например, ЛП «рост» определяется через набор {карликовый, низкий, средний, высокий, очень высокий}).
Лингвистическая переменная отличается от числовой переменной тем, что ее значениями являются не числа, а слова или предложения в естественном или формальном языке (называемые термами).
Значения лингвистической переменной (ЛП) определяются через так называемые нечеткие множества (НМ), которые в свою очередь определены на некотором базовом наборе значений или базовой числовой шкале, имеющей размерность. Каждое значение ЛП определяется как нечеткое множество (например, НМ «низкий рост»).
Лингвистической переменной называется набор <b ,T(b),X,G,M>, где
b - имя лингвистической переменной;
Т(b) множество её значений (терм-множество переменной b), представляющее имена нечетких переменных, областью определения которых является множество X. Множество T называется базовым терм-множеством лингвистической переменной;
G - синтаксическая процедура, позволяющая оперировать элементами терм-множества T, в частности, генерировать новые термы (значения).
М - семантическая процедура, позволяющая преобразовать новое значение лингвистической переменной, образованной процедурой G, в нечеткую переменную, то есть сформировать соответствующее нечеткое множество.