
- •Основные понятия и определения
- •Понятие искусственного интеллекта
- •1.2. История развития искусственного интеллекта за рубежом
- •1.3. История развития искусственного интеллекта в России
- •1.4. Цели и задачи искусственного интеллекта
- •1.5. Основные направления исследований по ии
- •1.6. Контрольные вопросы и упражнения
- •2. Истоки формальных рассуждений
- •2.1. Левополушарное и правополушарное мышления
- •2.2. Контрольные вопросы и упражнения
- •3.Формальные системы
- •3.1. Понятие формальной системы
- •3.2. Разрешимость формальной системы
- •3.3. Интерпретация формальной системы
- •3.4. Доказательство и истинность
- •3.5. Контрольные вопросы и упражнения
- •4.1. Основные принципы силлогистики
- •4.2. Решение силлогизмов
- •4.3. Расширенная силлогистика
- •4.4. Моделирование силлогистики
- •4.5. Контрольные вопросы и упражнения
- •5. Исчисление высказываний
- •5.1. Синтаксис исчисления высказываний
- •5.2. Семантика исчисления высказываний
- •5.3. Классы формул исчисления высказываний
- •5.4. Понятие семантического дерева
- •5.5. Алгоритм Куайна
- •5.6. Алгоритм редукции
- •5.7. Алгебраический подход к определению класса формул
- •5.7.1. Нормальные формы и алгоритм нормализации
- •5.7.2. Алгоритм Куайна для днф
- •5.7.3. Принцип резолюций
- •5.7.4. Хорновские дизъюнкты
- •5.8. Применение исчисления высказываний
- •5.8.1. Пример базы знаний на основе логических высказываний
- •5.8.2. Применение исчисления высказываний в конструировании релейно-контактных схем
- •5.9. Контрольные вопросы и упражнения
- •6. Исчисление предикатов
- •6.1. Определение исчисления предикатов первого порядка
- •6.1.1. Операции над предикатами
- •6.1.2. Общезначимость и выполнимость формул исчисления предикатов
- •6.2 Исчисление предикатов как формальная система
- •6.4. Сколемовские стандартные формы исчисления предикатов
- •6.5. Процедура вывода Эрбрана
- •6.6. Принцип резолюции для логики предикатов
- •Контрольные вопросы и упражнения
- •7. Индуктивные рассуждения
- •7.1. Схема индуктивных рассуждений
- •7.2. Индукция Милля
- •1. Принцип единственного различия
- •2. Принцип единственного сходства
- •3. Принцип единственного остатка
- •7.3. Особенности индуктивных схем рассуждений
- •7.4. Индуктивные методы и алгоритмы
- •7.4.2. Метод пятизначной логики
- •7.4.3. Алгоритм древ
- •7.4.4. Алгоритм амх (алгоритм, основанный на метрике Хемминга)
- •7.4.5. Индукция решающих деревьев (id3)
- •7.4.6. Метод фокусирования
- •7.5. Контрольные вопросы и упражнения
- •8. Рассуждения по аналогии
- •8.1. Виды аналогий и приемы работы с ними
- •8.2. Простая аналогия
- •8.3. Другие виды аналогии
- •8.4. Аналогия в доказательстве теорем
- •8.5. Формализация аналогии
- •8.7. Методы реализаций рассуждений по аналогии
- •8.8. Проблемы рассуждений по аналогии
- •8.9. Контрольные вопросы и упражнения
- •9. Автоматизация нечетких рассуждений
- •9.1. Модальные логики
- •9.2. Применение нечеткой математики
- •9.3. Нечеткая силлогистика
- •9.5. Контрольные вопросы и упражнения
- •10. Представление задач в пространстве состояний
- •10.1. Примеры представления задач в пространстве состояний
- •10.2. Методы поиска в пространстве состояний
- •10.3. Контрольные вопросы и упражнения
- •11. Распознавание образов
- •Выделяются следующие основные типы задач распознавания образов:
- •11.1. Искусственный нейрон
- •11.2. Искусственные нейронные сети
- •Персептроны
- •11. 3.1. Персептронная представляемость
- •11.3.2. Преодоление ограничения линейной разделимости
- •11.3.3. Обучение персептрона
- •11.4. Процедура обратного распространения
7.4.2. Метод пятизначной логики
Этот метод является одной из разновидностей ДСМ-метода и применяет для оценки истинности высказываний расширенную границу шкалирования.
Традиционно в ДСМ–логике используется четыре типа истинностных значений для оценки: +1 – истина, -1 – ложь, 0 – противоречие, – неопределенность.
Однако часто такой шкалы недостаточно – так ответ «не знаю, затрудняюсь ответить» можно рассматривать по-разному. Если есть аргументы «за» и аргументы «против»– тогда это 0 – противоречие, если же информация у опрашиваемого отсутствует, то тогда необходимо ввести дополнительное состояние – отсутствие информации. Таким образом, используемая логика типов истинностных значений оказывается пятизначной. Такое расширение границ шкалирования позволяет более точно работать с методом.
7.4.3. Алгоритм древ
Данный алгоритм является методом качественного обобщения по признакам и предложен как развитие алгоритма обобщения Э. Ханта – CLS.
В основе метода используется дерево решений – один из способов разбиения множества данных на классы или категории. Решающее дерево классифицирует примеры в конечное множество классов. Вершины дерева, не являющиеся концевыми, помечены именами атрибутов, ребра – допустимые значения этого атрибута, концевые вершины – имена классов. Процесс классификации заключается в прохождении пути по дереву по ребрам, соответствующим значениям атрибутов объекта.
Идея алгоритма состоит в следующем: ставится задача построения обобщенного понятия на основе анализа обучающей выборки S, содержащей примеры К+ и контрпримеры К-. При этом формируется логическая функция принадлежности к обобщенному понятию, которая служит классифицирующим правилом. В этой логической функции переменные, отражающие значения признаков, соединены операциями конъюнкции, дизъюнкции и отрицания.
На первом этапе работы алгоритма делается попытка сформировать обобщенное конъюнктивное понятие на основе поиска признаков, значения которых являются общими для всех объектов выборки К+ и не встречаются среди контрпримеров К-. Результатом должна стать логическая функция Пк, значение которой равно 1 на всех примерах из К+ и равно 0 на всех контрпримерах из К-.
Затем формируется обобщенное дизъюнктивное понятие Пд, построение которого начинается c выбора среди элементов К+ такого признака Аi , который является наиболее существенным для обобщенного понятия. Для выбранного признака ищется значение F, которое называется разделяющим значением, так как на его основе происходит разбиение выборок К+ и К- на две пары подвыборок: К+1 и К-1, К+-1 и К--1.
7.4.4. Алгоритм амх (алгоритм, основанный на метрике Хемминга)
Дерево решений – это алгоритм, представленный в специальной форме. Алгоритм АМХ – это алгоритм, который строит бинарное дерево решений на основе поиска существенного (разделяющего) признака. Каждой вершине приписывается вопрос «Обладает ли пример данным значением признака?», а дуги взвешиваются ответами «Да» и «Нет». Конечные вершины дерева будут помечены утверждениями, соответствующим решениям.
Распознавание начинается с корневой вершины, откуда строится путь до конечной вершины. В каждом внутреннем узле необходимо отвечать на вопрос и выбирать соответствующую дугу, ведущую к следующему вопросу. Вершины с одинаковыми вопросами могут несколько раз встречаться в дереве, но в каждом конкретном пути от корня к листу каждый вопрос встретится всего один раз.
Рассмотрим рекурсивный алгоритм построения бинарного дерева на основе обучающей выборки S.
Для предъявляемой обучающей выборки S ищется наиболее важный вопрос, который помещается в корневую вершину дерева. Обучающее множество S в соответствии с ответами («Да, «Нет») делится на две подвыборки. Далее для каждой подвыборки снова ищется наиболее важный вопрос, и порождаются по две новые ветви. Процесс завершается, когда использованы все вопросы.
Для нахождения наиболее важного вопроса используется следующий подход. Предположим, что обучающее множество S содержит К примеров. Построим метрику на множестве вопросов и упорядочим S по следующему правилу.
Для каждого вопроса Q строится К-арный кортеж, где j-е значение в кортеже имеет значение:
1, если j-й пример из S дает ответ «Да» на вопрос Q,
j =
0 – в противном случае.
Расстояние между двумя вопросами определяется как расстояние между двумя двоичными векторами по Хеммингу. Обозначим такое расстояние между векторами X и Y как Hd(X,Y). При этом из рассмотрения исключаются вопросы, на которые все примеры из S дают одинаковый ответ. Для искомого свойства Р строится К-арный кортеж на всех объектах S по правилу: j-е значение в кортеже Р равно 1, если j-й пример из S обладает искомым свойством Р, и 0 – если не обладает. Чтобы выбрать наиболее важный вопрос, необходимо найти среди всех подходящих вопросов Q такой, чья связь со свойством Р наиболее тесная. Для этого используется следующее правило: pm=min(Hd(P,Q), K–Hd(P,Q)), т.е. берется наименьшее расстояние по Хеммингу от Q до P и от Q до –P.
Когда наиболее важный вопрос выбран, выполняется расщепление обучающего множества на Sда и Sнет, затем для каждого из них выполняются аналогичные вычисления.