
- •Глава 1. Основные определения, история проблемы,
- •Глава 2 Онтологическая инженерия описания предметной области ……50
- •Глава 3. Представление и вывод знаний в системах искусственного интеллекта на основе логических моделей. 65
- •Глава 4 Представление и вывод знаний в системах искусственного интеллекта на основе семантических сетей 98
- •Контрольные вопросы и задание 110
- •Глава 5. Представление и вывод знаний в системах искусственного интеллекта на основе фреймовых моделей. 111
- •Глава 6. Представление и вывод знаний в системах искусственного интеллекта на основе продукционных моделей. 118
- •Глава 7. Представление и вывод неопределённых знаний в системах искусственного интеллекта. 132
- •Лекция 1
- •Глава 1. Основные определения, история проблемы, современные направления развития.
- •Основные определения искусственного интеллекта.
- •1.2. Тест Тьюринга
- •Науки, лежащие в основе искусственного интеллекта
- •Вычислительная техника (период с 1940 года по настоящее время)
- •История искусственного интеллекта.
- •Рождение искусственного интеллекта (1956 год)
- •Ранний энтузиазм, большие ожидания (период с 1952 года по 1969 год)
- •Столкновение с реальностью (период с 1966 года по 1973 год)
- •Лекция 2
- •Основные современные направления развития искусственного интеллекта
- •1.6. Основные понятия о знаниях.
- •1.7. Выводы по 1-ой главе:
- •Контрольные вопросы и задание
- •Лекция 3
- •Глава 2 Онтологическая инженерия описания предметной области.
- •2.1. Понятие онтологии.
- •2.2. Теория множеств - математический аппарат описания онтологии.
- •2.2.1. Основные понятия и определения.
- •Лекция 4
- •2.2.2.Операции над множествами
- •2.2.3. Декартово произведение множеств
- •2.2.4. Отношения и их свойства.
- •2.3. Предметы, свойства и отношения предметной области.
- •Лекция 5
- •2.4. Понятие цели
- •2.5. Методика решения задач.
- •2.6. Понятие модели.
- •2.7. Методика построения онтологии.
- •2.8. Выводы по 2-ой главе.
- •2.9. Контрольные вопросы и задание.
- •Лекция 6
- •Глава3 Представление и вывод знаний в системах искусственного интеллекта на основе логических моделей.
- •3.1. Основы математической логики
- •3.1.1. Классификация и определение логик, алгебр, исчислений, теорий.
- •3.1.2.Традиционная логика.
- •Лекция 7
- •3.1.3.Логика, алгебра и исчисление высказываний.
- •3.1.4. Логика, алгебра и исчисление предикатов
- •Лекция 8
- •3.1.5. Формальные методы вывода решений в аксиоматических теориях.
- •3.1.6. Приведение формул исчисления предикатов к дизъюнктам Хорна.
- •4. Исключение кванторов существования.
- •3.2. Логическая модель представления знаний.
- •3.3. Вывод в системах искусственного интеллекта с логическим представлением знаний.
- •3.3.1. Правило резолюции.
- •Стратегия полного перебора.
- •Стратегия опорного множества.
- •3. Линейная по входу стратегия.
- •3.4. Выводы по 3-ой главе.
- •Контрольные вопросы и задание.
- •Лекция 9
- •Глава 4 Представление и вывод знаний в системах искусственного
- •Элементы теории графов
- •4.1.1. Способы задания графов.
- •1. Графический
- •2. С помощью матрицы инцидентности.
- •3. С помощью списка ребер.
- •4. С помощью матрицы смежности.
- •4.1.2. Задачи, решаемые с помощью графов.
- •Задача поиска наикратчайшего пути на графе.
- •Транспортная задача.
- •Задача о назначении (задача коммивояжера).
- •Задача о назначении работ.
- •Лекция 10
- •4.2. Представления знаний в виде семантических сетей.
- •4.3. Вывод в системах искусственного интеллекта с представлением знаний в виде семантических сетей.
- •Выводы по 4-ой главе.
- •Контрольные вопросы и задание.
- •Лекция 11
- •Глава 5. Представление и вывод знаний в системах искусственного интеллекта на основе фреймовых моделей.
- •5.1. Представления знаний в виде фреймов
- •5.2. Вывод в системах искусственного интеллекта с фреймовым
- •Выводы по 5-ой главе.
- •5.4. Контрольные вопросы и задание.
- •Лекция 12
- •Глава 6. Представление и вывод знаний в системах искусственного интеллекта на основе продукционных моделей.
- •Представление знаний в виде в виде системы продукций.
- •6.2. Продукционные системы
- •6.3. Прямой и обратный вывод в продукционных системах.
- •Лекция 13
- •6.4. Пример работы продукционной системы.
- •6.5. Выводы по 6-ой главе
- •6.6. Контрольные вопросы и задание
- •Лекция 14
- •Глава 7. Представление и вывод неопределённых знаний в системах искусственного интеллекта
- •Представление и вывод при нечётких знаниях.
- •7.1.1. Определение нечёткого множества.
- •7.1.2. Операции над нечёткими множествами.
- •Лекция 15
- •7.1.3. Нечёткие отношения.
- •Формальные методы вывода решений в нечёткой логике.
- •Лекция 16
- •7.2.Представление и вывод при неполных знаниях.
- •Вероятностный подход к представлению неопределённых знаний.
- •Определения и виды вероятности
- •Аксиомы вероятностей
- •Лекция 17
- •7.2.4. Формальные методы вывода решений при вероятностном подходе.
- •7.2.5. Правило Байеса и его использование.
- •Байесовская сеть представления и вывода вероятностных знаний.
- •Другие способы представления и вывода неопределённых знаний.
- •Выводы по 7-ой главе
- •7.5. Контрольные вопросы и задание.
- •Литература
Лекция 17
7.2.4. Формальные методы вывода решений при вероятностном подходе.
В данном разделе будет описан простой метод вероятностного вывода, те. вычисления апостериорных вероятностей для высказываний, заданных в виде запросов, на основании наблюдаемых свидетельств. Мы будем использовать полное совместное распределение как своего рода базу знаний”, из которой могут быть выведены ответы на все вопросы. В ходе этого мы также представим несколько полезных методов манипулирования уравнениями, в которых учитываются вероятности.
Начнем с очень простого примера — с описания проблемной области студенческой жизни, когда за плохую учёбу и пропуски занятий студенту грозит исключение из института. Для описания этой проблемной области введём три булевых переменных, студент учится плохо по предмету СИИ, он пропустил много занятий по предмету СИИ, и студента могут исключить из института. Полное совместное распределение представляет собой таблицу с размерами 2 х 2 х 2 (табл. 23.).
Таблица 23
Полное совместное распределение для мира студенческой жизни
Все возможные комбинации булевых переменных. |
студент учится плохо по предмету СИИ |
студент учится плохо по предмету СИИ |
||
студента могут исключить из института |
студента могут исключить из института |
студента могут исключить из института |
студента могут исключить из института |
|
он пропустил много занятий по предмету СИИ |
0,576 |
0,064 |
0,012 |
0,016 |
он пропустил много занятий по предмету СИИ |
0,144 |
0,072 |
0,008 |
0,108 |
Обратите внимание на то, что вероятности в этом совместном распределении в сумме составляют 1, как и требуется согласно аксиомам вероятностей. Следует также отметить, что уравнение 2 предоставляет нам прямой способ вычисления вероятности любого высказывания, простого или сложного: мы должны определить те атомарные события, в которых данное высказывание является истинным, и сложить их вероятности. Например, имеется шесть атомарных событий, в которых истинным является высказывание студент учится плохо по предмету СИИ он пропустил много занятий по предмету СИИ:
Р(студент учится плохо по предмету СИИ он пропустил много занятий по предмету СИИ) = 0,576 + 0,064 + 0,012 + 0,016 + 0,144 + 0,072 = 0,884
Одна из задач, которая встречается особенно часто, состоит в том, чтобы извлечь из подобной таблицы распределение вероятностей по некоторому подмножеству переменных или по одной переменной. Например, складывая элементы первого ряда таблицы 13, получим безусловную, или маргинальную, вероятность события он пропустил много занятий по предмету СИИ:
Р(он пропустил много занятий по предмету СИИ) = 0,576 + 0,064 + 0,012 + 0,016 =0,668
Такой процесс называется маргинализацией, или исключением из суммы, поскольку из суммы вероятностей исключаются прочие переменные, кроме он пропустил много занятий по предмету СИИ. Можно записать следующее общее правило маргинализации для любых множёств переменных y и z:
Р(y ) = Р(y, z)
z
Это означает, что распределение вероятностей по У может быть получено путем исключения из суммы вероятностей всех прочих переменных, относящихся к любому совместному распределению вероятностей, содержащему У, т.е. суммирование ведётся по всем значениям z. В одном из вариантов этого правила учитываются условные вероятности, а не совместные вероятности. С использованием правила произведения можно записать:
Р(y ) = Р(yz )*Р(z )
z
Это правило называется правилом обусловливания. Как оказалось правила маргинализации и обусловливания являются очень полезными правилами для всех видов логических выводов, в которых применяются вероятностные выражения.
В большинстве случаев нас будет интересовать задача вычисления условных вероятностей некоторых переменных при наличии свидетельств, касающихся других переменных. Условные вероятности можно найти, вначале воспользовавшись уравнением 1 для получения выражения в терминах безусловных вероятностей, а затем рассчитать это выражение на основании полного совместного распределении. Например, можно вычислить вероятность исключения из института после получения свидетельства о том, что студент пропустил много занятий по предмету СИИ, следующим образом:
Р(А В ) = 0,576 + 0,12 0,9
Р(АВ ) = Р(В ) 0,576 + 0,064 + 0,012+0,016
где: А- студента могут исключить из института; В- он пропустил много занятий по предмету СИИ;
Просто для проверки мы можем также рассчитать вероятность того, студента не исключат из института после получения свидетельства о том, что студент пропустил много занятий по предмету СИИ :
Р(С В ) = 0,064 + 0,16 0,1
Р(СВ ) = Р(В ) 0,576 + 0,064 + 0,012+0,016
где: С - студента могут исключить из института; В- он пропустил много занятий по предмету СИИ;
Полученные значения соответствуют следствиям из аксиом вероятностей: сумма вероятностей двух взаимно исключающих событий равна 1.
Обратите внимание на то, что в этих двух примерах вычисления вероятности терм 1/Р(В) остается постоянным, независимо от того, какое значение А или С вычисляется. фактически этот терм может рассматриваться как константа нормализации для распределения Р(А или С В ), гарантирующая, что полученные вероятности в сумме составят 1. Для обозначения подобных констант будем использовать символ .
На основании приведенного выше примера можно составить общую процедуру вероятностного вывода. Мы будем придерживаться того случая, в котором запрос касается только одной переменной. Допустим, что Х - переменная запроса (в данном примере А- студента могут исключить из института); Е — множество переменных свидетельства (в данном примере к нему относится только В- он пропустил много занятий по предмету СИИ ); е — наблюдаемые значения этих переменных; У — оставшиеся ненаблюдаемые переменные (в данном примере таковой является только D - студент учится плохо по предмету СИИ). Запросом является, и ответ на него может быть вычислен следующим образом;
Р (Х е ) = Р (Х, е ) = Р (Х, е, y)
у
где суммирование осуществляется по всем возможным значениям y (те. по всем возможным комбинациям значений ненаблюдаемых переменных У). Обратите внимание на то, что переменные Х, Е и У, вместе взятые, составляют полное множество переменных для данной проблемной области, поэтому Р (Х, е, y) представляет собой подмножество вероятностей из полного совместного распределения. Упрощённую схему алгоритма вычисления ответа на запрос можно изложить следующим образом: сначала проверяются в циклах значения Х и значения У для перебора всех возможных атомарных событий с фиксированными значениями е, затем складываются их вероятности из таблицы совместного распределения, после чего результаты нормализуются.
При наличии полного совместного распределения, с которым можно было бы рать, этот алгоритм становится полным алгоритмом получения ответов на вероятностные запросы, касающиеся дискретных переменных. Но этот алгоритм. недостаточно хорошо масштабируется, поскольку при наличии проблемной области, которая описана булевыми переменными, он требует входной таблицы с размером О ( 2 n) , а обработка этой таблицы занимает время Т 2 nгде Т – время одной итерации алгоритма.
В реальных задачах может потребоваться рассмотреть сотни или тысячи случайных переменных, а не только три. Попытка определить огромные количества требуемых вероятностей быстро становится полностью неосуществимой, поскольку может быть даже не накоплено достаточного количества экспериментальных данных, которые требуются для того, отдельно оценить каждую из записей этой таблицы.
По этим причинам полное совместное распределение вероятностей в табличной форме нельзя считать практически применимым инстру-ментальным средством для создания систем формирования рассуждений. Вместо этого данный подход следует рассматривать как теоретическую основу, на которой могут быть созданы более эффективные подходы.