
- •Глава 1. Основные определения, история проблемы,
- •Глава 2 Онтологическая инженерия описания предметной области ……50
- •Глава 3. Представление и вывод знаний в системах искусственного интеллекта на основе логических моделей. 65
- •Глава 4 Представление и вывод знаний в системах искусственного интеллекта на основе семантических сетей 98
- •Контрольные вопросы и задание 110
- •Глава 5. Представление и вывод знаний в системах искусственного интеллекта на основе фреймовых моделей. 111
- •Глава 6. Представление и вывод знаний в системах искусственного интеллекта на основе продукционных моделей. 118
- •Глава 7. Представление и вывод неопределённых знаний в системах искусственного интеллекта. 132
- •Лекция 1
- •Глава 1. Основные определения, история проблемы, современные направления развития.
- •Основные определения искусственного интеллекта.
- •1.2. Тест Тьюринга
- •Науки, лежащие в основе искусственного интеллекта
- •Вычислительная техника (период с 1940 года по настоящее время)
- •История искусственного интеллекта.
- •Рождение искусственного интеллекта (1956 год)
- •Ранний энтузиазм, большие ожидания (период с 1952 года по 1969 год)
- •Столкновение с реальностью (период с 1966 года по 1973 год)
- •Лекция 2
- •Основные современные направления развития искусственного интеллекта
- •1.6. Основные понятия о знаниях.
- •1.7. Выводы по 1-ой главе:
- •Контрольные вопросы и задание
- •Лекция 3
- •Глава 2 Онтологическая инженерия описания предметной области.
- •2.1. Понятие онтологии.
- •2.2. Теория множеств - математический аппарат описания онтологии.
- •2.2.1. Основные понятия и определения.
- •Лекция 4
- •2.2.2.Операции над множествами
- •2.2.3. Декартово произведение множеств
- •2.2.4. Отношения и их свойства.
- •2.3. Предметы, свойства и отношения предметной области.
- •Лекция 5
- •2.4. Понятие цели
- •2.5. Методика решения задач.
- •2.6. Понятие модели.
- •2.7. Методика построения онтологии.
- •2.8. Выводы по 2-ой главе.
- •2.9. Контрольные вопросы и задание.
- •Лекция 6
- •Глава3 Представление и вывод знаний в системах искусственного интеллекта на основе логических моделей.
- •3.1. Основы математической логики
- •3.1.1. Классификация и определение логик, алгебр, исчислений, теорий.
- •3.1.2.Традиционная логика.
- •Лекция 7
- •3.1.3.Логика, алгебра и исчисление высказываний.
- •3.1.4. Логика, алгебра и исчисление предикатов
- •Лекция 8
- •3.1.5. Формальные методы вывода решений в аксиоматических теориях.
- •3.1.6. Приведение формул исчисления предикатов к дизъюнктам Хорна.
- •4. Исключение кванторов существования.
- •3.2. Логическая модель представления знаний.
- •3.3. Вывод в системах искусственного интеллекта с логическим представлением знаний.
- •3.3.1. Правило резолюции.
- •Стратегия полного перебора.
- •Стратегия опорного множества.
- •3. Линейная по входу стратегия.
- •3.4. Выводы по 3-ой главе.
- •Контрольные вопросы и задание.
- •Лекция 9
- •Глава 4 Представление и вывод знаний в системах искусственного
- •Элементы теории графов
- •4.1.1. Способы задания графов.
- •1. Графический
- •2. С помощью матрицы инцидентности.
- •3. С помощью списка ребер.
- •4. С помощью матрицы смежности.
- •4.1.2. Задачи, решаемые с помощью графов.
- •Задача поиска наикратчайшего пути на графе.
- •Транспортная задача.
- •Задача о назначении (задача коммивояжера).
- •Задача о назначении работ.
- •Лекция 10
- •4.2. Представления знаний в виде семантических сетей.
- •4.3. Вывод в системах искусственного интеллекта с представлением знаний в виде семантических сетей.
- •Выводы по 4-ой главе.
- •Контрольные вопросы и задание.
- •Лекция 11
- •Глава 5. Представление и вывод знаний в системах искусственного интеллекта на основе фреймовых моделей.
- •5.1. Представления знаний в виде фреймов
- •5.2. Вывод в системах искусственного интеллекта с фреймовым
- •Выводы по 5-ой главе.
- •5.4. Контрольные вопросы и задание.
- •Лекция 12
- •Глава 6. Представление и вывод знаний в системах искусственного интеллекта на основе продукционных моделей.
- •Представление знаний в виде в виде системы продукций.
- •6.2. Продукционные системы
- •6.3. Прямой и обратный вывод в продукционных системах.
- •Лекция 13
- •6.4. Пример работы продукционной системы.
- •6.5. Выводы по 6-ой главе
- •6.6. Контрольные вопросы и задание
- •Лекция 14
- •Глава 7. Представление и вывод неопределённых знаний в системах искусственного интеллекта
- •Представление и вывод при нечётких знаниях.
- •7.1.1. Определение нечёткого множества.
- •7.1.2. Операции над нечёткими множествами.
- •Лекция 15
- •7.1.3. Нечёткие отношения.
- •Формальные методы вывода решений в нечёткой логике.
- •Лекция 16
- •7.2.Представление и вывод при неполных знаниях.
- •Вероятностный подход к представлению неопределённых знаний.
- •Определения и виды вероятности
- •Аксиомы вероятностей
- •Лекция 17
- •7.2.4. Формальные методы вывода решений при вероятностном подходе.
- •7.2.5. Правило Байеса и его использование.
- •Байесовская сеть представления и вывода вероятностных знаний.
- •Другие способы представления и вывода неопределённых знаний.
- •Выводы по 7-ой главе
- •7.5. Контрольные вопросы и задание.
- •Литература
Определения и виды вероятности
Априорная вероятность
Безусловная, или априорная, вероятность, связанная с высказыванием а, представляет собой степень уверенности, относящуюся к этому высказыванию в отсутствии любой другой информации; она записывается как Р(а). Например, если априорная вероятность того, что студент учится плохо по предмету СИИ равна 0,1, то можно записать следующее:
Р(студент учится плохо по предмету Р = истина) = 0.1
Важно помнить, что вероятность Р (а) может использоваться, только если нет другой информации. Как только становится известной какая-то новая информация, мы должны проводить рассуждения с условной вероятностью высказывания а, в которой учитывается эта новая информация.
Иногда приходится вести речь о вероятностях всех возможных значений случайной переменной. В этом случае используется такое выражение, как Р ( Погоды), которое обозначает вектор значений для вероятностей каждого отдельного состояния погоды. Таким образом, вместо того, чтобы записывать следующие четыре уравнения:
Р(Погода= солнечная) = 0,7
Р(Погода= дождливая) = 0,2
Р(Погода = снежная) = 0,1
можно просто применить такую запись:
Р(Погода) =(0.7; 0,2; 0,1)
В этом выражении определено распределение априорных вероятностей для случайной переменной Погода.
Кроме того, такие выражения, как Р (Погода, Студент учится плохо по предмету СИИ), могут использоваться для обозначения вероятностей всех комбинаций значений множества случайных переменных. В этом случае выражение Р(Погода, Студент учится плохо по предмету СИИ) можно представить с помощью таблицы вероятностей с размерами 3х2. Такая таблица называется совместным распределением вероятностей переменных Погода и Студент учится плохо по предмету СИИ.
Иногда возникает необходимость рассматривать полное множество случайных переменных, используемых для описания мира. Совместное распределение вероятностей, которое охватывает указанное полное множество, называется полным совместным распределением вероятностей. Например, если мир состоит только из переменных Студент учится плохо по предмету СИИ, Он пропустил много занятий по предмету СИИ и Погода, то полное совместное распределение определяется следующим выражением:
Р( Студент учится плохо по предмету СИИ, Он пропустил много занятий по предмету СИИ, Погода)
Это совместное распределение может быть представлено в виде таблицы с размерами 2х2х3, имеющей 12 элементов. Полное совместное распределение вероятностей задает вероятность каждого атомарного события и поэтому представляет собой полную спецификацию неопределенности знаний о рассматриваемом мире. С помощью полного совместного распределения можно получить ответ на любой запрос, касающийся вероятностных знаний.
Для непрерывных переменных возможность записать все распределения в виде таблицы просто исключена, поскольку количество значений бесконечно велико. Вместо этого обычно определяется вероятность, которую принимает случайная переменная при некотором значении х, в виде параметризованной функции от х. Например, допустим, что случайная переменная Х обозначает прогноз максимальной температуры воздуха на завтра в Москве. В таком случае следующее высказывание:
Р(Х= х) =U [18,26] (х) выражает уверенность в том, что значение Х распределено равномерно между 18 и 26 градусами Цельсия. Вероятностные распределения для непрерывных переменных называются функциями плотности вероятностей.
Условная вероятность
После того как становится известно определенное свидетельство, касающееся ранее неизвестных случайных переменных, составляющих рассматриваемую проблемную область, априорные вероятности становятся больше не применимыми. Вместо этого должны использоваться условные, или апостериорные вероятности. При этом используется обозначение Р(аb) , где а и b — любые высказывания. Это обозначение читается как “вероятность а, при условии, что все, что нам известно, — это b”. Например, следующее выражение:
Р( Студент учится плохо по предмету СИИ Он пропустил много занятий по предмету СИИ) = 0.8 показывает, что если наблюдается студент, который пропустил много занятий по предмету СИИ, и еще не получена какая-либо иная информация, то вероятность, что этот студент учится плохо по предмету СИИ составляет 0,8. Априорная вероятность, такая как Р( Студент учится плохо по предмету СИИ), может рассматриваться как частный случай условной вероятности, Р( Студент учится плохо по предмету СИИ ) , где условием вероятности является отсутствие свидетельства.
Условные вероятности могут быть определены в терминах безусловных вероятностей. Таким определяющим уравнением является следующее, которое остается истинным, если Р(b) > 0:
Р(аb) = Р(а b) (1) Р(b)
Это уравнение может быть также записано следующим образом и в таком виде называется правилом произведения: Р(а b) = Р(аb))* Р(b)
По-видимому, правило произведения запомнить проще; оно основано на таком факте: для того чтобы а и b были истинными, необходимо, чтобы b было истинным, также необходимо , чтобы а было истинным, если дано b. Такое же утверждение можно выразить иначе: Р(а b) = Р(bа))* Р(а)
В некоторых случаях проще формировать рассуждения в терминах априорных вероятностей конъюнкций, но чаще всего мы в качестве своего основного инструмента для вероятностного логического вывода будем использовать условные вероятности.
Кроме того, для условных распределений может использоваться обозначение P. Выражение P (Х У) задает значения выражения Р (Х=хi У=уj) для каждой возможной комбинации i, j.
Было бы соблазнительно, но неправильно рассматривать условные вероятности логические следствия с оценкой неопределенности. Например, высказывание Р(аb)=0.8 нельзя интерпретировать в том смысле, что “если b истинно, из этого следует вывод, что вероятность Р(а) равна 0,8”. Такая интерпретация была бы неправильной в двух отношениях: во-первых, Р(а) всегда обозначает априорную вероятность а, но не апостериорную вероятность, полученную с учетом некоторого свидетельства; во-вторых, само утверждение Р(аb) = 0,8 непосредственно относится к делу, только если b — единственное доступное свидетельство. Как только становится доступной дополнительная информация с, степень уверенности в истинности а становится равной Р(аb с), а это значение может быть почти не связанным со значением Р(аb).
Например, в высказывании с может быть непосредственно указано, является ли а истинным или ложным. Если учебная часть обнаруживает, что студент учится плохо по предмету СИИ и он пропустил много занятий по предмету СИИ, то она получает дополнительное свидетельство с и составляет логический вывод (тривиальный), Р( Студент учится плохо по предмету СИИ Он пропустил много занятий по предмету СИИ Студент учится плохо по предмету СИИ) = 1