Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
InCh56700.doc
Скачиваний:
2
Добавлен:
01.05.2025
Размер:
570.37 Кб
Скачать

6. Обучаемые интеллектуальные системы

Интеллектуальные системы с обучением появились недавно и в настоящее время завоевывают прочные позиции как самостоятельно развивающийся класс систем, формирующих знания в автоматизированном или автоматическом режиме. Они могут быть условно разделены на два подкласса: логические и коннективистские. Первые в результате обучения накапливают знания в виде логических отношения, например, импликативных (продукции), а вторые - в виде ассоциативных отображений с настраиваемыми связями элементов (коннекции).

В этой главе рассмотрим некоторые варианты логических обучаемых продукционных систем, а также систем на нейронных сетях.

6.1. Логические обучаемые системы

Самыми первыми разработками в области логических обучаемых систем являются продукционные системы с дедуктивным и индуктивным обучением. Дедуктивное обучение мало эффективно для сложных систем и применяется реже. Индуктивное, или обобщающее, обучение используется чаще, но является слабо обоснованным теоретически и может приводить к некорректным знаниям. Примерами систем с индуктивным обучением могут быть система Рада с параметрическим обучением и система Форсайта BEAGLE с генетическим алгоритмом обучения

Система Рада. Метод параметрического обучения, применяемый в этой системе, позволяет автоматически формировать продукционные правила с коэффициентами уверенности и весами в виде переменных порогов срабатывания правил и ослаблений. Веса-пороги регулируют срабатывания правил, которое может иметь место только при превышении установленного порога по коэффициенту уверенности условия правила. Веса-ослабления

62

связаны с заключениями правил и используются для их ослабления, если заключение получено при слишком большой уверенности: вес, меньший единицы, умножается на коэффициент уверенности заключения.

Обучение в системе производится в соответствии со схемой

I D D* G

LS   ST   RULES

Здесь LS (Learning Set) - обучающее множество из упорядоченных пар (I, D), где I - множество начальных суждений (условий) и их коэффициенты уверенности, а D - множество конечных суждений (заключений) и их коэффициенты уверенности; RULES - процедура и множество правил, генерируемых системой и адекватных множеству LS после подгонки весов; ST (STUDIER) - процедура-ученик, заставляющая RULES создавать то же множество D для данного множества I, которое рекомендуется множеством LS; D* - множество заключений, сформированных RULES случайно из числа готовых правил; G - генерация правил процедурой STUDIER.

Процедура STUDIER включает две фазы: раздача сообщений и регулировка весов. В каждой фазе из LS считывается элемент (Ii,Di) и к Ii применяются правила из RULES, сформированные случайно (или направленно, если есть соответствующие эвристики). Полученные при этом заключения D* помещаются в группу CONSi, суждения в которой изначально разделяются на три класса: первый - встречающиеся в CONSi и в Di; второй - встречающиеся в Di, но не в CONSi ; третий - встречающиеся в CONSi, но не в Di. Первый класс разделяется еще на три подкласса: 1а - с одинаковыми коэффициентами уверенности в CONSi и в Di ; 1б - тех, у которых в CONSi больший коэффициент уверенности, чем в Di ; 1в - тех, у которых в CONSi меньший коэффициент уверенности, чем в Di.

В фазе раздачи сообщений для каждой пары (Ii, Di) определяются последовательности правил, ведущие к каждому суждению в CONSi , причем каждому правилу дается список свойств с идентификаторами правил 1а, 1б 1в, "Нужен путь", "Плохой путь". Правила, дающие D*i 1-го класса, запоминаются как правила, полезные в множестве RULES. Для суждений D*i 2-го класса определяется, какой путь вел бы из Ii в Di и правило помечается свойством

63

"Нужен путь" с запоминанием текущей пары (Ii,Di), если правило должно было сработать, но не сработало. Для суждений D*i 3-го класса текущее правило помечается свойством "Плохой путь".

В фазе регулировки весов изменяются веса с целью улучшения работы множества RULES на LS. При 1а нет необходимости изменений, а при 1б - должны быть понижены веса-ослабления тех правил, которые вели от Ii к Di. Степень ослабления и порог пропорциональны разности в коэффициентах уверенности и алгебраической оценке истории работы с суждениями на пути от Ii к Di. При 1в ослабление и порог повышаются. Для суждений класса 2 увеличивается вероятность того, что сработает тот путь, который не сработал. Это достигается понижением порога следующего правила, которое должно было сработать, что повышает вероятность его запуска. Суждений 3-го класса вообще-то не должно быть, поэтому порог правила, создавшего такое суждение, повышается так, что в следующий раз оно не сработает.

В этом методе обучения наиболее трудоемкой работой в предварительной настройке системы является создание множества LS. Однако, если оно создано, то в результате обучения при небольшом количестве циклов раздачи сообщений и регулировки весов создается множество RULES, хорошо работающее на обучающих примерах из LS.

В отличие от простых систем с параметрическим обучением в системе Рада используется несколько уровней правил и несколько форм эвристик обучения. Учитывается также история изменения каждого правила сразу с нескольких точек зрения. Это делает его работоспособным при решении достаточно сложных задач.

Система BEAGLE. Здесь использован эволюционный подход. Эволюционная теория развития биологических систем в настоящее время часто используется для синтеза или обучения технических систем. В 1980-е годы Дж. Холландом, а затем С. Голдбергом был разработан аппарат эволюционного поиска, названный генетическим алгоритмом. В нем используются формализованные процедуры генерации популяций, селекции, кроссовера, мутации, построенные по аналогии с соответствующими биологическими процессами эволюции хромосом, генов и генома. Генетический алгоритм позволяет подбирать не только параметры системы, но и структуру. Набор продукционных правил базы знаний системы может быть оптимизирован в

64

процессе работы генетического алгоритма, исходя из некоторого случайно выбранного набора этих правил (начальной генерации) и критерия соответствия набора решаемой задаче (фитнесу).

Пусть изменяемая база продукционных правил для решения задачи исходно определяется размерностью условной части каждого правила n при единственном заключении в каждом правиле и количеством правил N в наборе базы правил:

{(X1j, …, Xnj) Yj , j = 1, …, N}.

Введем кодирование правила хромосомой Cj такой, что набор хромосом {Cj, j = 1, …, N} (генотип Gt)кодирует весь набор правил базы (фенотип Pt). Каждая хромосома содержит n+1 генов {Gij, i = 1, …, n+1}, кодирующих условия и заключение в j-м правиле. Пусть кодирующая хромосома Cj является бинарным числом, составленным из битов, фиксирующих гены Gij (т.е. аллельс генов есть 0 или 1). Таким образом, каждый ген кодирует условие правила, которое определяется местом гена в хромосоме.

Процедуры генетического алгоритма можно использовать в следующей последовательности.

1. Инициализация. Выполняется начальная генерация генотипа случайным выбором значений генов в хромосомах:

{C0j: (C0ij, i = 1, …, n); j = 1, …, N}.

2. Селекция. Генотип преобразуется в исходный набор правил:

{(X01j, …, X0nj)  Yj ; j = 1, …, N}.

Из этого набора правил по критерию соответствия (фитнесу), например, по минимуму ошибочного решения типовой задачи, отбирается пара правил с наилучшим фитнесом из предварительно упорядоченного набора правил:

R1: (X11, …, Xn1)  Y1; R2: (X12, …, Xn2)  Y2.

65

3. Кроссовер. Выполняется обратное преобразование выбранных правил R1 и R2 в хромосомы C1 и C2 и генерируется две новых хромосомы путем перехлеста в наборах их генов со случано установленной точкой перехлеста:

{C1 = (C'1 C''1); C2 = (C'2C''2) }; {C*1 = (C''2C'1); C*2 = (C''1C'2)}

Далее хромосомы опять преобразуются в правила:

C*1 R*1, C*2 R*2

и вычисляется фитнес новой генерации набора правил с заменой R*1 вместо R1 и R*2 вместо R2. Если фитнес улучшился, т.е. ошибка решения типовой задачи стала меньше, то в наборе остаются правила R*1 и R*2, иначе делается обратная замена, т.е. восстанавливается старая генерация.

4. Мутация. После кроссовера производятся случайные изменения хромосом новой генерации с малой вероятностью с целью улучшения фитнеса набора правил новой генерации. Это необходимо для сглаживания последствий радикальных изменений, которые может вызвать кроссовер.

Повторением процессов селекции, кроссовера и мутации получаются все новые родительские пары хромосом и новые генерации наборов правил. Этот процесс целесообразен до тех пор, пока фитнес не достигнет некоторого установленного заранее максимального значения, соответствующего минимальной ошибке решения задачи.

Таким образом можно за небольшое число генераций установить оптимальный набор правил в размерах исходного. Заметим, что при случайном поиске набора правил без описанных процедур селекции, кроссовера и мутации число генераций может оказаться во много раз больше.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]