Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

3130

.pdf
Скачиваний:
1
Добавлен:
08.01.2021
Размер:
484.01 Кб
Скачать

не известна, механизм вывода пытается определить значения неизвестных переменных в посылке.

Смешанным. Суть метода состоит в том, что вывод основной цели начинается обратным методом с определением текущих целей и попыткой их вывода из других правил, однако, при успешной активизации какого-либо правила механизм вывода начинает действовать особым образом. В случае активизации правила, одна или несколько переменных принимают определенные значения. Для этих переменных механизм вывода начинает прямой вывод во всех правилах, где они встречаются в посылке правила. В случае активизации правил появляются новые известные переменные. При невозможности активизации правила, механизм вывода не строит никаких временных подцелей и не возвращается к данному правилу повторно в данной операции. После попыток активизации всех выявленных правил, механизм вывода возвращается к обратному выводу до тех пор, пока не будет активизировано еще какое-либо правило, тогда снова включается прямая цепочка вывода, и так до тех пор, пока не будет достигнута цель консультации.

2)фреймовые

Основаны на представлении знаний в форме специальных иерархически связанных шаблонов – фреймов, состоящих из слотов.

3) основанные на семантических сетях Под семантической сетью подразумевают систему знаний некоторой

предметной области, имеющую определенный смысл в виде целостного образа сети, узлы которой соответствуют понятиям и объектам, а дуги (концепты) – отношениям между объектами.

4) основанные на нечеткой логике Нечеткая логика, выделившаяся из теории нечетких множеств – это раз-

новидность непрерывной логики, в которой логические формулы могут принимать истинностные значения между 1 и 0. Следовательно все логические выводы осуществляются тоже с какой-то степенью уверенности.

5)использующие вероятностные выводы

6)использующие немонотонные рассуждения.

г) Подсистема приобретения знаний автоматизирует процесс наполнения ЭС знаниями, осуществляемый пользователем-экспертом. Приобретение знаний может осуществляться следующими способами:

21

1)Ввод знаний пользователем-инженером по знаниям (например, на специализированном внутреннем языке системы).

2)Ввод знаний пользователем-экспертом в текущей предметной области (на естественном языке в формализованном виде).

3)Автоматическое извлечение знаний из баз данных и других информационных систем (используются алгоритмы анализа данных).

д) Подсистема объяснений проводит трассировку вывода, формирует объяснение, содержащее комментарии и информацию о том, как система получила решение задачи, какие знания она при этом использовала. Это облегчает эксперту тестирование системы и повышает доверие пользователя к полученному результату.

Подсистема организации консультаций предназначена для обеспечения эффективной и удобной работы пользователя с системой, как в ходе решения задач, так и в процессе приобретения знаний или объяснения результатов работы. Данная подсистема отвечает за формулирование, а также возможное пояснение вопросов и вариантов ответов на них, обеспечивает наглядное отображение текущих результатов консультации, сохранение и использование графов консультаций, возможность корректировки ответов (фактов из рабочей памяти) с автоматическим изменением результатов текущей консультации, а также несет ряд управляющих функций. Например, выбор режима работы (ввод знаний – консультация) или выбор способа логического вывода (прямой – обратный – смешанный).

ЛАБОРАТОРНАЯ РАБОТА №4: «Нечеткая логика» Цель работы:

1.Конструирование компонент модели экспертной системы.

2.В разработанной экспертной оболочке (Лабораторная работа №3) реализовать машину логического вывода, основанную на нечеткой логике.

Теоретическое введение.

Взадачах, которые решают интеллектуальные системы, иногда приходится применять ненадежные знания и факты, представить которые двумя значениями

— истина или ложь (1 или 0) — трудно. Существуют знания, достоверность которых, скажем, 0,7. Такую ненадежность в современной физике и технике представляют вероятностью, подчиняющейся законам Байеса, но в инженерии знаний было бы нелогично иметь дело со степенью надежности, приписанной знаниям изначально, как с байесовской вероятностью. Поэтому одним из первых был разрабо-

22

тан метод использования коэффициентов уверенности для системы MYCIN. Подробно об обстоятельствах появления этого метода и возникшей дискуссии рассказано в работе Б. Бухенена и Э. Шортлиффа. Этот метод не имеет теоретического подкрепления, но стал примером обработки ненадежных знаний, что оказало заметное влияние на последующие системы. Так, на фир-

ме SRI, США предложен метод выводов, названный субъективным бай-

есовским методом, который ис-

Рис. 5.1. Описание дерева И/ИЛИ/КОМБ для

пользован в системе PROSPECTOR.

задачи с ненадежными данными.

Позже была введена теория вероятностей Демпстера-Шафера, которая имеет все признаки математической теории.

Связь между подзадачами, на которые разбита задача, оперирующая двумя понятиями — истина и ложь, может быть представлена через операции И и ИЛИ. В задачах с ненадежными исходными данными кроме И и ИЛИ важную роль играет комбинированная связь, которую будем обозначать как КОМБ. Такая связь независимо подкрепляет или опровергает цель на основании двух и более доказательств.

РАЗБИЕНИЕ ЗАДАЧ С НЕНАДЕЖНЫМИ ДАННЫМИ. Для решения сложных задач можно использовать метод разбиения их на несколько подзадач. Каждая подзадача в свою очередь разбивается на простые подзадачи, поэтому задача в целом описывается иерархически. Знания, которые по условиям подзадач определяют условия задач высшего уровня, накапливаются фрагментарно. В задачах с ненадежными данными знания могут не только иметь степень надежности, равную 1, но и промежуточные значения между истиной и ложью. Как отмечено выше, при разбиении на подзадачи возможно соединение И, ИЛИ и КОМБ (комбинированная связь). На рис.5.1 показано описание задачи в виде дерева И, ИЛИ, КОМБ.

На основании двух и более доказательств цели независимо подтверждаются или опровергаются, если связь комбинированная.

Знания будем описывать с помощью правил как в системе продукций (рис.5.2.): пусть X, Y — результаты доказательств; А — цель пли гипотеза; И, ИЛИ и КОМБ — виды связей; С1, С2, С31, С32 — это степени надежности, приписанные правилам.

23

Допустим, что уже опре-

А)

 

 

 

делены степени надежности X и

Правило: ЕСЛИ X и Y,

Y как результаты предыдущих

 

ТО А с С1

 

 

выводов или наблюдений, и сде-

Правило: ЕСЛИ X или Y,

лаем вывод или вычислим сте-

 

ТО А с С2

(Если X и Y не могут выполняться одновре-

пень надежности А, используя

менно, то правило можно записать в виде

правила из базы знаний. Кроме

двух отдельных правил:

Правило: ЕСЛИ X,

 

общеизвестных методов выбора

 

ТО А с С21,

минимального значения степе-

Правило: ЕСЛИ Y,

Б)

ТО А с С22)

 

ней надежности из нескольких

 

 

выводов при связи И и макси-

В)

 

Правило 1: ЕСЛИ X,

 

мального при связи ИЛИ, других

 

ТО А с С31,

подходящих методов не суще-

Правило 2: ЕСЛИ У,

 

ТО А с С32

ствует, а при связи КОМБ пред-

 

Рис.5.2. Описание правил с помощью правил И,

ложены метод MYCIN, субъек-

 

ИЛИ, КОМБ. С1, С2, С31, С32 – степени

тивный байесовский метод, а

надежности.

 

также теория Демпстера — Шафера.

НЕЧЕТКАЯ ЛОГИКА, выделившаяся из теории нечетких множеств, — это разновидность непрерывной логики. В нечеткой логике достоверность представляется как истинностное значение между 1 и 0, и значения, приписанные правилам на Рис.5.2., это и есть истинностные значения. Пусть tx и ty — истинностные значения предпосылок X и Y некоторого правила, тогда истинностное значение tпредпосылки в случае связей И и ИЛИ на рис.5.2.А),Б) определяется следующим образом.

1.

При связи И tпредпосылки = min{tx, ty}.

[5.1]

2.

При связи ИЛИ

tпредпосылки = max{tx, ty}.

[5.2]

 

Если в общем случае tправила есть истинностное значение,

приписанное

правилу, то истинностное значение tА, распределенное на вывод, определяется как

tА = min{tпредпосылки, tправила}.

[5.3]

Определение минимума — это идея, свойственная нечеткой логике и отличающая ее от других методов.

24

ЛАБОРАТОРНАЯ РАБОТА №5: «Алгоритмы нейронных сетей» Цель работы:

1.Изучение компонент обучающихся информационных системы.

2.Создать программу, позволяющую распознавать графические изображения цифр, представленные в двоичном формате, с помощью алгоритма нейронной сети (63 входа, 18 нейронов на первом слое, 9 на втором).

Теоретическое введение.

Искусственный нейрон (Рис.6.1.) имитирует в первом приближении свойства биологического нейрона. Каждый вход умножается на соответствующий вес и все произведения суммируются, определяя уровень активации нейрона.

Рис.6.1. Ячейка нейрона, где S – взвешанная сумма входных параметров,

Xi – входные данные от i-ого входного элемента,

Wi – весовой коэффициент связи.

Выход нейрона является функцией его состояния Y = F(x).

Нелинейная функция F называется активационной и может иметь различный вид, что, в частности, показано на Рис.6.2.

Рис.6.2. Виды активационных функций:

а) единичного скачка; б) линейного порога; в) гиперболический тангенс; г) сигмоид.

25

f (x) af(x)(1 f(x))

В случае, когда функция активации одна и та же для всех нейронов сети, сеть называют однородной (гомогенной).

Одной из наиболее распространенных является нелинейная функция с насыщением, так называемая логистическая функция или сигмоид (т.е. функция S-образного вида):

f (x)

1

[6.1]

1 e ax

При уменьшении сигмоид становится более пологим, в пределе при=0 вырождаясь в горизонтальную линию на уровне 0.5. При увеличении сигмоид приближается по внешнему виду к функции единичного скачка с порогом Т в точке х=0. Из выражения для сигмоида очевидно, что выходное значение нейрона лежит в диапазоне [0,1]. Одно из ценных свойств сигмоидной функции – простое выражение для ее производной:

[6.2]

Следует отметить, что сигмоидная функция дифференцируема на всей оси абсцисс, что широко используется во многих алгоритмах обучения. Кроме того, она обладает свойством усиливать слабые сигналы лучше, чем сильные, и предотвращает насыщение от сильных сигналов, так как они соответствуют областям аргументов, где сигмоид имеет пологий наклон.

Многослойные сети прямого распространения

Класс нейронных сетей прямого распространения характеризуется наличием одного или нескольких скрытых слоев, узлы которых называются скрытыми нейронами, или скрытыми элементами. Функция последних заключается в посредничестве между внешним входным сигналом и выходом нейронной сети. Узлы источника входного слоя сети формируют соответствующие элементы шаблона активации (входной вектор), которые составляют входной сигнал, поступающий на нейроны (вычислительные элементы) второго слоя (т.е. первого скрытого слоя). Выходные сигналы второго слоя используются в качестве входных для третьего слоя и т.д. Обычно нейроны каждого из слоев сети используют в качестве входных сигналов выходные сигналы нейронов только предыдущего слоя. Набор выходных сигналов нейронов выходного (последнего)

слоя сети определяет общий отклик сети на данный входной образ, сформирован-

26

ный узлами источника входного (первого) слоя.

Рис.6.3. Многослойные сети прямого распространения.

Алгоритм обратного распространения

Согласно метода наименьших квадратов, минимизируемой целевой фун-

кцией ошибки НС является величина E(w)

1

( y(j ,Np) d j , p )2 , где y(j ,Np) – ре-

 

 

2 j , p

альное выходное состояние нейрона j выходного слоя N нейронной сети при подаче на ее входы p-го образа; djp – идеальное (желаемое) выходное состояние этого нейрона.

Суммирование ведется по всем нейронам выходного слоя и по всем обрабатываемым сетью образам. Минимизация ведется методом градиентно-

го спуска, что означает подстройку весовых коэффициентов w( n)

E

,

 

ij

wij

 

 

 

где wij – весовой коэффициент синаптической связи, соединяющей i-ый нейрон слоя n-1 с j-ым нейроном слоя n, – коэффициент скорости обучения,

0< <1. А производная определяется

E

 

E

 

dy j

 

s j

, где под yj, подра-

 

 

 

 

 

 

w

y

j

ds

j

w

 

 

 

 

 

 

ij

 

 

 

 

 

ij

 

зумевается выход нейрона j, а под sj – взвешенная сумма его входных сигналов, то есть аргумент активационной функции. Так как множитель dyj/dsj является производной этой функции по ее аргументу, из этого следует, что производная активационной функция должна быть определена на всей оси абсцисс. В связи с этим функция единичного скачка и прочие активационные функции с неоднородностями не подходят для рассматриваемых НС. В них применяются такие гладкие функции, как гиперболический тангенс или классический сигмоид с экспонентой.

Третий множитель sj/ wij, очевидно, равен выходу нейрона предыдущего слоя yi(n-1).

Что касается первого множителя, он легко раскладывается следующим образом:

E

 

E

 

dyk

 

sk

 

E

 

dyk

w(jkn 1)

 

 

 

y j

 

 

y j k

yk dsk

k

yk dsk

Здесь суммирование по k выполняется среди нейронов слоя n+1.

Введя новую переменную

( n)

 

E

 

dy j

мы получим рекурсивную фор-

j

y j

ds j

 

 

 

 

 

 

 

 

 

27

мулу для расчетов величин j(n) слоя n из величин k(n+1) более старшего слоя n+1.

 

( n)

 

 

( n 1)

 

( n 1)

 

dy j

 

j

 

k

 

wjk

 

 

 

 

[6.3]

 

ds j

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

Для выходного же слоя

 

 

( N ) ( y( N )

d

)

dyl

 

 

 

 

 

[6.4]

 

 

 

 

 

 

 

l

 

 

l

 

l

 

dsl

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В данном случае производная dyl вычисляется по формуле [6.2] dsl

Теперь мы можем записать в раскрытом виде:

w( n) ( n) y( n 1)

[6.5]

ij

j

i

 

Иногда для придания процессу коррекции весов некоторой инерционности, сглаживающей резкие скачки при перемещении по поверхности целевой функции, дополняется значением изменения веса на предыдущей итерации:

w( n) (t) ( w(n) (t 1) (1 ) (n) y( n 1)

)

[6.6]

ij

ij

j i

 

 

где – коэффициент инерционности, t – номер текущей итерации.

Полный алгоритм обучения НС с помощью процедуры обратного распространения строится так:

Шаг 1.Подать на входы сети один из возможных образов и рассчитать результат. (Каждый нейрон вычисляет значение по формуле [6.1], в качестве функции активации использовать сигмоид.)

Шаг 2. Рассчитать (N) для выходного слоя по формуле [6.4]. Рассчитать по формуле [6.5] или [6.6] изменения весов w(N) слоя N.

Шаг 3. Рассчитать по формулам [6.3] и [6.5] (или [6.3] и [6.6]) соответственно (n) и w(n) для всех остальных слоев, n=N-1,...1.

Шаг 4. Скорректировать все веса в НС

w( n) (t) w( n) (t 1) w( n) (t)

[6.7]

ij

ij

ij

 

где t – номер текущей итерации.

Шаг 5. Если ошибка сети существенна, перейти на Шаг 1. В противном случае – конец.

Принять:

– коэффициент инерционности принять равным 0.5,– коэффициент скорости обучения принять равным 0.5,– принять равным 0.3.

28

СПИСОК РЕКОМЕНДУЕМОЙ ЛИТЕРАТУРЫ

1.Андрейчиков А.В., Андрейчикова О.Н. Интеллектуальные информационные системы: Учебник. – М.: Финансы и статистика, 2004. – 424 с.

2.Гаврилова Т.А., Червинская К.Р. Извлечение и структурирование знаний для экспертных систем. – М.: Радио и связь, 1992 – 198 с.

3.Змитрович А.И. Интеллектуальные информационные системы. – Мн.: НТООО «ТетраСистемс», 1997 – 368 с.

4.Кофман А. Введение в теорию нечетких множеств. – М.: Радио и связь, 1982

– 432 с.

5.Лорьер Ж.-Л. Системы искусственного интеллекта. – М.: Мир, 1991 – 586 с.

6.Обработка знаний / Под ред. Осуга С. – М.: Мир, 1989 – 293 с.

7.Представление и использование знаний / Под ред. Уэно Т., Исидзука М. – М.:

Мир, 1989 – 220 с.

8.Яйлеткан А.А. Логика BFSN или порождающие схемы логики. – Тюмень:

ТОГИРРО, 2002 – 35 с.

9.Яйлеткан А.А. Обобщение и систематизация основ математической логики. – Тюмень: ТОГИРРО, 2002 – 373 с.

10.Яйлеткан А.А. Интеллектуальные информационные системы. – Тюмень:

ТюмТГНГУ, 2007 – 128 с.

8.ДОПОЛНИТЕЛЬНАЯ ЛИТЕРАТУРА

1.Амамия М., Танака Ю. Архитектура ЭВМ и ИИ. – М.: Мир, 1993.

2.Андрейчиков А.В., Андрейчикова О.Н. Компьютерная поддержка изобретательства (методы, системы, примеры, применения). – М.: Машиностроение,

1998.

3.Андриенко Г.Л., Андриенко Н.В. Игровые процедуры сопоставления в инженерии знаний // Сб. тр. III конференции по искусственному интеллекту. –

Тверь, 1992.

4.Батищев Д.И. Генетические алгоритмы решения экстремальных задач: Учеб. пособие. – Воронеж: Изд-во ВГТУ, 1995.

5.Борисов А.Н., Крумберг О.А., Федоров И.П. Принятие решений на основе нечетких моделей. – Рига: Зинатне, 1990.

6.Букатова И.Л. Эволюционное моделирование и его приложения. – М.: Наука,

1979.

7.Гаврилова Т.А., Хорошевский В.Ф. Базы знаний интеллектуальных систем. – СПб.: Питер, 2000.

29

8.Искусственный интеллект: В 3 кн. Кн. 1. Системы общения и экспертные системы: Справочник / Под ред. Э.В. Попова. – М.: Радио и связь, 1990.

9.Искусственный интеллект: В 3 кн. Кн. 2. Модели и методы: Справочник / Под ред. Д.А. Поспелова. – М.: Радио и связь, 1990.

10.Искусственный интеллект: В 3 кн. Кн. 3. Программные и аппаратные средства: Справочник / Под ред. В.Ф. Хорошевского. – М.: Радио и связь, 1990.

11.Корнеев В.В. и др. Базы данных. Интеллектуальная обработка информации.

М.: Нолидж, 2000.

12.Логический подход к искусственному интеллекту: от классической логики к логическому программированию: Пер. с фр. / А. Тейз, П. Грибомон, Ж. Луи и др. – М.: Мир, 1990.

13.Нильсон Н.Дж. Искусственный интеллект. Метод поиска решений. – М.:

Мир, 1973.

14.Осипов Г.С. Приобретение знаний интеллектуальными системами. – М.:

Наука, 1997.

15.Половинкин А.И. Основы инженерного творчества. – М.: Машиностроение,

1988.

16.Хант Э. Искусственный интеллект: Пер. с англ. / Под ред. В.Л. Стефанюка.

М.: Мир, 1978.

17.Экспертные системы. Принципы работы и примеры: Пер. с англ. / Под ред. Р. Форсайта. – М.: Радио и связь, 1987.

18.Элти Дж., Кумбс М. Экспертные системы: концепции и примеры: Пер. с англ. – М.: Финансы и статистика, 1987.

30

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]