
- •Интеллектуальные системы. Основные классы систем и задач. Понятие иис
- •Критерии интеллектуальности ис
- •История развития иис
- •Классификация задач, решаемых иис
- •Классы иис
- •Символьная обработка и вычислительный интеллект в задачах искусственного интеллекта. Символьная обработка в задачах искусственного интеллекта
- •Вычислительный интеллект в задачах искусственного интеллекта
- •Экспертные системы. Архитектура систем. Экспертные системы
- •Архитектура экспертной системы
- •Архитектура нечеткой экспертной системы.
- •Архитектура нейронной экспертной системы.
- •Архитектура мягкой экспертной системы.
- •Экспертная деятельность
- •Вычисление нечеткой импликации:
- •Архитектура нечёткой экспертной системы
- •Искусственная нейронная сеть. Математическая модель нейрона.
- •Функция активации. Виды нейронных сетей. Функция активации.
- •Виды нейронных сетей.
- •Нс без обратных связей
- •Полносвязные сети
- •Обучение нс. Решение задачи классификации. Обучение нс
- •Решение задачи классификации
- •Обучение нс. Решение задачи кластеризации.
- •Обучение нс. Решение задачи аппроксимации.
- •Нейронная сеть как универсальный аппроксиматор.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Линейно-сепарабельные задачи.
- •Нейронная сеть как универсальный аппроксиматор.
- •Сети Кохонена. Алгоритм обучения «победитель забирает все» Сети Кохонена
- •Алгоритм обучения «победитель забирает все»
- •Дельта-правило в машинном обучении
- •Алгоритм обратного распространения ошибки.
- •Архитектура нейронной экспертной системы
- •Эволюционные вычисления. Классы эволюционных вычислений.
- •История эволюционных вычислений
- •Классы эволюционных вычислений.
- •Обобщение идей эволюционных вычислений
- •Понятие генетического алгоритма.
- •3 Основные положения в теории эволюции (Теория «Происхождения Видов» 1859г. Дарвина):
- •Кодировка хромосом. Оператор отбора.
- •Операторы рекомбинации и мутации. Оператор скрещивания (оператор кроссовера)
- •Оператор мутации
- •Сходимость га.
- •Теорема схем.
- •Гибридные интеллектуальные системы.
- •Методы гибридизации.
- •Способ 1
- •Способ 2 (метод -срезов)
- •Понятия t-нормы и s–конормы.
- •Общие свойства t – норм и s — конорм
- •Пары норм и конорм
- •Определения и-или-нейронов и нечеткой нейронной сети.
- •Нечеткая нейронная сеть архитектуры anfis
- •Пример функционирования нечеткого нейронного контроллера
- •Определить входные переменные.
- •Пример. Нечёткий регулятор для стиральной машины (архитектура anfis)
- •Алгоритмы обучения для неч-ой нейр-ой сети контроллера
- •Нечёткий контроллер на основе нейронной сети (nnflc).
- •Архитектура anfis (адаптивная нейронная сеть, основанная на системе нечёткого вывода).
- •Нейронная сеть для нечётких (nndfr)
- •Нечёткие нейронные сети с генетической настройкой.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Моделирование линейного нейрона
- •Моделирование многослойного перцептрона
- •Моделирование сети Кохонена
- •Пример генетической оптимизации при решении задач
Алгоритм обратного распространения ошибки.
Алгоритм обратного распространения ошибки был предложен для обучения многослойных нелинейных сетей. Т.к. в таких сетях неизвестно значение ошибки на скрытых нейронах, то ошибку с выходов всей сети распространяют или раскладывают по скрытым нейронам сети.
Распространение выходной ошибки по нейронной сети осуществляют с помощью схемы минимизации функции ошибки, получая несколько правил изменения весов для каждого слоя.
Пусть определена трехслойная нейронная сеть с n входами, m выходами и l скрытыми между ними элементами, тогда необходимо рассмотреть и построить два слоя весов: от входов к скрытым элементам и к выходу, т.е.(Wln, Wlm).
Назначение алгоритма обратного распространения ошибки – настройка всех слоёв многослойной структуры.
Рассмотрим работу алгоритма на примере сети с одним скрытым слоем и одним выходом Преобразования входных сигналов, задаваемые нейронной сетью, определяются следующими формулами:
F(<W, X>) = 1/(1 + exp(–WTX)),
ОK = 1/(1 + exp(–WTXK)),
О = 1/(1 + exp(–WLTОK)).
Общая функция ошибки зависит от весов всех слоёв, в нашем случае от вектора Wl и от матрицы Wij:
ЕK(WL,W) = 1/2(Y – OK)2 = 1/2(Y–1/(1 + exp(–WLTOK)))2 ,
где Y – выход, который задан в выборке. Теперь необходимо определить приращение каждого веса с помощью частных производных:
;
.
Для многослойной архитектуры частные производные ошибки по матрице весов каждого слоя определяются по формуле сложной производной. В случае униполярной си
W = W + (YK – OK) OK(1– OK)ОK,
=(YK
– OK)
OK(1–
OK),
Wl = Wl + Wl(1 – OK)OKХK .
Метод обратного распространения ошибки позволяет изменять веса промежуточных слоёв, хотя желаемые значения на промежуточных слоях не заданы.
Шаги алгоритма:
прямой прогон сигнала, вычисление ошибки
обратный прогон ошибки, вычисление выходов по слоям
обновление весов слоев
Архитектура нейронной экспертной системы
См. вопрос 3
Эволюционные вычисления. Классы эволюционных вычислений.
Эволюционные вычисления – обобщающий термин, используемый при описании компьютерных систем на основе вычислительных моделей эволюционных процессов в качестве базовых при разработке и эксплуатации. В основе моделирования лежит концепция подражания эволюционным процессам отбора (селекции), мутации и воспроизводства (репродукции), которые определяются поведением индивидуумов в изменяющихся условиях окружающей среды. Эволюционные вычисления создают популяции структур, которые развиваются в соответствии с поисковыми операторами, называемыми правилами отбора, и в соответствии с генетическими операторами, представленными операциями рекомбинации и мутации.
Каждый индивидуум в популяции занимает своё место согласно мере его соответствия условиям среды. Посредством рекомбинации и мутации обеспечивается основной набор для дальнейшего воспроизводства индивидуумов. С точки зрения биологии указанные алгоритмы упрощены, но достаточно сложны для реализации и представляют собой поисковые механизмы адаптации.
История эволюционных вычислений
История эволюционных вычислений началась с разработки ряда независимых моделей, в частности генетических алгоритмов и классификационных систем Я. Голланда, представленных в начале 1960-х годов и получивших всеобщее признание после выхода книги «Адаптация в естественных и искусственных системах» (1975). В 1970-х годах в рамках теории случайного поиска Л. А. Растригиным был предложен ряд алгоритмов, использующих идеи бионического поведения особей. Развитие этих идей нашло отражение в работах по эволюционному моделированию И. Л. Букатовой. Развивая идеи М. Л. Цетлина о целесообразном и оптимальном поведении стохастических автоматов, Ю. И. Неймарк предложил осуществлять поиск глобального экстремума на основе коллектива независимых автоматов, моделирующих процессы развития и элиминации особей. Несмотря на разницу в подходах, каждая из одноименных «школ» взяла за основу ряд существующих в природе принципов и упростила до такой степени, чтобы их можно было реализовать на компьютере.