
- •Интеллектуальные системы. Основные классы систем и задач. Понятие иис
- •Критерии интеллектуальности ис
- •История развития иис
- •Классификация задач, решаемых иис
- •Классы иис
- •Символьная обработка и вычислительный интеллект в задачах искусственного интеллекта. Символьная обработка в задачах искусственного интеллекта
- •Вычислительный интеллект в задачах искусственного интеллекта
- •Экспертные системы. Архитектура систем. Экспертные системы
- •Архитектура экспертной системы
- •Архитектура нечеткой экспертной системы.
- •Архитектура нейронной экспертной системы.
- •Архитектура мягкой экспертной системы.
- •Экспертная деятельность
- •Вычисление нечеткой импликации:
- •Архитектура нечёткой экспертной системы
- •Искусственная нейронная сеть. Математическая модель нейрона.
- •Функция активации. Виды нейронных сетей. Функция активации.
- •Виды нейронных сетей.
- •Нс без обратных связей
- •Полносвязные сети
- •Обучение нс. Решение задачи классификации. Обучение нс
- •Решение задачи классификации
- •Обучение нс. Решение задачи кластеризации.
- •Обучение нс. Решение задачи аппроксимации.
- •Нейронная сеть как универсальный аппроксиматор.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Линейно-сепарабельные задачи.
- •Нейронная сеть как универсальный аппроксиматор.
- •Сети Кохонена. Алгоритм обучения «победитель забирает все» Сети Кохонена
- •Алгоритм обучения «победитель забирает все»
- •Дельта-правило в машинном обучении
- •Алгоритм обратного распространения ошибки.
- •Архитектура нейронной экспертной системы
- •Эволюционные вычисления. Классы эволюционных вычислений.
- •История эволюционных вычислений
- •Классы эволюционных вычислений.
- •Обобщение идей эволюционных вычислений
- •Понятие генетического алгоритма.
- •3 Основные положения в теории эволюции (Теория «Происхождения Видов» 1859г. Дарвина):
- •Кодировка хромосом. Оператор отбора.
- •Операторы рекомбинации и мутации. Оператор скрещивания (оператор кроссовера)
- •Оператор мутации
- •Сходимость га.
- •Теорема схем.
- •Гибридные интеллектуальные системы.
- •Методы гибридизации.
- •Способ 1
- •Способ 2 (метод -срезов)
- •Понятия t-нормы и s–конормы.
- •Общие свойства t – норм и s — конорм
- •Пары норм и конорм
- •Определения и-или-нейронов и нечеткой нейронной сети.
- •Нечеткая нейронная сеть архитектуры anfis
- •Пример функционирования нечеткого нейронного контроллера
- •Определить входные переменные.
- •Пример. Нечёткий регулятор для стиральной машины (архитектура anfis)
- •Алгоритмы обучения для неч-ой нейр-ой сети контроллера
- •Нечёткий контроллер на основе нейронной сети (nnflc).
- •Архитектура anfis (адаптивная нейронная сеть, основанная на системе нечёткого вывода).
- •Нейронная сеть для нечётких (nndfr)
- •Нечёткие нейронные сети с генетической настройкой.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Моделирование линейного нейрона
- •Моделирование многослойного перцептрона
- •Моделирование сети Кохонена
- •Пример генетической оптимизации при решении задач
Нс без обратных связей
многослойные перцептроны;
сети Кохонена;
нейронные сети с радиальными базисными функциями;
байесовские сети регрессии;
байесовские вероятностные НС;
линейные многослойные перцептроны.
Полносвязные сети
Многослойный перцептрон – самая известная и очень старая архитектура, в которой идут подряд несколько слоев нейронов — входной, один или несколько скрытых слоев, и выходной слой. Почти всегда обучается методом обратного распространения ошибки — что автоматически означает, что мы должны предоставить для обучения набор пар «входной вектор — правильный выход».
Сеть такого типа обычно очень хорошо справляется с задачами, где:
ответ зависит только от того, что мы даем на вход сети, и никак не зависит от истории входов.
ответ не зависит/слабо зависит от высоких степеней и/или произведений параметров — функции этого типа сеть строить почти не умеет.
в наличии есть достаточно много примеров.
Сильные стороны — изучена со всех сторон, хорошо работает на своих задачах, если на некоторой задаче не работает (действительно не работает, а не по криворукости, как это бывает чаще всего) — то это повод утверждать, что задача сложнее, чем казалось.
Слабые стороны — неумение работать с динамическими процессами, необходимость большой обучающей выборки.
Перспективы — никаких существенных. Большинство серьезных задач, которые все еще требуют решения, не входят в класс задач, решаемых многослойным перцептроном c методом обратного распространения ошибки.
Радиальная базисная нейронная сеть (РБНС) состоит из двух слоев:
скрытого радиального базисного слоя из S1 нейронов
выходного линейного слоя из S2 нейронов.
Элементы первого слоя РБНС вычисляют расстояния между входным вектором и векторами весов первого слоя, сформированных из строк матрицы W2,1. Вектор порогов B и расстояния поэлементно умножаются. Выход первого слоя можно выразить формулой:
Нейронные сети регрессии (НСР) имеют такой же, как и РБНС первый слой, но второй слой строится специальным образом. Для аппроксимации функций часто используются обобщенные сети регрессии.
Скрытый радиальный базисный слой из S1 нейронов
Второй слой как и в случае РБНС выполняет поэлементное произведение строки W1,2 и вектора выхода первого слоя a1.
Целевое значение – это значение аппроксимируемой функции в обучающей выборке.
Вероятностные нейронные сети (ВНС) используются для решения проблемы классификации:
Слой радиальных базисных нейронов, который вычисляет расстояние и вектор индикаторов принадлежности другим входным векторам, используемым при обучении.
Слой суммирует эти значения для каждого класса входов и формирует выходы сети, как вектор вероятностей. Далее ФА определяет максимум вероятностей на выходе 2 слоя и устанавливает данный выход в 1, а остальные выходы в 0.
Сеть классифицирует входные вектора, назначая входу единственный класс на основе максимальной вероятности принадлежности.
Обучение нс. Решение задачи классификации. Обучение нс
Нейронные сети, как вычислительные элементы, обладают универсальностью, и очень важным интеллектуальным свойством – обучаемостью.
Обучением называется процесс настройки весов нейронной сети. Обучение отличается от программирования тем, что не является алгоритмической задачей, а строится аналогично обучению живых организмов.
Классическим методом обучения нейронных сетей является обучение с учителем, когда на каждую реакцию нейронной сети поступает оценка, утверждающая правильная эта реакция или нет.
Основными элементами процесса обучения являются следующие составляющие:
Обучающая выборка – по возможности полное представление различных представителей классифицируемых объектов.
Правила изменения весов – правило должно обеспечивать уменьшение ошибки распознавания объектов.
Тестовая выборка – объекты, не принадлежащие изучаемой выборке и предназначенные для тестирования процесса обучения.
Рисунок 3 Линейная однослойная НС
Если задана обучающая выборка, т. е., несколько строк со следующей структурой
<Входы Х11, ..., Х1n - выходы Y11, ..., Y1m>,
то можно ввести обозначение
К: Хк1, ....Хкn и Yк1,....Yкm,
где К – номер образца в обучающей выборке. Последовательно используя строки обучающей выборки, необходимо вычислить реакцию нейронной сети, т. е. ее выход при текущих значениях матрицы весов. Чтобы приблизить выход сети к желаемому значению, можно изменять вектор весов. Уточним. Необходимо найти вектор весов, который бы давал нам заданный выход: