
- •Интеллектуальные системы. Основные классы систем и задач. Понятие иис
- •Критерии интеллектуальности ис
- •История развития иис
- •Классификация задач, решаемых иис
- •Классы иис
- •Символьная обработка и вычислительный интеллект в задачах искусственного интеллекта. Символьная обработка в задачах искусственного интеллекта
- •Вычислительный интеллект в задачах искусственного интеллекта
- •Экспертные системы. Архитектура систем. Экспертные системы
- •Архитектура экспертной системы
- •Архитектура нечеткой экспертной системы.
- •Архитектура нейронной экспертной системы.
- •Архитектура мягкой экспертной системы.
- •Экспертная деятельность
- •Вычисление нечеткой импликации:
- •Архитектура нечёткой экспертной системы
- •Искусственная нейронная сеть. Математическая модель нейрона.
- •Функция активации. Виды нейронных сетей. Функция активации.
- •Виды нейронных сетей.
- •Нс без обратных связей
- •Полносвязные сети
- •Обучение нс. Решение задачи классификации. Обучение нс
- •Решение задачи классификации
- •Обучение нс. Решение задачи кластеризации.
- •Обучение нс. Решение задачи аппроксимации.
- •Нейронная сеть как универсальный аппроксиматор.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Линейно-сепарабельные задачи.
- •Нейронная сеть как универсальный аппроксиматор.
- •Сети Кохонена. Алгоритм обучения «победитель забирает все» Сети Кохонена
- •Алгоритм обучения «победитель забирает все»
- •Дельта-правило в машинном обучении
- •Алгоритм обратного распространения ошибки.
- •Архитектура нейронной экспертной системы
- •Эволюционные вычисления. Классы эволюционных вычислений.
- •История эволюционных вычислений
- •Классы эволюционных вычислений.
- •Обобщение идей эволюционных вычислений
- •Понятие генетического алгоритма.
- •3 Основные положения в теории эволюции (Теория «Происхождения Видов» 1859г. Дарвина):
- •Кодировка хромосом. Оператор отбора.
- •Операторы рекомбинации и мутации. Оператор скрещивания (оператор кроссовера)
- •Оператор мутации
- •Сходимость га.
- •Теорема схем.
- •Гибридные интеллектуальные системы.
- •Методы гибридизации.
- •Способ 1
- •Способ 2 (метод -срезов)
- •Понятия t-нормы и s–конормы.
- •Общие свойства t – норм и s — конорм
- •Пары норм и конорм
- •Определения и-или-нейронов и нечеткой нейронной сети.
- •Нечеткая нейронная сеть архитектуры anfis
- •Пример функционирования нечеткого нейронного контроллера
- •Определить входные переменные.
- •Пример. Нечёткий регулятор для стиральной машины (архитектура anfis)
- •Алгоритмы обучения для неч-ой нейр-ой сети контроллера
- •Нечёткий контроллер на основе нейронной сети (nnflc).
- •Архитектура anfis (адаптивная нейронная сеть, основанная на системе нечёткого вывода).
- •Нейронная сеть для нечётких (nndfr)
- •Нечёткие нейронные сети с генетической настройкой.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Моделирование линейного нейрона
- •Моделирование многослойного перцептрона
- •Моделирование сети Кохонена
- •Пример генетической оптимизации при решении задач
Общие свойства t – норм и s — конорм
Интервалы определения : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1
Интервал
значений
Коммутативность
Ассоциативность
,
Монотонность
Если x=u и y=v, то
T(x,y)=T(u,v), S(x,y)=S(u,v)
Специальные значениями
T(0,y) = 0, S (0, y) = y;
T(1,y) = y, S (1, y) = 1;
Пары норм и конорм
Каждая функция со свойствами Т называется Т-нормой, или триангулярной нормой, а со свойствами S – S-конормой, или триангулярной конормой.
Для каждой пары справедливы следующие уравнения:
T(х, у)= 1 - S(1-х,1- у),
S(x, у) = 1 - Т(1- х, 1- у).
Каждая пара триангулярных норм и конорм, которые подчиняются обобщенным отношениям де Моргана, называется парой относительных триангулярных норм. Все функции принадлежности (как для И, так и для ИЛИ-связок нечетких значений) выбираются такими же далекими друг от друга, как пары относительных триангулярных T-норм и S-конорм.
Т-нормы выбираются для И,
S-конормы — для ИЛИ.
Пары норм и конорм
T-норма: T(x, у) |
S-конорма: S(x, у) |
Усиленное произведение (х, у) |
Усиленная сумма (х, у) |
Ограниченная сумма (х, у) |
Ограниченная разность (х, у) |
Произведение Эйнштейна (х, у) |
Сумма Эйнштейна (х, у) |
Алгебраическое произведение (х, у) |
Алгебраическая сумма (х, у) |
Произведение (х, у) |
Сумма Гамахера (х, у) |
Минимум (х, у) |
Максимум (х, у) |
Почему функции назвали триангулярными?
Потому, что Т(х,
у)= Т(у,
х) и S(x,
у) = S(y,
х) определяются только в треугольной
области
.
Для любых заданных значений х и у справедлива следующая возрастающая последовательность:
0 ≤ произведение (х, у)≤ ограниченная разность (х, у) ≤ произведение Эйнштейна (х, у) ≤ ≤ алгебраическое произведение (х, у) ≤ произведение Гамахера (х, у) ≤ минимум (х, у)≤
≤ максимум (х, у) ≤ сумма Гамахера ≤ алгебраическая сумма ≤ сумма Эйнштейна ≤ ≤ ограниченная сумма ≤ сумма ≤ 1.
Для любых двух T-норм и S-конорм (не только для одной из них) справедлива следующая последовательность:
0 <= Т(х, у) <= Т(1, у)<= y <= S(0, у) <= S(x, у) <= 1
Определения и-или-нейронов и нечеткой нейронной сети.
Т.к. в нечёткой логике «и», «или» может быть реализована с помощью любой T-нормы или S-конормы, то существует большое разнообразие нечётких логических «и-или» нейронов.
T(x, 1) = x
S(x, 0) = x
И-нейроном называется нейрон, в котором умножение веса w на вход x моделируется конормой S(w, x), а сложение нормой T(w, x). Для двухвходового И-нейрона справедлива формула:
Y = T(S(w1, x1), S(w2, x2)).
ИЛИ-нейроном называется нейрон, в котором умножение веса w и входа x моделируется нормой T(w, x), а сложение взвешенных весов конормой S(w, y). Для двухвходового ИЛИ-нейрона справедлива формула:
Y = S(T(w1, x1), T(w2, x2)).
Если выбрать в качестве T min, а S – max, то формула преобразования ИЛИ-нейрона уточняется следующим образом: max(min(w1, x1), min(w2, x2)).
В качестве ФА используют радиальную базисную функцию F(x) = exp(-b(x2 - a)) .
Нечеткой нейронной сетью (ННС) называют четкую нейронную сеть прямого распространения сигнала, которая построена на основе многослойной архитектуры с использованием "И-", "ИЛИ-нейронов"