- •1).Теоретико-множественные операции над расплывчатыми множествами
- •2)Расплывчатое включение и расплывчатое равенство множеств
- •5). Расплывчатые высказывания и операции над ними.
- •6) . Расплывчатые логические формулы и их свойства
- •7) . Сложные нечеткие высказывания
- •8) . Нечеткая и лингвистическая переменные
- •9) Построение функций принадлежности нечетких множеств.
- •10) Задача о нечетких интервалах.
- •11). Данные и знания.
- •12). Исчисление высказываний. Синтаксис и семантика.
- •13) .Вывод в логике предикатов
- •14) .Методы решения задач исчисления предикатов
- •15). Сетевые модели представления данных
- •16). Продукционные модели представления знаний
- •17). Вывод на знаниях.
- •18). Онтологии. Модель онтологии.
- •19). Задачи, решаемые с помощью онтологии.
- •20). Основные технологии баз знаний. Система операция для работы со знаниями
- •21) Комплексные операции для работы со знаниями. Анализ структурной семантики.
- •Анализ семантических зависимостей.
- •22) Структура экспертной системы. Экспертные системы
- •Структура экспертной системы
- •Диалоговый компонент экспертной системы
- •23) Интерпретатор экспертной системы
- •24) Компонент приобретения знаний экспертной системы. Когнитивные карты.
- •27). Экспертные оценки. Основные типы шкал и методы проведения экспертизы.
- •(3) Методы экспертного оценивания
- •28). Методы обработки экспертной информации.
- •29.) Структура системы нечеткой логики
- •30). Нечеткий вывод на основе правила композиции.
- •31). Модель нейрона Мак-Каллока и Питтса. Модель формального нейрона.
- •32).Модель персептрона Розенблата.
- •33) Линейные многослойные нейронные сети
- •34). Радиальные нейронные сети
- •Решение проблемы линейности
- •Обобщенная структура радиальной сети рбф
- •35.Дискретная (Рекурентная) сеть Хопфилда
- •36). Двунаправленная ассоциативная память
- •37) Сеть Хэмминга.
- •38) .Рекурентная сеть Эльмана
- •39). Персептронная сеть с обратной связью rmlp.
- •40).Гибридные нейронные сети. Нейросетевые элементы нечетких систем.
- •Нейросетевая реализация нечетких отношений
- •41). Нейросетевая модель нечеткого композиционного вывода.
- •42). Нечеткие элементы нейросетевых систем
- •43). Семантическое эквивалентирование.
- •44). Задача о диверсификации портфеля ценных бумаг
- •45). Элементы характеризационного анализа
- •Преобразование графа в двудольный
35.Дискретная (Рекурентная) сеть Хопфилда
В сети каждый элемент связывается с другим элементом, но не с самим собой. За каждый шаг обновляется только один элемент. Элементы обновляются в случайном порядке, но в среднем элемент должен обновляться в одной и той же мере. Выход каждого элемента – 0 или 1.
Весовые значения для сети Хопфилда определяются непорседственно их эталонных данных без необходимости проведения обучения
Эталон= 1 -1 1 1
Первый столбец представляет весовые значения, связанные с первым элементом, второй столбец со вторым.
Процедура сохранения нескольких образцов сети Хопфилда заключается в следующем:
Прямое произведение вычисляется для каждого вектора и все полученные таким образом матрицы складываются.
Обобщенная структура сети хопфилда:
z-1- задержка на 1 такт
yi(k)=xi(k+1)
Процесс обучения сети формирует зоны притяжения (аттракции). Это зоны притяжения некоторых точек равновесия, соответствующих обучаемым данным.
36). Двунаправленная ассоциативная память
Двунаправленная ассоциативная память (ДАП,BAM) - нейронная сеть, реализующая гетероассоциативную память, способную к ассоциированию одного образа с другим. В отличие от автоассоциативной памяти Хопфилда в ДАП входной вектор подается на один набор нейронов, а выходной генерируется на другом наборе нейронов. ДАП также как и сеть Хопфилда способна к обобщению и восстановлению зашумленных образов.
Сеть состоит из двух слоёв элементов, между которыми имеются двухсторонние связи, соединённые с элементами по принципу все со всеми. Поэтому для описания сети может использоваться матрица весов. В случае, когда эта матрица квадратная и симметричная, ДАП превращается в автоассоциативную сеть Хопфилда.
В каждом слое хранятся эталонные записи образцов для распознавания. После поступления входного сигнала в процессе итерационного функционирования состояния нейронов слоя X вызывают изменения нейронов слоя Y, а те в свою очередь модифицируют состояния нейронов слоя X и т. д. То енсть на каждлй итерации происходит уточнение входных сигналов.
=1, if >Qj
=-1, if <Qj
=yi, if =Qj
Долговременная память (или ассоциации) реализуется в весовых массивах W и Wt. Каждый образ состоит из двух векторов: вектора A, являющегося выходом слоя 1, и вектора B, ассоциированного образа, являющегося выходом слоя 2. Для восстановления ассоциированного образа вектор A или его часть кратковременно устанавливаются на выходах слоя 1. Затем вектор A удаляется и сеть приводится в стабильное состояние, вырабатывая ассоциированный вектор B на выходе слоя 2. Затем вектор B воздействует через транспонированную матрицу Wt, воспроизводя воздействие исходного входного вектора A на выходе слоя 1. Каждый такой цикл вызывает уточнение выходных векторов слоя 1 и 2 до тех пор, пока не будет достигнута точка стабильности в сети. Эта точка может быть рассмотрена как резонансная, так как вектор передается обратно и вперед между слоями сети, всегда обрабатывая текущие выходные сигналы, но больше не изменяя их. Состояние нейронов представляет собой кратковременную память (КП), так как оно может быстро изменяться при появлении другого входного вектора. Значения коэффициентов весовой матрицы образуют долговременную память и могут изменяться только на более длительном отрезке времени, используя представленные ниже в данном разделе методы.