 
        
        - •Интеллектуальные системы. Основные классы систем и задач. Понятие иис
- •Критерии интеллектуальности ис
- •История развития иис
- •Классификация задач, решаемых иис
- •Классы иис
- •Символьная обработка и вычислительный интеллект в задачах искусственного интеллекта. Символьная обработка в задачах искусственного интеллекта
- •Вычислительный интеллект в задачах искусственного интеллекта
- •Экспертные системы. Архитектура систем. Экспертные системы
- •Архитектура экспертной системы
- •Архитектура нечеткой экспертной системы.
- •Архитектура нейронной экспертной системы.
- •Архитектура мягкой экспертной системы.
- •Экспертная деятельность
- •Вычисление нечеткой импликации:
- •Архитектура нечёткой экспертной системы
- •Искусственная нейронная сеть. Математическая модель нейрона.
- •Функция активации. Виды нейронных сетей. Функция активации.
- •Виды нейронных сетей.
- •Нс без обратных связей
- •Полносвязные сети
- •Обучение нс. Решение задачи классификации. Обучение нс
- •Решение задачи классификации
- •Обучение нс. Решение задачи кластеризации.
- •Обучение нс. Решение задачи аппроксимации.
- •Нейронная сеть как универсальный аппроксиматор.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Линейно-сепарабельные задачи.
- •Нейронная сеть как универсальный аппроксиматор.
- •Сети Кохонена. Алгоритм обучения «победитель забирает все» Сети Кохонена
- •Алгоритм обучения «победитель забирает все»
- •Дельта-правило в машинном обучении
- •Алгоритм обратного распространения ошибки.
- •Архитектура нейронной экспертной системы
- •Эволюционные вычисления. Классы эволюционных вычислений.
- •История эволюционных вычислений
- •Классы эволюционных вычислений.
- •Обобщение идей эволюционных вычислений
- •Понятие генетического алгоритма.
- •3 Основные положения в теории эволюции (Теория «Происхождения Видов» 1859г. Дарвина):
- •Кодировка хромосом. Оператор отбора.
- •Операторы рекомбинации и мутации. Оператор скрещивания (оператор кроссовера)
- •Оператор мутации
- •Сходимость га.
- •Теорема схем.
- •Гибридные интеллектуальные системы.
- •Методы гибридизации.
- •Способ 1
- •Способ 2 (метод -срезов)
- •Понятия t-нормы и s–конормы.
- •Общие свойства t – норм и s — конорм
- •Пары норм и конорм
- •Определения и-или-нейронов и нечеткой нейронной сети.
- •Нечеткая нейронная сеть архитектуры anfis
- •Пример функционирования нечеткого нейронного контроллера
- •Определить входные переменные.
- •Пример. Нечёткий регулятор для стиральной машины (архитектура anfis)
- •Алгоритмы обучения для неч-ой нейр-ой сети контроллера
- •Нечёткий контроллер на основе нейронной сети (nnflc).
- •Архитектура anfis (адаптивная нейронная сеть, основанная на системе нечёткого вывода).
- •Нейронная сеть для нечётких (nndfr)
- •Нечёткие нейронные сети с генетической настройкой.
- •Эффективность аппроксимации с помощью нейронных сетей и систем нечеткого вывода.
- •Моделирование линейного нейрона
- •Моделирование многослойного перцептрона
- •Моделирование сети Кохонена
- •Пример генетической оптимизации при решении задач
- Функция активации. Виды нейронных сетей. Функция активации.
Особенности структуры НС составляют:
- вид связей, 
- функции активации, 
- постсинаптические элементы: 
- Линейный элемент вычисляет взвешенную сумму входов, что эквивалентно скалярному произведению векторов входов и весов, и сравнивает результат с порогом. Линейные ПСЭ разделяют пространство образцов с помощью пересекающихся гиперплоскостей. 
- Нелинейный элемент; 
- Радиальный элемент вычисляют квадрат расстояния между 2 точками пространства, представляющими вектор весов и входов. Радиальные ПСЭ эквивалентны гиперсферам в пространстве образцов. 
- Элемент деления специально разработаны исключительно для сетей регрессии. Сегодня многослойный перцептрон (МП) — это самая популярная архитектура, которая имеет линейные ПСЭ и нелинейные ФА. 
| Функция активации | Формула функции активации | Комментарий | 
| Линейная | 
			 | Сигнал проходит без преобразования непосредственно на выход | 
| Логистическая | 
			 | S-образная кривая с выходом в диапазоне [0,1] | 
| Гиперболическая | 
			 | Гиперболический тангенс (tank): кривая, подобная логистической функции, но с диапазоном [-1, +1] | 
| Экспонента | 
			 | Гауссовская колоколообразная кривая | 
| Мягкий максимум | 
			 | Нормализованная экспоненциальная функция | 
| Квадратный корень | 
			 | Используется для преобразования квадрата расстояния в сетях Кохонена в расстояние на выходе | 
| Синус | 
			 | Используется вместе с РБФ | 
| Кусочно-линейная | Нет | Кусочно-линейная аппроксимация сигмоиды | 
| Пороговая | Нет | Выход 1,0 или 0,0 в зависимости от результата | 
Виды нейронных сетей.
Классификация нейронных сетей связана с характером передачи сигнала, т.е. с наличием или отсутствием обратных связей. Среди нейронных сетей разделяют сети с прямым распределением сигнала и сети с обратными связями.
- Сети прямого распространения сигнала называют слоистыми сетями или персептронами (от англ. perception – восприятие). 
Персептроновым слоем называют не совокупность нейронов, а совокупность связей одного уровня.
Перцептрон – математическая модель фрагмента нейронной системы головного мозга, осуществляющего восприятие внешнего объекта. Первые перцептроны создавались как модель искусственного глаза. В настоящее время перцептрон представляет собой многослойную нейронную сеть прямого распространения сигнала, способную к обучению.
- Сети с обратными связями или сети прямого и обратного распространения сигнала. Для сетей с обратными связями моделирование прохождения сигнала осложняется тем, что необходимо учитывать возврат сигнала. Обычно такое моделирование требует введение внутреннего времени (внутренних тактов срабатывания). 
Виды нейронных сетей

 
 
 
 
 
 
