- •1.Определение, назначение и архитектура эс
- •2.База знаний. Принципы, отличие знаний от данных (правила, вероятности)
- •3.Логический вывод (прямой, обратный, смешанный)
- •4.Продукционная модель (система продукция ситуация действия)
- •5.Фреймовая структура (Что это? Для чего?)
- •Нечеткая логика
- •Операции над нечеткими подмножествами
- •Лингвистическая переменная
- •Алгоритм нечеткого выбора
- •Метод центра тяжести дефазификации
- •Контроллер мамдами
- •11.Условная вероятность.Формула Байеса.Полная вероятность Условная вероятность
- •12. Байесовские сети доверия
- •Распространение свидетельств Байес. Сети доверия
- •Динамические сети доверия
- •Теория демфера-Шемфера (фрейм различия, базовая вероятность)
- •Теория дш (функция доверия, мера правдоподобия)
- •Теор дш отличие от классической теории вероятности
- •Комбинации функций доверия
- •Два подхода к обучению интеллектуальных систем (с учит, без учит)
- •Геометрический подход распознавания образов
- •Настоящий нейрон
- •Искусственный нейрон
- •Виды передаточных функций
- •Перцептрон Розенблата
- •Алгоритм обучения перцептрона Розенблата
- •Многослойный перцептрон Розенблата, архитектура, емкость сети
- •Нейронная сеть с обратным распростронение ошибки многослойного перцептрона..Проблема обучения
- •Рекур. Нейронные сети
- •[Править]Перцептроны Розенблатта с обратной связью
- •[Править]Однослойные сети с обратной связью
- •[Править]Рекуррентные сети с единичной задержкой
- •Сеть Хопфилда
- •Сеть Хемминга
Настоящий нейрон
Дендриты и аксон
Аксон — обычно длинный отросток, приспособленный для проведения возбуждения и информации от тела нейрона или от нейрона к исполнительному органу. Дендриты — как правило, короткие и сильно разветвлённые отростки, служащие главным местом образования влияющих на нейрон возбуждающих и тормозных синапсов
Синапс
Си́напс — место контакта между двумя нейронами или между нейроном и получающей сигналэффекторной клеткой. Служит для передачи нервного импульса между двумя клетками, причём в ходе синаптической передачи амплитуда и частота сигнала могут регулироваться.
Искусственный нейрон
Синапс может усилять и ослаблять сигнал. Входные сигналы синоптические веса, т.е. на входе Х1*W1 (т.е. взвешанный Х)
Если Х не нужен, то W=0
b-свободный коэффициент (какой –то сдвиг отличный от 0) От того как будут соединины нейроны зависит архитектора нейронной сети
синоптический вес-Сеть приобретает знания в процессе обучения, а для сохранения знаний использует значения коэффициентов межнейронных связей, называемых синаптическими весами.
Виды передаточных функций
От вида зависит свойства НС
1. Линейная функция активации с насыщением
2. Пороговая функция активации
1,S0
F(S)= 0,S<0
Используют в Н.С., где алгоритм н-р обратного распространения, т.к. функция не дефференц.
3. Сигмоидальная функция (самая распростроненная)
(S)=1/(1+e(-*s))
-параметр кривизны. Если к 0, то сигмоида выражается в прямую =0,5, если стремится к ∞, то близко к пороговой.
Производная функции (S)=-1/(1+e(-*s))*e-s*(-)
Достоинства: Слабые сигналы усиливаются сильно. Это позволяет избежать пресыщения от сильных сигналов.
4) Гиперболический тангенс
ЧИУС th(S)=eS-e-S/ eS+e-S
Отличается от сигмоиды только областью допустимых значений (-1;1), поскольку связана след. соотношением th (/2S)=(S)-1
Перцептрон Розенблата
+1,S>=0
Y=F(S)= -1,S<0
+1, xA
Если y= -1, xB
Один нейрон может создавать только 2 решающих области
+1, xA
d= -1, xB
d-указания учителя
н-р: исходная выборка
Х1 |
Х2 |
d |
-1 |
14 |
1 |
5 |
5 |
-1 |
Уравнение двумерной гиперплоскости x1*w1+x2*W2-b=0
X2==b-x1*w1/w2
Если х2>=-W1/W2+b/W2, значит хА
Если гиперплоскость олномерная, то это точка и х1 –левее /правее, х2 –выше/ниже
Фрэнк Разенблатт (1958 г.) ввел понятие персептрона – модели нейронных сетей. Разенблатт ввел возможность модификации межнейронных связей. Это сделало нейронную сеть обучаемой. Алгоритм обучения персептрона:
Системе предъявляется эталонный образ;
Если результат распознавания совпадает с заданным, то весовые коэффициенты не изменяются;
Если нейронная сеть неправильно распознает результат, то весовым коэффициентам дается приращение в сторону повышения качества распознавания. Персептрон имеет ограниченные возможности, поскольку не всегда существует такая комбинация весовых коэффициентов, при которой заданное множество образов будет распознаваться правильно. Причина в том, что однослойный персептрон реализует линейную разделенную поверхность пространства эталона, вследствие чего может происходить неверное распознавание.