Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЭКСПЕРТНЫЕ СИСТЕМЫ ОТВЕТЫ НА ВОПРОСЫ!!!!.docx
Скачиваний:
33
Добавлен:
26.09.2019
Размер:
429.39 Кб
Скачать
  1. Настоящий нейрон

Дендриты и аксон

Аксон — обычно длинный отросток, приспособленный для проведения возбуждения и информации от тела нейрона или от нейрона к исполнительному органу. Дендриты — как правило, короткие и сильно разветвлённые отростки, служащие главным местом образования влияющих на нейрон возбуждающих и тормозных синапсов

Синапс

Си́напс — место контакта между двумя нейронами или между нейроном и получающей сигналэффекторной клеткой. Служит для передачи нервного импульса между двумя клетками, причём в ходе синаптической передачи амплитуда и частота сигнала могут регулироваться.

  1. Искусственный нейрон

Синапс может усилять и ослаблять сигнал. Входные сигналы синоптические веса, т.е. на входе Х1*W1 (т.е. взвешанный Х)

Если Х не нужен, то W=0

b-свободный коэффициент (какой –то сдвиг отличный от 0) От того как будут соединины нейроны зависит архитектора нейронной сети

синоптический вес-Сеть приобретает знания в процессе обучения, а для сохранения знаний использует значения коэффициентов межнейронных связей, называемых синаптическими весами.

  1. Виды передаточных функций

От вида зависит свойства НС

1. Линейная функция активации с насыщением

2. Пороговая функция активации

1,S0

F(S)= 0,S<0

Используют в Н.С., где алгоритм н-р обратного распространения, т.к. функция не дефференц.

3. Сигмоидальная функция (самая распростроненная)

(S)=1/(1+e(-*s))

-параметр кривизны. Если  к 0, то сигмоида выражается в прямую =0,5, если  стремится к ∞, то близко к пороговой.

Производная функции (S)=-1/(1+e(-*s))*e-s*(-)

Достоинства: Слабые сигналы усиливаются сильно. Это позволяет избежать пресыщения от сильных сигналов.

4) Гиперболический тангенс

ЧИУС th(S)=eS-e-S/ eS+e-S

Отличается от сигмоиды только областью допустимых значений (-1;1), поскольку связана след. соотношением th (/2S)=(S)-1

  1. Перцептрон Розенблата

+1,S>=0

Y=F(S)= -1,S<0

+1, xA

Если y= -1, xB

Один нейрон может создавать только 2 решающих области

+1, xA

d= -1, xB

d-указания учителя

н-р: исходная выборка

Х1

Х2

d

-1

14

1

5

5

-1

Уравнение двумерной гиперплоскости x1*w1+x2*W2-b=0

X2==b-x1*w1/w2

Если х2>=-W1/W2+b/W2, значит хА

Если гиперплоскость олномерная, то это точка и х1 –левее /правее, х2 –выше/ниже

Фрэнк Разенблатт (1958 г.) ввел понятие персептрона – модели нейронных сетей. Разенблатт ввел возможность модификации межнейронных связей. Это сделало нейронную сеть обучаемой. Алгоритм обучения персептрона:

  1. Системе предъявляется эталонный образ;

  2. Если результат распознавания совпадает с заданным, то весовые коэффициенты не изменяются;

  3. Если нейронная сеть неправильно распознает результат, то весовым коэффициентам дается приращение в сторону повышения качества распознавания. Персептрон имеет ограниченные возможности, поскольку не всегда существует такая комбинация весовых коэффициентов, при которой заданное множество образов будет распознаваться правильно. Причина в том, что однослойный персептрон реализует линейную разделенную поверхность пространства эталона, вследствие чего может происходить неверное распознавание.