
- •1(1). Информация. Данные и знания.
- •2(1). Адекватность информации. Синтаксическая. Семантическая. Прагматическая.
- •4(1). Эволюция технологий анализа данных.
- •5(1). Терминология анализа данных. Понятие модели и моделирования.
- •7(1). Алгоритмы сжатия. Словарное кодирование.
- •Объем требуемой памяти
- •8(1). Статистика. Machine Learning.
- •10(1). Предпосылки возникновения хранилищ данных. Архитектуры.
- •11(1). Oltp и olap системы.
- •12(1). Детализированные и агрегированные данные.
- •13(1). Сравнение схем хд. Звезда и снежинка.
- •14(1). Назначение etl системы.
- •15(1). Очистка данных. Назначение. Классификация проблем в «грязных» данных.
- •16(1). Обогащение данных. Назначение.
- •17(1). Трансформация данных. Назначение.
- •18(1). Цели квантования, выбор числа интервалов квантования, методы квантования.
- •19(1). Основные методы нормализации.
- •20(1). Нормализация с помощью поэлементных преобразований.
- •21(1). Кодирование категориальных данных.
- •22(2). Преобразование даты и времени, группировка и разгруппировка данных.
- •1.(2)Генетический алгоритм. Назначение. Плюсы и минусы
- •2.(2)Генетический алгоритм. Кодирование хромосом
- •3.(2)Генетический алгоритм. Алгоритмы скрещивания и мутации
- •4.(2) Генетический алгоритм. Стратегии. Элитизм. Островная модель
- •5.(2)Нечеткая логика. Фазификация и дефазификация.
- •Принцип построения алгоритма нечеткого вывода.
- •6.(2)Нечеткая логика. Нечеткий логический вывод.
- •8.(2)Регрессия. Назначение и применение
- •11.(2)Ассоциативные правила. Назначение и применение
- •13.(2)Модель нейрона. Сумматор. Функция активации
- •1 . Единичный скачок или жесткая пороговая функция
- •2 . Линейный порог или гистерезис
- •3. Сигмоидальная функция или сигмоид
- •14.(2)Нейронные сети. Многослойный персептрон (mlp).
- •Персептрон
- •15.(2)Нейронные сети. Карты Кохонена.
- •16.(2)Визуализация данных. Графики
- •График рассеивания
- •17.(2)Визуализация данных. Диаграммы.
- •18.(2)Визуализация данных. Гистограммы и статистика
- •20.(2)Визуализация данных. Диаграммы рассеяния
- •22.(2)Специализированые методы визуализации (в примерах).
13.(2)Модель нейрона. Сумматор. Функция активации
Модель нейрона
Нейрон представляет собой единицу обработки информации в нейронной сети. На рисунке приведена модель нейрона, лежащего в основе искусственных нейронных сетей.
В этой модели нейрона можно выделить три основных элемента:
синапсы, каждый из которых характеризуется своим весом или силой. Осуществляют связь между нейронами, умножают входной сигнал на весовой коэффициент синапса, характеризующий силу синаптической связи;
сумматор, аналог тела клетки нейрона. Выполняет сложение внешних входных сигналов или сигналов, поступающих по синаптическим связям от других нейронов. Определяет уровень возбуждения нейрона; (Сумматор — устройство, преобразующее информационные сигналы (аналоговые или цифровые) в сигнал, эквивалентный сумме этих сигналов.)
функция активации, определяет окончательный выходной уровень нейрона, с которым сигнал возбуждения (торможения) поступает на синапсы следующих нейронов.
Модель нейрон имитирует в первом приближении свойства биологического нейрона. На вход искусственного нейрона поступает некоторое множество сигналов, каждый из которых является выходом другого нейрона. Каждый вход умножается на соответствующий вес, пропорциональный синаптической силе, и все произведения суммируются, определяя уровень активации нейрона.
Функции активации в нейронных сетях
Функция
активации (активационная
функция, функция возбуждения) – функция,
вычисляющая выходной сигнал искусственного
нейрона. В качестве аргумента принимает
сигнал
,
получаемый на выходе входного сумматора
.
Наиболее часто используются следующие
функции активации.
1 . Единичный скачок или жесткая пороговая функция
Простая кусочно-линейная функция. Если входное значение меньше порогового, то значение функции активации равно минимальному допустимому, иначе – максимально допустимому.
2 . Линейный порог или гистерезис
Несложная кусочно-линейная функция. Имеет два линейных участка, где функция активации тождественно равна минимально допустимому и максимально допустимому значению и есть участок, на котором функция строго монотонно возрастает.
3. Сигмоидальная функция или сигмоид
М
онотонно
возрастающая всюду дифференцируемая
-образная
нелинейная функция с насыщением. Сигмоид
позволяет усиливать слабые сигналы и
не насыщаться от сильных сигналов.
С
лабые
сигналы нуждаются в большом сетевом
усилении, чтобы дать пригодный к
использованию выходной сигнал. Однако
усилительные каскады с большими
коэффициентами усиления могут привести
к насыщению выхода шумами усилителей,
которые присутствуют в любой физически
реализованной сети. Сильные входные
сигналы в свою очередь также будут
приводить к насыщению усилительных
каскадов, исключая возможность полезного
использования выхода. Каким образом
одна и та же сеть может обрабатывать
как слабые, так и сильные сигналы?
Примером сигмоидальной функции активации может служить логистическая функция, задаваемая следующим выражением:
где
–
параметр наклона сигмоидальной функции
активации. Изменяя этот параметр, можно
построить функции с различной крутизной.
Еще одним примером сигмоидальной функции активации является гиперболический тангенс, задаваемая следующим выражением:
где – это также параметр, влияющий на наклон сигмоидальной функции.
В заключение отметим, что функции активации типа единичного скачка и линейного порога встречаются очень редко и, как правило, используются на учебных примерах. В практических задач почти всегда применяется сигмоидальная функция активации.