Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции по СИИ1.doc
Скачиваний:
62
Добавлен:
02.05.2014
Размер:
925.18 Кб
Скачать

Определение искусственной нейронной сети.

Определение:

Искусственная нейронная сеть – множество нейронов соединенных между собой т.о., что: 1) ряд нейронов отмечены, как входные, а некоторые другие как выходные, 2) активационные функции считаются неизменными в работе сети, а веса являются параметрами сети и корректируются.

Смысл работы НС заключается в преобразовании некоторого входного вектора Х в выходной Y требуемый. Причем преобразования регулируется путем корректировки весов.

Модели нс.

1. Однослойный персептрон Розенблата

2. Многослойный персептрон

Ujk – выходные сигналы k-го слоя.

Понятие обучения.

Под обучением понимается целенаправленное изменение (подстройка) весовых коэффициентов синаптических связей НС из условий достижения требуемых характеристик сети, т.е. желаемая реакция на входные воздействия.

Базовый принцип обучения – это минимизация эмпирической ошибки между желаемым выходом сети и фактической реакцией сети.

Процедура обучения.

1. Создание обучающих выборок (задачник)

Ω = {<x1, D1>, < x2, D2>, …, < xR, DR>}

x – вектор входов;

D – вектор эталонов (желаемых выходов).

2. Осуществляется выбор очередной пары из задачника (xi, Di).

3. Подается xi на вход нейросети.

4. Вычисляется разница между желаемым и фактическим выходом сети:

ε = Di - Yiфакт

5. Производится корректировка Δωijk = f(ε) c тем чтобы ε минимизировать.

6. Шаги 2 – 5 повторяются многократно до тех пор, пока ошибка ε не станет равна некоторой допустимой величине ошибки. В этом случае сеть называется натренированной, и теперь обученная сеть имеет возможность дать правильный ответ при подаче на вход нового вектора х, которого не было ранее в обучающей выборке. Эта способность соответствует свойству обобщения НС.

Лекция 7.

Схема, иллюстрирующая процесс обучения нейросети:

Алгоритм обратного распространения ошибки.

(error back propagation algorithm)

Процедура реализации:

  1. выбор пары из обучающей выборки

  2. подача X на вход сети Y

  3. считаем ошибку в виде суммарной средней квадратичной ошибки (1)

Этот алгоритм реализуется для многослойного персептрона

  1. E

Решаем задачу оптимизации(через градиентный спуск)

  1. E=f(y(S()))

Где количество нейроновk-го слоя

  1. определим ………….для выходного слоя

Классы задач, решаемых нейросетями:

  1. Задача распознавания образов (задача классификации)

  2. Задача кластеризации

Примечание: в нейросетевом базисе используется для сжатия данных, анализа данных, поиска закономерностей

  1. Аппроксимация функций

Постановка задачи:

Формируется набор экспериментальных данных.

Требуется найти функцию, аппроксимирующую некоторую неизвестную функцию и удовлетворяющую некоторым критериям

  1. Предсказание(прогнозирование)

Дается временной ряд:

Требуется предсказать значение у в момент времени ()

  1. Оптимизация

Применяется в задачах, поиск решений в которых очень большой

Тут вы можете оставить комментарий к выбранному абзацу или сообщить об ошибке.

Оставленные комментарии видны всем.