Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
НЛиНСебашил гай.docx
Скачиваний:
8
Добавлен:
03.09.2019
Размер:
193.54 Кб
Скачать

Распознавание образов

Для решения задачи распознавания образов, с применение НС необходимо ее сначала обучить, подавая последовательность входных образов, примеров, наряду с категориями, которым эти образы принадлежать. С помощью информации выделено из обучающих данных НС сможет отнести представленный образ к конкретному классу. Можно разделит на два типа:

1. Первый НС – система состоит из 2 частей, сети извлечения признаков, без учителя, и сети классификации, с учителем.

Эту операцию можно трактовать, как операцию снижения размерности, т.е. снижение размеров. Это упрощает задачу классификации. Сама классификация описывается преобразованием, которая отображает промежуточную точку y в один из классов q мерного пространства решений, где q – количество классов.

Второй тип НС.

Система проектируется как единая многослойная сеть прямого распространения, которая использует один из алгоритмов обучения с учителем. В этом случаи задача извлечения признаков выполняется нейронная скрытого слоя сети.

Кодирование на выходе НС.

Чаще всего рассматривается двоичная классификация. Задача двоисной классификации может быть решена с применение НС с одним выходным элементом который может находтся в состоини 0 или 1. Для решения такой задачи необходимо разработать записи выхода, т.е. кодирование выхода. Рассмотрим два способа кодирования, их суть заключается в:

Первый способ состоит в кодировании q классов с помощью q мерных наборов приписывая i-той компоненте значение 1 если исследуемый пример принадлежит i-тому классу, и 0 в противном случаи. Этот способ называется Бабушкиным кодированием.

При другом способе кодирования задача разбивается на q-1 от задач, содержащих только по два класса. Выходы подзадач подается на вход булевой функции которая осуществляет окончательному присваивание i номера класса. В этом случаи число выходных элементов растет как q2 . Называется (2-на-2 кодирования).

Действия при построении классификатора.

При построении классификатора необходимо выделить следующие этапы:

1. Данные

А) Составить базу данных из примеров для решения поставленной задачи

Б) Разбить всю совокупность данных на два множества.

2. Предварительная обработка.

А)Выбрать признаки характерные для данной задачи и преоброзавать данные с помощью нормировки или стандартизации. В результате желательно линейно-отделимое множество примеров.

Б)Выбрать систему кодирования выходного значения или значений,

3. Построение обучение и оценка качества нейронной сети.

А)Выбрать архитектуру и топологию сети, количество слоев, структуру связей,

Б)выбрать функцию активации

В) Выбрать подходящий алгоритм обучения НС

Г) Оценить качество работы НС. В зависимости от ее сложности в целях оптимизации архитектуры.

Д) Остановить на варианте НС с наилучшей способностью обобщению, оценить качество ее работы по тестовому множеству.

4. Применение и диагностика.

А) Выяснить степень влияния различных факторов на принятие решения.

Б) Убедится что доля случаев не правильной классификации достаточно мала.

В) При необходимости вернуть к шагу 2 изменив способ представления данных.

Г) Приступить к практическому использованию НС.

Кластеризация и поиск зависимости

Разбиение на несколько частей, кластеров, количество не ограниченно. Разбивка исходного набора на кластеры, называется кластерным решением, она позволяет представить не однородные данные в более наглядном виде и применять данные для исследования каждого кластера различные методы, например таким образом можно быстро выявить недобросовестные предприятия. Разделения должно удовлетворять следующим требованиям:

1. Каждый пример входит только в одну группу.

2. Примеры одного кластера похожу друг на друга.

3. Примеры из разных групп имеют заметные различия.

Лекция №9 02.04.2012

Практическим приложением построением диаграммы направленности является, например, системы радаров. Здесь задача сводится к отслеживанию цели. В условиях помех и интерференции, т.е. наложении сигналов друг на друга. При этом задача усложняется тем, что полезный сигнал формируется в не известном направление и не существует априорной информации о наложении сигналов в результате интерференции.

Ассоциативная память

Это распределенная память которая обучается на основе ассоциаций подобно мозгу живых существ. Ассоциативная память или память адресуемая по содержимому, доступная по указанию заданного содержимого. Содержимое памяти может быть вызвано даже по частичному ходу или искаженному образу, вектору. Существует два типа ассоциативной памяти

1. Авто-ассоциативная

2.Гетеро-ассициативная

При решении задача авто-ассиоцивной памяти в Нс запоминаются передаваемые в ней образы, затем в эту сеть последовательно подаются не полное описание или зашумленное представление, хранимых в памяти исходных образов. Отличие гетеро-ассоциативной памяти от гетеро-фссоциативной, в том что в производном наборов входных образов, ставится в соответствие другой произвольный набор сигналов. Настройка НС которые предназначены для решения задач авто-ассоциативной памяти, происходит пктем обучения без учителя. В НС гетеро-ассоциативной памяти применяется обучение с учителем.

Допустим, что вектор хk используемый для решения задачи ассоциативной памяти. А yk – запомненый образ. Отношение ассоции образов который образует Нс имеет вид: xk -> yk ; k = 1,2,3…Q где Q …

Yk = xk это значит что пространство входных и выходных данных сети должны иметь одинаковую размерность, в гетеро-ассоциативной памяти Yk != Xk т.е. размерности пространств могут отличатся и совпадать. Работа ассоциативной памяти состоит из 2 фаз:

1.Запоминания, которая соответствует процессу обучения процессу сети в соответствии с выражением 1.

2. Восстановления, во время которой происходит извлечение запомненного образа в ответ на представление в Нс зашумленной или скаженной версией ключа.

В идеальном случае имеем что отклик НС вектор Y=Yi где он запомненный образ ассоциированный с ключом Xi . Однако если входной стимул вектор x = xi и вектор y = yi то при востонавленнии образа делает ошибку. Количество образов которые хранятся в ассоциативной памяти являются непосредственно емкостью НС. Информационная емкость измеряется в % от N использованных НС. При проектировании ассоциативной памяти желательно увеличить ее емкость и убедится что большая часть заполненных образов восстанавливается корректно.

Одна из задач обучения которую можно решать с использованием Нс является в цправленни нектором процессом либо критической частью системы. Пусть динамеческая система, задана совокупостью, X(t) Y(t) где X(t) входное управляющее воздействие, а y(t) выход системы с момет времени t.

В данной системе единая обратная связь обхаватые все единую связь, т.е. выход связан всо сходом. По сколько выходной сигнал объекта является некоторой переменной для управления объектом нужно знать ее значение, а значит нужно измерять выходной сигнал объекта. Система которая используется для измерения физических величин называется датчиком ил сенсером. В предположении что передаточные функции сенсора равна единичной на рисунке 1 в цепи обратной связи. Выход объекта управления вычитается из эталонного сигнала, принимаемого из внешнего источника. Получанный сигнал ошибки е(t) подается на Нейро-контролер для настройки синоптических весов. Основная задача котролерра это подержание такого входного вектора х(t) для которого выходной сигнал y(t) соответствует эталонному сигналу d(t). Другими словами задача контролера инвертирование отображения вход-выход объекта отображения. Из рис(1) следует что сигнал ошибки е(t) прежде чем достигнет объекта управления распространяется через контролер. СЛЕДОВАТЕЛЬНО в соответвитсвии на основе обучения для настройки весовых коффицеентов нужно знать матрицу Якоби. Частные производные d(k) b dx(t) зависят от рабочей точки объекта управления и зависят, их можно оценить с помощью прямого или не прямого обучения. Таким образом что-то там свидетельствует об универсальности как систем обработки информации.