Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Доклад Перелыгин.doc
Скачиваний:
2
Добавлен:
23.11.2018
Размер:
218.11 Кб
Скачать

2. Архитектура вероятностной нейронной сети

Задачей входного слоя является распределение данных входного образца для слоя образцов. В данном случае каждый входной набор данных имеет четыре признака. Слой образцов имеет по одному элементу для каждого образца из набора учебных данных. Входной слой и слой образцов образуют полносвязную структуру. Для входящих в элемент слоя образцов связей весовые значения устанавливаются равными элементам соответствующего вектора-образца. Например, для первого элемента слоя образцов значение его первого входящего веса будет установлено равным значению первого элемента первого вектора-образца, значение второго входящего веса — второму элементу вектора и т.д. Активность элемента слоя образцов будет равна:

где х - обозначает неизвестный входной образец. В этом выражении используется квадрат евклидового расстояния от неизвестного экземпляра до элемента слоя образцов.

Рис. 4. Пример архитектуры сети PNN

Слой суммирования имеет по одному элементу для каждого класса из учебного множества данных. К любому элементу слоя суммирования идут связи только от элементов слоя образцов, принадлежащих соответствующему классу. Весовые значения связей, идущих от элементов слоя образцов к элементам слоя суммирования, фиксируются равными 1. Элемент слоя суммирования просто суммирует выходные значения элементов слоя образцов. Эта сумма дает оценку значения функции плотности распределения вероятностей для совокупности экземпляров соответствующего класса. Выходной элемент представляет собой дискриминатор пороговой величины, указывающий элемент слоя суммирования с максимальным значением активности (т.е. указывает класс, к которому принадлежит неизвестный экземпляр).

Для сети PNN не требуется обучения в том смысле, какое требуется для сетей с обратным распространением ошибок, так как все параметры сети PNN (число элементов и значения весов) определяются непосредственно учебными данными.

Процедура для использования сети PNN является относительно простой, Архитектура сети определяется структурой учебных данных:

-число входных элементов равно числу признаков;

-число элементов слоя образцов равно числу учебных образцов;

-число элементов слоя суммирования равно числу классов.

Первый слой весовых значений определяется учебными образцами.

Для второго слоя все значения устанавливаются равными единице. Весовые значения конечного слоя устанавливаются так, чтобы на выходе распознавался элемент слоя суммирования с наибольшим значением активности. Для элементов слоя образцов необходимо выбрать подходящую функцию активности. Как правило, используется ядро Гаусса в виде, показанном в выражении вначале. Значение q задает ширину функции активности. Значение q оказывается очень важным, поэтому чаще всего оно подбирается в результате эксперимента.

После того как сеть построена, неизвестный экземпляр можно подать на вход сети, и в результате прямого прохода через сеть выходной слой укажет класс, к которому, вероятнее всего, принадлежит образец.

Данное здесь представление сети PNN требует вычисления евклидового расстояния от неизвестного экземпляра до всех учебных образцов. Если все входные векторы имеют единичную длину, то функция активности для элемента слоя образцов может быть представлена в форме, содержащей более удобную для использования сумму произведений:

Сети PNN могут быть более сложными. Например, для каждого входного признака можно использовать разные значения q. Таким образом, оказывается возможным в значительной степени контролировать форму классификационной поверхности, соответствующей учебным образцам.

Сети PNN очень удобно использовать для классификации. Они быстро обучаются, допускают наличие ошибочных данных и обеспечивают полезные результаты даже на малых наборах учебных данных. Но сети PNN оказываются весьма требовательными в отношении ресурсов. Решение некоторых проблем требует сотен и даже тысяч учебных образцов, в результате чего классификация каждого неизвестного экземпляра потребует немало времени. Однако необходимо помнить, что если сеть реализована в виде аппаратных средств, то вычисления чаще всего выполняются параллельно.

Сеть PNN не является столь общей, как некоторые другие нейронные сети. Так, в своей базовой форме сеть PNN ограничивается задачами классификации, в отличие от многослойной сети с прямой связью и обратным распространением ошибок, которая может моделировать отображение общего вида. Тем не менее, классификация требуется во многих задачах, а классификацию сети PNN выполняют очень хорошо.