Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
nkt_v_rts.doc
Скачиваний:
18
Добавлен:
08.12.2018
Размер:
504.32 Кб
Скачать

Алгоритм нейронного газа

В этом алгоритме адаптация весов выполняется по той же формуле: Wk+1i=Wki+nuki*Gk(i,Xk)*(Xk-Wki).

В каждом цикле обучения все нейроны сортируются в последовательности возрастания расстояния d(Xk, Wi)

d0<d1<...<dj<...<dM-1. где j=m(i) - номер i-ого нейрона в последовательности. Для нейрона-победителя m(i)=0.

Значение ф-ции соседства i-ого нейрона Gk(i,Xk) определяется следующим выражением: Gk(i,Xk)=exp(-m(i)/sk),

где sk определяет уровень соседства и является величиной, уменьшающейся по ходу обучения. При sk, стремящемся к 0, алгоритм превращается в алгоритм WTA.

Для достижения хороших результатов самоорганизации сети обучение должно начинаться с большого значения sk, которое с течением времени обучения уменьшается до 0. Для такого уменьшения sk предлагается использовать выражение sk=smax*(smin/smax)k/kmax, ,где kmax - максимальное заданное количество циклов обучения.

Коэффициент обучения nuki тоже может уменьшаться с течением времени обучения, это уменьшение может быть линейным от numax в первом цикле до numin в цикле kmax, так и показательно в соответствии с формулой

nuk=numax*(numin/numax)k/kmax.

50:Методы редукции нейронной сети

Существует два способа сокращения (редукции) описания:

редукция "снизу вверх" - постепенное удаление параметров от наименее значимых к более значимым;

редукция "сверху вниз" - выделение наиболее значимых параметров и постепенное дополнение их менее значимыми.

Способ редукции "снизу вверх":

определяются наименее значимые параметры и устраняются вместе с соответствующими элементами системы;

оставшиеся параметры модифицируются так, чтобы наилучшим способом решить задачу;

циклически повторять пп. 1-2 до тех пор, пока задача не будет решаться с удовлетворительной точностью.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]