Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Otvety_na_voprosy_KAKIE_NADO.docx
Скачиваний:
4
Добавлен:
01.03.2025
Размер:
452.36 Кб
Скачать

Алгоритм обучения «победитель забирает все»

Задача кластеризации подразумевает решение следующих подзадач:

  1. Множество объектов задаётся своими атрибутами.

  2. Объекты разбиваются на группы или кластеры по принципу подобия.

  3. Система кластеров образует систему классов или понятий.

Формирование системы классов является задачей кластеризации и успешно решается НС особого вида – ассоциативными картами Т. Кохонена.

Задача кластеризации решается алгоритмом «без учителя» «победитель забирает всё».

Кластерами называют группы объектов, объединённые по степени похожести.

Задача кластеризации в нейронных сетях строится следующим образом: для каждого объекта, признаки которого подаются на вход, осуществляется сравнение с вектором весов, в результате определяется нейрон, веса которого максимально похожи на данный вход. Такой нейрон объявляется победителем, его веса корректируются, а в результате разные нейроны настраиваются на разные группы входных векторов. В результате входные данные распределяются между нейронами в соответствии с мерой похожести.

Рассмотрим однослойную нейронную сеть. Пусть необходимо выделить m кластеров. Решая задачу кластеризации, используют нормализованные вектора, т.е.

Wi = Wi / ||W||.

Затем расстояния между векторами ||X - Wi|| сравниваются и ищется минимальное. Найденный минимальный выход объявляется победителем. Обозначим его Wr. В дальнейшем модифицируются только веса нейрона-победителя:

Wr = Wr + || X-Wr||,

Wr = Wr / || Wr||, а веса остальных нейронов остаются постоянными:

Wi = Wi, oi = 0, i 0.

Таким образом, входные данные сортируются по классам с помощью меры похожести, в качестве которой выступает расстояние между векторами:

Wr = Wr + || X-Wr ||.

Финалом работы алгоритма «победитель забирает все» является набор векторов, каждый из которых указывает на центр гравитации кластера.

  1. Дельта-правило в машинном обучении

Дельта-правило – метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки.

Алгоритм обучения нейронных сетей по дельта-правилам является итерационным, т.е. результат достигается за несколько прогонов, итераций алгоритма. Каждый прогон называют эпохой.

Условие окончания алгоритма – либо достижение качества решения, либо выполнение заданного количества эпох.

Дельтой в алгоритме называют коэффициент приращения весов, который для однослойной сети представляет собой разницу между желаемым значением выхода и вычисленным.

Рассмотрим алгоритм обучения НС. Структура обучающей выборки:

X = (X1, X2, …, Xn), O = (O1, O2, … , Om)

Пусть для обучения нам представлена выборка

XK, YK, K = 1, …, K, O {1, 0}

  1. Введём k = 1; k – номер образца.

  2. Случайным образом инициализируем матрицу весов Wij; E = 0, где E – ошибка.

  3. Начнём обучение (на модели), для чего посчитаем все выходы (для любого Oi)

  1. Рассчитаем разницу между текущим и желаемым значениями выходов, т.е. вычислим δ (Yi – Oi), для каждого i. Yi – желаемый выход, Oi – полученный выход.

  2. Изменим веса по правилу для каждого Wi, Yi., где – некоторый уровень обучения, шаг изменения.

  3. Вычислим накопленную по всем эпохам ошибку , выберем следующий образец из обучающей выборки k = k + 1.

  4. Проанализируем текущий результат. Если k ≥ K, то следует учесть ошибку. Если значение ошибки E меньше заданного уровня ξ, то достигнуто окончание обучения. Если накопленная ошибка больше ξ, то установим k = 1, E = 0 и вернёмся к шагу 3, т.е. продолжим обучение.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]