Скачиваний:
64
Добавлен:
01.05.2014
Размер:
777.73 Кб
Скачать

18

Лекция №3 Непараметрическое (независящее от распределения) обучение дискриминантных функций

3.1. Пространство весов

Мы уже обсуждали тот факт, что вектор образа X представляется как точка в пространстве образов и что пространство может быть разбито на подобласти для образов, принадлежащих различным категориям. Решающая поверхность, которая делит пространство может быть линейной, кусочно-линейной или нелинейной и может быть в общем виде представлена как:

где и

представляют собой образ и весовой вектор. Проблема обучения системы состоит в том, чтобы найти вектор W, показанный на рис.3.1 на основе априорной информации, полученной от обучающей выборки. Возможно и даже более удобно исследовать поведение обучающих алгоритмов в пространстве весов. Пространство весов есть (n+1) - размерности Эвклидова пространства, в котором координаты 1 2 ... n+1. Для каждого прототипа , k=1,2,...,M, m=1,2,...,Nk (где M представляет число категорий и Nk представляет собой число прототипов, принадлежащих к категории K, в пространстве W (пространство весов) имеется гиперплоскость, в которой

любой весовой вектор W на положительной стороне гиперплоскости дает wТz.. 0. Т.е., если прототип принадлежит категории 1, любой весовой вектор W на этой стороне гиперплоскости будет вероятно классифицировать . Аналогичные аргументы могут быть рассмотрены для любого весового вектора на другой стороне гиперплоскости, где wТz.. 0.

Возьмем 2-х классовую проблему для иллюстрации. Предположим, что мы имеем последовательность N1 образов, принадлежащих 1 с общим числом образов N = N1 + Nl. Предположим также, что 1 и 2 -два линейно разделяемых класса. Тогда может быть найден вектор  , такой,что:

и

где . и представляют собой категории 1 и 2 соответственно.

В общем, для N образов имеется N гиперплоскостей в весовом пространстве. Область решения для категории 1 в W - пространстве это область, которая лежит на положительной стороне N1 гиперплоскостей для категории 1 и на отрицательной для N2 гиперплоскостей для категории 2. Предположим, что мы имеем три прототипа Z1, Z2, Z3 и знаем, что все они принадлежат категории 1 . Три гиперплоскости могут быть нарисованы в W - пространстве, как показано на Рис.3.1а, заштрихованная область на Рис.3.1а показывает решающие области в двухклассовой проблеме. В этой области

и

Т.е. любое в этом районе будет вероятно классифицировать прототипы Z1, Z2, Z3 как принадлежащие 1 , в то время как поперечно заштрихованные области, показанные на рис.3в

d1

d2

но d3 любой  из этой области будет классифицировать Z1 и Z2 как принадлежащий категории 1 и классифицировать Z3 как относящийся к категории 2 .

К ак обсуждалось в части 2 решающая поверхность для двухклассовой задачи предполагает, что d(w,x) будет больше 0 для всех образов из одного класса и меньше 0 для образов, принадлежащих к другому классу. Но если все заменить на их отрицательные значения - , то решающая поверхность может быть обобщена как часть  пространства, в котором:

Tz0 = -

наша проблема становится в нахождении , которое обеспечивает положительность всех неравенств.

Иногда может быть желательно иметь ограничение (порог) в дискриминантной функции, такой что:

, (3.6)

где T0 ограничение (порог). Любой , удовлетворяющий неравенству (3.6) является весовым вектором решения. Решающая область теперь изменяется так, как показано на рис.3.2.

В заштрихованной области: оба и - положительные, в то время как отметим, что вдоль исходной гиперплоскости образа

, (3.7)

и что вектор Z (расширенный Z) является перпендикулярным к гиперплоскости и направлен в ее положительную сторону. Тогда линия отстоит от на расстояние . Доказательство этого оставим читателю.

Соседние файлы в папке lecture3