Скачиваний:
46
Добавлен:
01.05.2014
Размер:
389.12 Кб
Скачать

Краткий обзор дискриминантного анализа.

Задача классификации состоит в отнесении некоторого элемента выборки w к одной из k групп W1, W2, ... , Wk на основе измерения р параметров х1,..., хр.

Классификация в случае многомерных нормальных выборок с известными параметрами.

Стандартная процедура классификации для случая р непрерывных переменных предполагает, что наблюдения принадлежат одной из двух групп, имеющих многомерные нормальные распределения. Наблюдения х1, х2 ,..., xp записываются в виде вектора

X = ( x1, ... , xp ) T

и предполагается, что W1 имеет распределение:

,

W2 - распределение:

Другое предположение состоит в том, что

i=1,..p ; j=1..p

Итак, вектор X имеет распределение:

или

Параметры m1 , m2 , e вначале будут считаться заданными. Найдем линейную комбинацию наблюдений, называемую дискриминантной функцией, имеющую вид:

z=a1*x1 + ... + ap*xp , (1)

где a1 , ... , ap - некоторые постоянные, и отнести X к W1, если z>=c и к W2 , если z<c ,

где с - постоянная.

Тогда задача будет сведена к определению значений a1 , ... , ap и с , минимизирующих вероятность ошибочной классификации.

Если наблюдение X поступило из W1 , то величина z имеет нормальное распределение со средним

и дисперсией

Аналогично для X из W2 величина z имеет нормальное распределение со средним

и с той же дисперсией. Имеет смысл выбрать такие a1 , ... , ap , при которых V1 , V2 были бы как можно больше удалены друг от друга относительно sz2 . Для этого введем расстояние Махаланобиса

Эта величина была предложена в работе Mahalanobis(1936) для измерения “расстояния” между двумя группами. Таким образом требуется найти коэффициенты a1 , ... , ap , максимизирующие D2 . В работе Fisher(1936) показано, что такие ai служат решением системы линейных уравнений

a1*s11 + a2*s12 + ... + ap*s1p = m1 1 - m21

a1*s21 + a2*s22 + ... + ap*s2p= m1 2 - m22

...

a1*sp1 + a2*sp2 + ... + ap*spp= m1 p - m2p

После подстановки полученных ai в (1) каждому объекту ставится в соответствие значение дискриминантной функции z.

Для определения постоянной с следует рассмотреть вероятности ошибок Pr(1|2) и Pr(2|1). Естественно искать такую постоянную с , чтобы сумма вероятностей Pr(1|2)+Pr(2|1) была минимальной. Это можно достигнуть выбором постоянной с , равноудаленой от средних,

т. е.

Приведем теперь более строгое решение задачи классификации, основанное на теореме Байеса. Определим вначале априорную вероятность qi как вероятность того, что элемент выборки принадлежит к группе Wi, i=1,2. Сумма априорных вероятностей q1+q2 равна 1.

Определим далее условную вероятность Pr(x|Wi) получения некоторого вектора наблюдений X , если известно, что объект принадлежит группе Wi. Обозначим также через Pr(Wi|X) условную вероятность того, что объект принадлежит группе Wi при данном векторе наблюдений X. Эта величина называется апостериорной вероятностью.

Теорема Байеса. Равенство

справедливо для любого распределения величин X.

Если X имеет многомерное нормальное распределение

или

, то Pr(X|W1) и Pr(X|W2) можно заменить соответственно на плотности распределений f1(X) и f2(X). В результате получим

i=1,2. (2)

Байесовская процедура классификации состоит в отнесении вектора наблюдений X к W1,если Pr(W1|X) >= Pr(W2|X) , и к W2 , если Pr(W1|X) < Pr(W2|X).

Подставляя в эти неравенства значения апостериорных вероятностей из (2) получаем,

что X относится к группе W1 , если

и к W2 , если

Такая процедура минимизирует ожидаемую вероятность ошибочной классификации

q1Pr(2|1)+q2Pr(1|2).

Заметим , что эта величина является вероятностью того , что объект , принадлежащий группе W1 , ошибочно классифицируется , как принадлежащий W2 , или наоборот объект из W2 ошибочно относится к W1.

Алгебраическими преобразованиями неравенства (3) можно показать , что байесовская процедура эквивалентна отнесению X к W1 , если

и к W2 , если

Постоянные ai являются решениями системы уравнений (1) , а V1 , V2 заданы выше.

Введем в байесовскую процедуру понятие стоимости ошибочной классификации . Для этого введем величину C(2|1) - стоимость потери из-за отнесения объекта из W1 к W2 . Аналогично, C(1|2) - стоимость потери из-за отнесения W2 к W1.

Обобщенная процедура классификации Байеса состоит в отнесении X к W1 , если

Соседние файлы в папке Дискриминантный анализ