Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Цифровая обработка сигналов (сборник книг) / Дронов С.В. Многомерный статистическийц анализ, 2003

.pdf
Скачиваний:
112
Добавлен:
05.03.2016
Размер:
958.12 Кб
Скачать

14.1. Вводные замечания

181

Åñëè äëÿ (i; j); i; j = 1; :::; K выполнены все свойства, кроме (14.3),

то можно поступить следующим образом. Введем в рассмотрение

c = max( (k; j)

 

(k; i)

 

(i; j)):

k;i;j

 

 

 

 

 

После этого полагаем

 

 

 

 

 

 

 

 

0 ;

åñëè i

 

j,

 

 

Di;j = (i; j) + c,

иначе,

=

 

 

i; j = 1; :::; K:

Лемма 8 Åñëè (i; j); i; j = 1; :::; K удовлетворяли (14.1 14.2), то Di;j будут удовлетворять (14.1 14.3).

Доказательство. Заметим сначала, что если вдруг оказалось, что c 0, то это означает, что для произвольного набора индексов s; i; j выполнено

s;j s;i i;j 0;

что совпадает с неравенством треугольника (14.3), а значит все наши выкладки будут излишни. Но, на самом деле, c всегда неотрицательно.

Действительно, возьмем такой набор индексов, в котором s = i. Тогда, в силу того, что (14.1) выполнено, то s;s = 0 è

 

 

c s;j s;s s;j

= 0:

 

 

 

Поэтому

 

и (14.1) выполнено для введенных

Di;j

 

ПустьDi;j i;j 0

 

 

 

.

 

теперь удалось найти такой набор индексов

 

 

неравенство треугольника нарушается, т.е.

 

s; i; j, для которого

 

 

 

 

 

 

Ds;j > Ds;i + Di;j;

 

 

 

что по определению означает, что

 

 

 

 

 

 

s;j > s;i + i;j + c;

 

 

 

или (для того же набора индексов), что

 

 

 

 

 

 

s;j s;i i;j >

c;

 

 

 

что входит в противоречие с определением c. Лемма доказана.

Другой вариант построения матриц различий возникает тогда, когда каждый из объектов задается некоторым набором своих числовых характеристик, признаков, т.е. объекты заданы таблицей

182

 

Глава 14.

Многомерное шкалирование

Данные для построения матрицы различий

 

 

 

Признаки

 

Объекты

1 ...

p

 

 

 

 

 

 

1.

 

v1;1 ....

v1;p

KvK;1 ... vK;p

Признаки vi;j, сопутствующие i-му объекту могут иметь самое разное содержание, но именно по их значениям мы и должны судить о сходстве и различии объектов. При этом (по крайней мере, сейчас) мы пред-

полагаем, что все имеющиеся у нас p признаков одинаково важны для формирования различий и сходств объектов. Тогда можно определить

Di;j

=

v

p

(vi;s

 

vj;s)2

; i; j = 1; :::; K:

 

 

us=1

 

 

 

 

 

uX

 

 

 

 

 

 

t

 

 

 

 

При таком определении все требуемые свойства будут выполнены. Иногда для придания большего "равноправия"признакам их центри-

руют и нормируют. Матрицу признаков будем называть стандартизованной по столбцам, если среднее значение элементов каждого столбца равно 0, а среднеквадратическое отклонение равно 1. Стандартизация по столбцам проводится обычным методом достаточно от элементов

j-го столбца отнять его среднее v

ское отклонение этого столбца :;j и разделить на среднеквадратиче-

S

и стандартизацию матрицы признаков:;j. В точностипострокамтак.Соответствующиеже можно провестиха-

рактеристики обозначим vi;: è Si;:.

14.2Модель Торгерсона

Итак, предположим, что построена матрица различий D, удовлетворяющая свойствам (14.1 14.3). В модели, предложенной классиком теории многомерного шкалирования У.С.Торгерсоном, принимается предполо-

жение о том, что возможно по этой матрице построить точки x ; :::; x в пространстве некоторого относительно небольшого числа измерений1 K

q

таким образом, чтобы

Di;j

=

v

q

(xi;s

 

xj;s)2

; i; j = 1; :::; K:

(14.4)

 

 

us=1

 

 

 

 

 

 

uX

 

 

 

 

 

 

 

t

 

 

 

 

 

14.2.

 

Модель Торгерсона

 

183

Здесь

xi;j

 

j

-я координата точки

xi

 

äëÿ

 

 

 

. В модели предполагается также, что

 

каждого

 

s = 1; :::; q среднее значение соответствующих координат строящихся точек равно 0:

K

X

xi;s = 0:

i=1

Для работы алгоритма Торгерсона, который позволит нам по матрице различий определить конкретные числовые значения координат, предварительно необходимо перейти от матрицы различий к новой вспомога- тельной матрице с двойным центрированием, т.е. организовать некое

преобразование, в результате которого у построенной окажется, что

среднее значение элементов каждой строки и каждого столбца равно ну-

лю. Предлагается следующая формула для элементов строящейся ма-

трицы:

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

i;j

 

(Di;j2

Di;:2 D:;j2

+ D:;:2 );

 

 

=

 

i; j = 1; :::; K:

(14.5)

2

Здесь Di;:2 ; D:;j2 ; D:;:2

средние квадратов i-й строки, j-го столбца и всех

элементов матрицы D соответственно, т.е.

 

 

 

 

 

1

 

 

K

 

1

 

K

 

 

 

Di;:2 =

 

 

 

Di;j2 ; D:;j2 =

 

 

Di;j2 ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

Xi

 

 

 

 

 

 

K j=1

 

K =1

 

 

 

 

 

 

 

 

 

 

1 K

 

K

 

 

 

 

 

 

 

D:;:2

=

 

Xi

Di;j:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

K2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=1 j=1

 

 

 

Лемма 9 Матрица , элементы которой определены в (14.5), явля-

ется матрицей с двойным центрированием.

Доказательство этой леммы практически очевидно. Вычислим, например, среднее по ее i-й строке.

K

i;j

= 2

0Di;:2

K KDi;:2

K

 

D:;j2 + D:;:2

1

:

1

K

1

 

1

 

1

K

 

 

 

 

X

 

 

 

@

 

 

 

 

 

jX

 

A

 

 

j=1

 

 

 

 

 

 

 

 

 

=1

 

 

 

Для того, чтобы закончить доказательство, достаточно лишь отметить,

÷òî

1

K

 

 

 

D:;j2 = D:;:2

 

K

 

=1

 

 

jX

и понять, что рассуждение, проводимое по столбцам, дословно повторяет только что проведенное.

184 Глава 14. Многомерное шкалирование

Теорема 21 Если элементы матрицы D удовлетворяют (14.4) и эле- менты матрицы построены по формулам (14.5), то

q

 

i;j = xi;sxj;s; i; j = 1; :::; K;

 

s=1

 

X

 

или, в матричной записи,

 

= XXt:

(14.6)

Это и есть теорема Торгерсона, на которой основан его ставший класси- ческим алгоритм многомерного шкалирования.

Доказательство. Очевидно, что без потери общности и без нарушения (14.4) можно считать, что значения xi;j центрированы, т.е.

K

X

xi;j = 0; j = 1; :::; q:

i=1

Из (14.4) немедленно получаем, что

q

q

q

(14.7)

Di;j2 =

xi;s2 +

xj;s2 2 xi;sxj;s:

X

sX

X

 

s=1

=1

s=1

 

Вычислим теперь средние по j от обеих частей последнего равенства:

q

xi;s2

 

1 K q

xj;s2

2

K q

Di;:2 =

+ K

 

K

xi;sxj;s:

X

 

 

 

jX X

 

 

 

X X

s=1

 

 

 

=1 s=1

 

 

 

j=1 s=1

Заметим, что последнее слагаемое здесь равно 0 в силу условий центрированности, т.к. может быть переписано в виде

 

 

q

0

1

 

2

K

 

 

 

 

X

@jX

A

 

K s=1 xi;s

=1 xj;s

 

= 0:

Таким образом, мы получаем

 

q

 

 

q

 

 

 

 

Di;:2 = xi;s2

+

 

sX

x:;s2 ; i = 1; :::; K;

(14.8)

 

X

 

 

 

 

ãäå

s=1

 

=1

 

 

 

 

1

 

 

K

 

 

x:;s2

 

 

 

 

 

=

 

 

 

 

xj;s:

 

 

 

 

 

 

 

 

 

 

K

jX

 

 

 

 

 

=1

 

14.2. Модель Торгерсона

185

Теперь получим аналогичное выражение для

D:;j. Действуя в точности

так же, но производя усреднение (14.7) по

i, получим

 

 

 

 

q

 

 

 

q

 

 

 

 

 

 

 

 

 

D:;j2

=

x:;s2

+

xj;s2

;

j = 1; :::; K:

(14.9)

 

 

 

sX

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

=1

 

 

 

s=1

 

 

 

 

 

 

 

Наконец, усредняя обе части (14.7) одновременно по i; j, получим

D:;: =

1 K

q

+

1

K

q

 

2

2

K

K

q

K

 

xi;s2

K

 

xj;s2

K

 

 

xi;sxj;s:

 

 

X X

 

 

 

X X

 

 

 

 

Xi

X X

 

 

i=1 s=1

 

 

 

j=1 s=1

 

 

 

 

=1 j=1 s=1

Последняя тройная сумма в этой формуле, как и в двух предыдущих случаях, равна нулю в силу центрированности координат. Поэтому

q

D:;: = 2 X x2:;s: (14.10)

s=1

Подставим теперь (14.7), (14.8), (14.9) и (14.10) в (14.5). Получим после простого приведения подобных

i;j = 2

q

! ;

2 xi;sxj;s

1

sX

 

 

 

 

=1

 

что и заканчивает доказательство теоремы.

Таким образом, для того, чтобы решить задачу многомерного шкалирования, достаточно найти решение матричного уравнения (14.6), и

найденная матрица X, содержащая K строк и q столбцов в своих стро-

ках содержит наборы координат точек в q-мерном пространстве, которые нужно сопоставить изучаемым объектам.

14.2.1Стресс-критерий

Алгоритм Торгерсона, который будет описан ниже, ставит своей задачей поиск таких точек, изображающих наши объекты, для которых геометрическая структура данных наименее искажена в смысле максимизации следующего критерия оптимальности:

Kq(X) =

v

 

 

i=1

K

K

2

:

(14.11)

 

uP

K

P

K

(D

Di;j)2

 

 

 

j=1 i;j

Di;j

 

 

 

u

 

i=1

j=1

 

 

 

 

 

t

 

P

 

P

 

 

 

 

186
Здесь ты в

Глава 14. Многомерное шкалирование

Di;j расстояния между точками, изображающими наши объек-

q-мерном пространстве (строками матрицы X) , à D

расстояния между точками-объектами. Понимать все это легчеi;j истинныевсего на

примере ситуации, когда исходная информация задается таблицей (см. конец предыдущего раздела), а значит, наши объекты изначально ото-

бражаются точками в p-мерном пространстве, p > q. Если же входная

информация задана в другом виде, то "истинные"значения D ступны измерению, но, организуя некий итеративный процесс,i;jшагнедоза-

шагом осуществляющий построение лучшей геометрической конфигура-

ции, мы можем по формуле (14.11) отслеживать изменения, происходя-

щие при смене итераций.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Критерий оптимальности (14.11) принято называть стресс-критери-

ем. Он предложен Дж.Краскалом. В некоторых исследованиях можно

встретить разновидность стресс-критерия, задаваемую формулой

Kq(X)0 =

v

iK

 

 

K

 

 

 

 

2 ;

 

uP

K

P

K

(D

 

Di;j)2

 

=1

j=1

 

(Di;j

 

D:;:)

 

 

 

u

 

 

i=1 j=1

 

 

 

 

 

ãäå

t P

P

 

 

 

 

 

 

 

 

 

 

 

 

1

 

K

 

 

K

 

 

 

 

 

 

 

 

 

 

 

 

Xi

X

 

 

 

 

D:;:

=

K2

 

=1 j=1 Di;j

 

 

 

среднее арифметическое оцениваемых расстояний. Эту формулу, следуя [14], мы будем называть "стресс, формула 2".

14.3Алгоритм Торгерсона

В этом разделе приведен алгоритм многомерного шкалирования. На входе этого алгоритма матрица различий = ( i;j). Если вместо раз-

личий на начальном этапе мы имели коэффициенты корреляции ri;j =(X(i); X(j)), то можно положить

q

i;j = 1 ri;j; i; j = 1; :::; K:

Пусть также методом двойного центрирования, описанным выше, мы по матрице вычислили матрицу скалярных произведений и извлекли

èç íåå q главных компонент xi;j; j = 1; :::; q; i = 1; :::; K: Зададимся также

малым числом ", которое будет представлять собой требуемую точность вычислений.

. Åñëè äëÿ каких-нибудь ïàð

14.3. Алгоритм Торгерсона

187

Øàã 1. Положим c = 0; x^i;j(c)

= xi;j; i;j(c) = i;j; St = 0: Число c íî-

мер "прохода"алгоритма, число St текущее значение стресс-критерия.

Ê øàãó 2.

(Нормирование). Вычислим

 

 

 

 

 

 

 

 

 

Øàã 2

 

 

 

 

 

 

 

 

 

 

 

v

 

 

 

 

 

 

 

v

 

 

 

 

 

 

d^i;j(c) =

 

 

 

 

 

; Q

 

=

K 1

 

K

(d^i;j(c))2;

 

q

x^i;s(c)

 

x^j;s(c) 2

 

 

 

 

us=1

 

 

 

 

 

 

 

u

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u i=1 j=i+1

 

 

 

 

uX

 

 

 

 

 

 

 

u X X

 

 

 

 

t

 

 

 

 

 

 

 

t

 

 

 

 

 

 

 

(c)

 

^(c)

=Q;

(c)

 

(c)

=Q;

i; j = 1; :::; K;

 

di;j

= di;j

xi;j

= x^i;j

 

 

S(c)

=

v

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i;j

 

di;j

 

:

 

 

 

 

 

 

 

u

K 1 K

 

(c)

 

(c)

 

2

 

 

 

 

 

 

 

 

u X X

 

 

 

 

 

 

 

 

 

 

 

u

 

 

 

 

 

 

 

 

 

 

 

 

t

i=1 j=i+1

Ê øàãó 3.

Шаг 3. (Достигнута ли нужная точность?) Если c > 0 и jS(c) Stj < " , то конец алгоритма. Иначе полагаем St = S(c) и переходим к шагу 4.

Шаг 4. (Упорядочивание). Положим l = 1. Фактически этот шаг выполняется лишь при c = 0. Алгоритм устроен так, что при остальных c наши данные окажутся упорядоченными автоматически. Поэтому если c > 0, то можно сразу перейти к шагу 5. Упорядочим пары (i; j) по возрастанию различий i;j

i;j(c) = pt(c) è d(i;jc) < d(p;tc);

òî ïàðà (i; j) должна предшествовать (p; t). Если же равны и различия,

и расстояния то порядок2 пар произвольный. Результатом работы этого

шага будет таблица извторомстрокразличияи трех столбцов,элементовв этойпервомпарыиз внихпорядкебудет

обозначение пары, во

CK

возрастания, в третьем расстояния между ними. Последние располагаются по возрастанию, вообще говоря, только в случае равных различий. Работа алгоритма будет продолжаться до тех пор, пока и столбец расстояний не окажется упорядоченным по возрастанию. При этом некоторые из расстояний придется изменить. Номер "прохода"алгоритма по сфор-

мированной сейчас таблице и есть число l. Ê øàãó 5.

Øàã 5. Если соседние в таблице числа d(c)

объединяем соответствующие им пары индексовi;j имеютв блокравные.Есливеличины,равных

расстояний нет каждую пару объявляем самостоятельным блоком. К шагу 6.

188

Глава 14. Многомерное шкалирование

Øàã 6. Подсчитаем число блоков. Пусть их m(l), è k-му блоку соответствует расстояние d(k) , k = 1; :::; m(l) (напомним, что в пределах

одного блока расстояния равны между собой). Положим k = 1. Ê øàãó 7.

Øàã 7. Сравниваем k-é è (k + 1)-й блоки. Если d(k) < d(k + 1), то к шагу 8. Иначе сливаем два этих блока в один, присваиваем ему номер

k + 1 и для него определяем

d(k + 1) = 12(d(k) + d(k + 1)):

Ê øàãó 8.

Øàã 8. Полагаем k = k + 1. Åñëè k < m(l), то к шагу 7 (продолжаем спуск по таблице), иначе к шагу 9.

Øàã 9. Если на шаге 7 происходило слияние каких-либо блоков, то

l = l + 1 и к шагу 6, иначе к шагу 10.

Øàã 10. (Новые координаты). Пересчитаем

i;j(c+1) =

d(k) ïðè (i; j) â k м блоке;

k = 1; :::; m(l);

x^i;j

= xi;j

K

=1

01

d(c)

1

(xi;k

xj;k)

(c+1)

(c)

1

K

 

i;k(c+1)

 

(c)

(c)

 

 

 

kX @

i;k

A

 

 

при всех значениях i; j = 1; :::; K: Åñëè d(c) = 0, то соответствующее слагаемое в последнюю сумму не включаем,i;kили, что то же самое, полагаем

это слагаемое равным 0. Увеличиваем c: c = c + 1. Ê øàãó 2.

По окончании работы алгоритма числа x(i;jc), i; j = 1; :::; K и есть наилучшие оценки координат изображающих изучаемые объекты в q-

мерном пространстве с заданной точностью ". Шаг 10 называют метри- ческим этапом алгоритма. Формулы пересчета координат, приводимые там, выписаны из условия уменьшения величины стресса, формула 1, самым радикальным образом. Вывод этих формул мы не приводим, но отметим, что при изменении критерия оптимальности нужно в описанном алгоритме заменить только эти формулы. Шаги с 3 по 9 принято называть неметрическим этапом алгоритма Торгерсона, и существуют варианты этого этапа, отличные от описанного.

X; W (s); s = 1; :::; M

14.4. Индивидуальные различия

189

14.4Методы шкалирования индивидуальных различий

Предположим, что у нас имеются M экспертов, высказывающих свои

отношения о различиях между K различными объектами. Конечно же, можно свести мнения экспертов к одному усредненному мнению и решать задачу многомерного шкалирования для такой ситуации, как мы уже делали выше. Но иногда требуется также наглядно изобразить отли- чия во мнениях каждого из опрашиваемых экспертов вместе с некоторым "объективным"или средним мнением. В этом случае говорят о шкалировании индивидуальных различий (ШИР).

Предположим, что для каждого из(sэкспертов) имеется такая диагональная матрица W (s) с элементами wt ; t = 1; :::; K по диагонали, что

индивидуальная матрица координат отображаемых объектов, X(s), ñî- держащая K строк и q столбцов, вычисляется по формуле

X(s) = W (s)X; s = 1; :::; M:

(14.12)

Здесь матрица X матрица "объективных"координат K точек в q-мерном пространстве, отображающих среднее мнение всей группы экспертов в целом. Диагональный элемент wt(s) матрицы W (s) представляет собой тот

вес, который s-й эксперт приписывает t-й координате. Эти элементы называют весами важности. При увеличении wt(s) различие между i-ì è j-м объектами по t-й координате вносит все больший вклад в общую оцен-

ку различия этих объектов с точки зрения s-го эксперта. Тем самым, в рамках этой модели мы сводим различия во мнениях экспертов лишь к различным оценкам вкладов координат в общую близость объектов.

По заданным матрицам различий объектов для каждого из экспертов(s); s = 1; ::; M требуется восстановить матрицу "объективных"координат

X и матрицы весов важности W (s); s = 1; :::; M, по крайней мере, полу- чить их удовлетворительные оценки. Естественно, что при этом индивидуальные матрицы координат X(s); s = 1; :::; M находятся по формуле

(14.12), что позволяет изобразить положения всех объектов в q-мерном пространстве по мнению каждого из экспертов (например, точками разных цветов) и рассмотреть положения этих индивидуально шкалированных точек по отношению к "объективным"точкам, построенным по ма-

трице X.

Процесс нахождения называют подгонкой взве-

190

Глава 14. Многомерное шкалирование

шенной евклидовой модели. Такое название эта модель получила потому,

что в роли расстояния между i-ì è j-м объектами с точки зрения s-го эксперта выступает

v u q

(s) = uX w(s)(x x )2; i; j = 1; :::; K; s = 1; :::; M; t

i;j k i;k j;k

k=1

т.е. к обычному евклидову расстоянию навешиваются веса важности на каждую из координат.

÷èéПриведем. схему алгоритма шкалирования индивидуальных разли-

На входе алгоритма у нас есть матрицы скалярных произведений(s), s = 1; :::; M для каждого эксперта, полученные из индивидуаль-

ных матриц различий методом двойного центрирования, " малое число,

определяющее точность вычислений, q размерность пространства изображений.

Øàã 0. Положим p = 0 (номер текущей итерации). К шагу 1.

Øàã 1. Вычислим

1

M

 

=

 

(s)

M

 

 

=1

 

 

sX

среднюю матрицу скалярных произведений. Пусть i;j(p) элементы этой матрицы. Выделим из нее при помощи одного из алгоритмов предыду-

щего раздела матрицу X(p) очередное приближение матрицы "объек-

тивных"координат изображений объектов. В этой матрице k строк и q столбцов. К шагу 2.

Øàã 2. Строим матрицу A(p), состоящую из M строк и K2 столб- цов. Каждый столбец ее соответствует паре объектов, каждая строка

эксперту. На s-й ее строке в столбце, соответствующей паре (i; j) стоит

элемент i;j(s) матрицы (s), i; j = 1; :::; K; s = 1; :::; M.

Строим еще одну матрицу B(p), в которой q строк и K2 столбцов. Каждый столбец соответствует некоторой паре объектов, каждая строка

некоторой координате. На строке t в столбце, соответствующей паре (i; j) расположено число xi;t(p)xj;t(p) (произведение соответствующих

элементов матрицы X(p)), i; j = 1; :::; K; s = 1; :::; M.

Вычислим вспомогательную матрицу, элементы которой будут представлять собой квадраты оценок весов важности:

W 2(p) = (B(p)Bt(p)) 1B(p)At(p):