Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Статистика и анализ геологических данных

..pdf
Скачиваний:
2
Добавлен:
12.11.2023
Размер:
21.12 Mб
Скачать

3.Два объекта можно объединить только в том случае, если они имеют наивысшее значение коэффициента корре­ ляции друг с другом.

4.После того как два объекта объединены в группу, их коэффициенты корреляции со всеми другими объектами усредняются.

Введение иных мер сходства приводит к очевидным модифи­ кациям этой схемы. Хотя меры могут быть разными, широко ис­ пользуются только две из них: коэффициент корреляции и рас­ стояние. Если провести стандартизацию исходных данных до вычисления коэффициента сходства, то коэффициент корреляции и расстояние просто преобразуются друг в друга. Вообще денд­ рограммы, построенные на основании этих двух мер, подобны друг другу. Однако в отличие от коэффициента корреляции рас­ стояние не обязательно принимает значение в пределах ±1, и поэтому оно может привести к более наглядным дендрограммам в тех случаях, когда несколько объектов сильно отличаются от других. В табл. 7.15 приведены как расстояния, так и коэффи­ циенты' корреляции для семи объектов, в данном случае для об­ разцов карбонатных минералов. В качестве переменных выбраны некоторые физические характеристики минералов. Дендро­ граммы, построенные для каждой матрицы сходства, изобра­ жены на фиг. 7.8. Хотя общие черты группирования очевидны, все же можно отметить два существенных различия. Наиболее очевидным из, них является замена В одной из центральных групп на D и перемещение В в более дальнюю позицию в иерар­ хической структуре. Полезно исследовать причины этого изме­ нения.

Т а б л и ц а 7.15

Меры сходства между семью объектами; над диагональю указаны расстояния (в скобках); под диагональю — коэффициенты корреляции

 

А

В

с

D

Е

F

О

А

 

(2,15)

(0,70)

0 ,0 7 )

(0,85)

(М б )

(1,56)'

В

- 0 ,9 3

 

(1,53)

( U 4 )

(1,38)

(1.01)

(2,83)

С

0,59

- 0 ,4 4

 

(0.43)

(0,21)

(0,55)

(1,86)

D

- 0 ,5 5

0,67

0,31

 

(0,29)

(0,22)

(2,04)

Е

0,26

0,02

0,85

0,63

 

(0,41)

(2,02)

F

-0 ,7 9

0,94

- 0 ,2 0

0,80

0,30

 

(2,05)

Q

0,37

- 0 ,6 4

- 0 ,3 8

-0 ,9 0

-0 ,7 9

- 0 ,8 2

 

Предположим, что мы измерили семь переменных на каждом из трех объектов. Ими могут быть, например, размеры трех ис­

копаемых

организмов

или

хими­

(,оо

 

 

 

 

 

 

 

 

ческие анализы трех пород. Если

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

нанести

 

каждое

измерение

на

0,50

 

 

 

 

 

 

 

 

график так, как это указано на

000-

 

 

 

 

 

 

 

 

фиг. 7.9, мы убедимся в том, что

 

 

 

 

 

 

 

 

соотношения

между

 

переменны­

-0,50 -

 

 

 

 

 

 

 

 

ми в двух объектах

 

сходны. Им

 

 

 

 

 

 

 

 

соответствуют

более

или менее

1,0 0 -

 

 

 

 

 

 

 

 

параллельные графики А и В на

 

 

 

 

 

 

 

 

 

диаграмме.

У

третьего

графи­

 

 

 

 

 

 

 

 

 

ка другой вид,

но

он значитель­

 

 

 

 

 

 

 

 

 

но ближе к графическому

пред­

 

 

 

 

 

 

 

 

 

ставлению

множества

измере­

 

 

 

 

 

 

 

 

 

ний, соответствующего одному из

 

 

 

 

 

 

 

 

 

двух

других

 

объектов.

 

В этом

 

 

 

 

 

 

 

 

 

примере А и В сильно коррели-

 

 

 

 

 

 

 

 

 

рованы,

т. е. имеют

высокие ли­

 

 

 

 

 

 

 

 

 

нейные

связи,

но

зато

расстоя­

 

 

 

 

 

 

 

 

 

ние

между В

и

С

минимально.

 

 

 

 

 

 

 

 

 

Если бы

в

качестве

перемен­

 

 

 

 

 

 

 

 

 

ных были выбраны размеры ис­

 

 

 

 

 

 

 

 

 

копаемых

организмов,

например

 

 

 

Фиг. 7.8.

 

 

 

раковин

брахиопод,

то

это

при­

а — д е н д р о гр а м м а , постр оен на я

по

м е ­

вело бы к выводу, что А и В име­

т о д у

гр у пп о во го

о бъ ед и н ен и я,

осн о в а н ­

ют близкую

форму, а В

и С —

ного

на

уср ед нен и и

коэф ф и ц и ентов

к орреляц и и .

И с х о д н а я

м а тр и ц а п риве ­

сходные размеры. Если

бы в ка­

д ена

в та б л .

7.15. К о ф енети чески й

к о ­

эф ф и ц и е н т

к о р р ел яц и и

равен 0,77.

б

честве

переменных

были выбра­

д е н д р о гр а м м а , постр оен на я

тем ж е

м е ­

ны процентные содержания тяже­

тод о м , но

осн ован на я

на

р ассто ян и и .

К о ф енети чески й

ко эф ф и ц и е нт

к о р р е л я ­

лых

металлов

в образцах

руды,

 

 

ции

равен

0,91.

 

 

 

 

 

 

 

 

 

 

 

 

то

мы

 

могли

бы

 

заключить,

 

 

 

 

 

 

 

 

 

что образцы А и В аналогичны по составу, но что А обладает пониженными содержаниями металлов в сравнении с В. Кон­ центрации металлов в В и С близки, но отношения их содер­ жаний различны.

Необходимо пояснить, что коэффициент корреляции указы­ вает на наибольшее .сходство в тех случаях, когда он имеет вы­ сокое положительное значение, в то время как расстояние ука­ зывает на наибольшее сходство в тех случаях, когда оно наи­ меньшее. Поэтому коэффициент корреляции выявит наличие связи при его высоких значениях, а расстояние — при низких.

Критерий объединения двух объектов в группу требует, чтобы оба они имели наибольшую корреляцию относительно друг друга. Возможны также и другие критерии. Так, напри­ мер, известен простой метод образования групп, называемый простым объединением, основанный на использовании наивыс­ шего коэффициента сходства между некоторым фиксированным

Фиг. 7.9. Графики переменных, измеренных на трех объектах.

Кривые А к В сильно коррелированы, но разделены большим расстоянием. Кривые В и С ■отрицательно коррелированы, но «близки» в смысле расстояния.

объектом и любым объектом группы. Результаты анализа групп этим методом по корреляционной матрице, приведенной в табл. 7.15, изображены на фиг. 7.10. Так как объекты вво­ дятся в группу на основании наивысшего значения коэффици­ ента корреляции с любым объектом, уже принадлежащим группе, то теснота связи в этом случае оказывается более вы­ сокой, чем в методах группового объединения. При этом, кроме сжатия дендрограммы, возникают и другие отличия. Так, на­ пример, группа СЕ прямо соединена с группой BFD в силу на­ личия высокой корреляции между Е и D. Если корреляции с С и Е усреднить, то наивысшей будет корреляция между СЕ и А.

Простое объединение прямо приводит нас к окончательной характеристике, среднему арифметическому мер сходства объ­ ектов, которые уже определены по группам. При использова­ нии этого метода образования групп никакого усреднения со­ всем не делается. Методы, проиллюстрированные на фиг. 7.8, а и б и в предыдущем примере (см. фиг. 7.6), называются мето­ дами взвешивания, хотя на самом деле их следовало бы назвать равным взвешиванием. На фиг. 7.8, а С и Е соединены в начале образования групп. Корреляции новой группы СЕ находятся комбинированием строк и столбцов С и Е и делением каждого из элемента на 2. Далее в группу вводится объект А, и коэф­ фициент корреляции новой группы АСЕ находится комбиниро­ ванием строк и столбцов группы СЕ со строками и столбцами А и делением их на 2. Иными словами, СЕ считается единст­ венным объектом, в то время как на самом деле он состоит

из двух объектов. Новый объект А имеет двойное влияние на коэффициент корреляции группы АСЕ, так же как Е или С. Объекты, присоединенные к группе позже, имеют большее влия­ ние на матрицу сходства, чем объекты, присоединенные ранее. Методы усреднения без учета весов стремятся избежать этого, приписывая в процессе усреднения каждой группе веса, про­ порциональные числу объектов в ней. Например, образовав7 группу СЕ, мы можем затем присоединить к ней объект А с целью образования новой группы АСЕ. Однако меры сход­ ства этой новой группы находятся в результате суммирования коэффициентов корреляции А со всеми элементами, исключая С и Е, коэффициентов корреляции С со всеми элементами, ис­ ключая А и Е, а также коэффициентов корреляции Е со всеми элементами, исключая А и С. Таким образом, мы должны сло­ жить коэффициенты корреляции всех исходных элементов в группе, а затем каждая сумма делится на 3. Эта процедура позволяет каждому объекту группы одинаково влиять на харак­

теристики

сходства всей группы. Такой метод по сравнению

с обычными

методами взвешивания имеет противоположное

свойство: объекты, позже введенные в группу, почти не оказы­ вают влияния на меры сходства внутри нее. На фиг. 7.11 по данным табл. 7.15 приведена дендрограмма, построенная на ос­ нове метода невзвещенного усреднения.

Столкнувшись с таким множеством методов, каждый из ко­ торых дает несколько отличающийся от других результат, ис­ следователь вправе спросить о том, какой из них лучше. К со­ жалению, на этот важный вопрос нет четкого ответа. Опыт по­ казывает, что методы взвешенного группового объединения обычно дают результаты лучше, чем любой из методов простого объединения или невзвешенного усреднения. Относительное пре­ восходство первых определяется тенденцией к получению наи­ большего значения кофенетического коэффициента корреляции,

Фиг. 7.10. Дендрограмма корреляционной матрицы, приведенной в табл. 7.15.

Группы построены по методу простой связи. Кофенетическнй коэффициент корреляции равен 0,71.

Фиг. 7.11. Дендрограмма корреляционной матрицы, приведенной в табл. 7.15.

Группы построены на основании метода невзвешенного усреднения. Кофенетический ко­ эффициент корреляции'равен 0,72.

который трактуется как индикатор малых изменений в дендро­ грамме. Значения кофенетических коэффициентов корреляции, меньшие 0,8, могут указывать на столь сильные изменения в дендрограмме для слабых связей, что диаграмма оказывается ошибочной. В анализе групп матрицы расстояний обычно ис­ пользуются с большим успехом, чем матрицы коэффициентов корреляции, так как дают более высокую кофенетическую кор­ реляцию. По-видимому, матрицы расстояний также менее чув­ ствительны к замене метода при анализе групп. Однако недо­ статок состоит в том, что они ограничивают использование ка­ ких-либо статистических методов. (Для других методов анализа групп имеются некоторые теоретические обоснования; см., на­ пример, Свицер [27].) Большинство исследователей, использую­ щих методы анализа групп, применяют различные меры сход­ ства и процедуры построения групп, а затем выбирают те из них, которые дают наиболее удовлетворительные результаты

сPROGRAM 7 .6

с

сCLUSTER ANALYSIS

с

с

THE PROGRAM ACCEPTS

AN N BY M DATA MATRIX WHERE N

IS

THE NUMBER

с

OF OBSERVATIONS AND M IS THE NUMBER OF VARIABLES.

IF

THE FIRST

с

OPTION ON THE CONTROL CARD IS

I ,

AN M BY M MATRIX OF

SIM ILARITIES

с

BETWEEN COLUMNS

IS

COMPUTED.

IF THE OPTION IS 2 ,

AN N BY N

с

MATRIX OF SIM ILARITIES

BETWEEN ROWS IS COMPUTED.

IF

THE OPTION

с

IS 3 , AN M BY M SIMILARITY

MATRIX

IS ACCEPTED AS

INPUT. IF

с

OPTION TWO

IS

I ,

THE CORRELATION

COEFFICIENT WILL

BE

USED IN THE

с

SIMILARITY.MATRIX.

IF THIS OPTION IS 2 , THE DISTANCE COEFFICIENT

с

WILL BE USED.

THE

PROGRAM LOOPS BACK AND RESTARTS AFTER

с

COMPLETION.

TO

EXIT,

READ IN

A CONTROL CARD AFTER YOUR DATA

с

AND SET TO ZERO.

 

 

 

 

 

 

 

 

с

 

 

 

 

 

 

 

 

 

 

 

с

FORMAT OF CONTROL CARD

 

 

 

 

 

 

с

 

 

 

 

 

 

 

 

 

 

 

с

COL.

1-3

0 *

END OF

JOB

 

 

 

 

с

 

 

1 =

INPUT A

DATA MATRIX

 

 

с

 

 

2

»

INPUT A DATA MATRIX AND TRANSPOSE IT

с

 

 

3

=

INPUT A

SIMILARITY MATRIX

 

 

с

 

 

 

 

 

 

 

 

 

 

 

с

COL.

4 -6

I

=

CORRELATION

MATRIX

 

 

с

 

 

2

=

DISTANCE MATRIX

 

 

о о о о о

S U B R O U T I N E S R E Q U IR E D A R E R EAD M , P R I N T M , R C O E F , D I S T , W PGQ, AND D E N D R O .

D I M E N S I O N X ( 5 0 , 5 0 ) , I P A I R ( 2 , 5 0 ) , X L E V ( 5 0 ) , A ( 5 0 , 5 0 )

MD - 5 0

ND = 5 0

M M =50

О О О

. . .

R E A D

C O N T R O L CA R D

1

READ

( 5 , 1 0 0 0 ) I T Y P E , I S I M

I F ( I T Y P E . L E . 0 ) C A L L E X I T

О О О

. . .

I N P U T S I M I L A R I T Y M A T R I X

I F ( I T Y P E . N E . 3 ) G O T O 2 C A L L R E A D M ( A , N , M , M M , M M ) GO T O 4

О О О

. . .

R E A D AND P R I N T I N P U T D A T A M A T R I X

2C A L L R E A D M ( X , N , M , N D , M D ) C A L L P R I N T M ( X , N , M , N D , M D ) W R I T E ( 6 , 2 0 0 1 )

О О О

. . .

1 1 0

T R A N S P O S E D A T A M A T R I X ( I F R E Q U I R E D )

I F ( I T Y P E . N E . 2 ) GO T O 3

M T*M

I F ( N . G T . M ) M T - N

DO

1 1 0

I « 1

, M T

DO

И 0

J - I

. M T

X S = * X ( I , J )

X ( I , J ) - X ( J , I )

X ( J , I ) - X S

C O N T I N U E

MT -M

M*N

N- M T

О О О

. . . C A L C U L A T E S I M I L A R I T Y M A T R I X

3 I F

( I S I M

. E Q . I ) C A L L

R C O E F ( X , N , M , N D , M D , A , M M )

I F

( I S I M

. E Q . 2 ) C A L L

D I S T ( X , N , M , N D , M D , A , M M )

О О О

. . .

P R I N T S I M I L A R I T Y M A T R IX *

4C A L L P R I N T M ( A , M , M , M M , M M ) W R I T E . ( 6 , 2 0 0 2 )

О О О

. . .

C A L C U L A T E AN D P R I N T L I N K A G E T A B L E

C A L L W P G A ( A , M , M M f I P A I R . X L E V , I S I M )

О О О

. . .

P R I N T DENDROGRAM

 

C A L L D E N D R O ( I P A I R , X L E V , M , M M , I S I M )

 

GO T O

I

 

 

1 0 0 0

F O R M A T - ( 2 1 3 )

 

 

2 001

F O R M A T

( I H 0 . 4 X , ' I N P U T

D A T A

M A T R I X - ' , . 1 X ,

I

'C O L U M N S - V A R I A B L E S .

ROWS

- O B S E R V A T I O N S ' ) .

2 0 0 2

FO R M A T ( 1 Н О , 4 X , ' S I M I L A R I T Y M A T R I X ' )

 

END

 

 

 

Программа 7.6. CLUSTR

32 З а к а з № 455

для их данных. Это вносит некоторую степень субъективизма в процедуры, цель которых — выявить объективно действующие закономерности, однако кофенетическая корреляция позволяет управлять этим процессом. Ценность анализа групп состоит в том, что он дает возможность относительно просто классифи­ цировать объекты, а результаты этой классификации предста­ вить в понятной и легко доступной форме.

Хотя анализ групп для небольшого массива исходных дан­ ных осуществляется сравнительно просто, он становится все более сложным по мере увеличения объема данных. Естест­ венно, что в этих случаях графические процедуры при построе­ нии дендрограмм также становятся очень сложными. Для облег­ чения этой процедуры мы написали программу CLUSTR (программа 7.6), которая на основании матрицы сходства осуще-

СPROGRAM 7 .7

СSUBROUTINE TO PERFORM WEIGHTED PAIR-GROUP AVERAGE CLUSTERING.

C

SUBROUTINE WPGA(X,M,MI, IPAIR,XLEV,ISIM) -DIMENSION X(MI,MI),IPAIR(2,MI),XLEV(M1) DIMENSION II(IO O )f 12(100),XSIM(I 00)

C

C . . . INITIALIZE C

WRITE ( 6 t 2001) DO МО I - 1,M

I I ( I ) « I

110CONTINUE XXXX— 9.0E+35

IF (ISIM .NE. I) XXXX-+9.0E+35

M3^M-I

IC-0

C

C . . . FOR A CORRELATION MATRIX FIND LARGEST SIMILARITY IN

C

EACH

COLUMN.

 

 

 

 

C

FOR A

DISTANCE MATRIX FIND SMALLEST SIMILARITY IN EACH COLUMN

C

 

 

 

 

 

 

 

 

I DO 100 I-1,M

0)

GO

TO

100

 

IF

( I I ( I )

,LE .

 

IX-O

 

 

 

 

 

 

 

XX-XX XX

 

 

 

 

 

 

DO

101 J=I,M

GO

TO

101

 

 

IF

(I

.EQ.

J )

I 01

 

IF

(I

I ( J )

.LE .

0)

GO

TO

11

GO

TO

( 1 1 , 1 2 ) , ISIM

 

 

IF

(X (J,I) - X X )

101,101,13

12

IF

(X (J,I) - X X )

13,101,101

13X X -X(J,I) IX-J

101CONTINUE I2 (I) - IX

100

XSIM(I)«XX

CONTINUE

C

FOR A CORRELATION MATRIX FIND MUTUALLY HIGH PAIRS

C . . .

C

FOR A DISTANCE MATRIX FIND MUTUALLY LOW PAIRS

C

 

DO

102 I»I,M3

0)

GO

TO

102

IF

(11(1)

.LE.

J - I 2 ( I )

.LE.

0)

GO

TO

102

IF

( I K J )

c

IF

( J .LE .

I)

GO

ТО

102

14

IF

(I 1( J )

.EQ.

I)

GO

TO

IF

(ABS(XSIM(I)-XSIM(J))

.GT. 0.00001) GO TO 102

C . . . SAVE PARAMETERS FOR A CLUSTER C

14 IC-IC + I IPAIRCI, IC)=I IPAIR(2 f IC)=J XLEV(IC)»XSIM(I)

WRITE (6,2002) I.J.XSIMCI) I I ( I ) = J

I I ( J ) = 0

C

C . . . AVERAGE*THE TWO COLUMNS C

DO 103 K=1,M

Х(К,Г)=(Х(К,1 )+ X (K ,J) ) / 2 .0 103 CONTINUE

102 CONTINUE

C

C . . . AVERAGE ROWS THAT WERE CLUSTERED ON THIS ITERATION C

DO

105 1=1,М3

0)

GO

TO

105

IF

(I H I )

.LE.

IF

( I I ( I )

.EQ.

I)

GO

TO

105

J = I 1 ( I )

C

C . . . AVERAGE TWO ROWS IN THE NEW CLUSTER

C

DO

106 K=1,M

IF

( I K K ) .LE’. 0) GO TO 106

X (I,K )= (X (I,K )+ X (J,K ))/2 . 0

106 CONTINUE

11(I) =1

105CONTINUE

IF- (IC .LT. М3) GO TO 1 WRITE (6,2003)

2001

RETURN

(1H1)

FORMAT

2002

FORMAT

(6X ,2I5,F15 .5)

2003

FORMAT ( IНО,4X,'COLUMNS 1 AND 2

- ' , I X ,

1 'OBSERVATIONS COMBINED INTO CLUSTERS',/,

2

5X,'COLUMN 3 - SIMILARITY LEVEL

OF CLUSTERING')

 

END

 

Программа 7.7. Подпрограмма WPGA

ствляет анализ методом взвешенного группового объединения. В ней используются подпрограмма WPGA (программа 7.7), кото­ рая осуществляет анализ групп, подпрограмма DENPRO (про­ грамма 7.8), которая печатает дендрограмму, и подпрограммы для операций с матрицами, содержащиеся в предыдущих гла­ вах. Программа допускает некоторый произвол в выборе вво­ димых матриц исходных данных. Так, мы можем ввести матрицу данных порядка пХш и вычислить матрицу сходства порядка m Хш, или ввести данные в форме транспонированной матрицы порядка ш х п и вычислить матрицу сходства порядка шХгп, или сразу ввести предварительно вычисленную матрицу сход­ ства. Программа предусматривает вычисления как с корреля­ ционной матрицей, так и с расстоянием, рассматриваемым в ка-

32*

честве меры сходства. Матрицы коэффициентов корреляции вы­ числяются по программе RCOEF (программа 7.3), а матрицы расстояний — по подпрограмме DIST (программа 7.9). Большин­ ство наших массивов исходных данных, включая и приведенный ниже, размещается в гп столбцах, представляющих переменные, и п строках, соответствующих наблюдениям. Если наша цель, как обычно,— анализ групп наблюдений, то матрица исходных данных должны быть считана и транспонирована для того, чтобы программа позволила нам получить матрицу порядка п хп , ха­ рактеризующую сходство между наблюдениями. В вычислитель­ ных центрах обычно имеется множество программ анализа групп' различной сложности. Среди них можно назвать программы из Computer Contribution Series, NT-SYS — систему численной так­ сономии и BCTRY — систему, созданную Трайоном (Трайон и Бейли [29]). Информацию о них читатель может найти в при­ ложении.

Вкачестве упражнения в анализе групп мы используем

программу CLUSTR (программа 7.6) для исследования набора

Т а б л и ц а 7.16

Десять отношений, полученных по результатам измерения десяти видов кембрийских трилобитов, собранных в штате Юта а

Виды

X,

х 2

Х3

х4

Х5

х в

х 7

х .

X,

Х,о

AphelaspLs brachyptULsis 0,208

0,250 0,542 0,237 0,875 0,292

0,284

0,925

0,343

0,373

A. haguei

0,318

0,318

0,545

0,428

1 ,0 0 0

0,318

0,296

0,796

0,444

0,537

A.subaUtus

0,174

0,304

0,391

0,375

0,913

0,304

0,297

0,946

0,405

0,486

Mcanthopyde conuergens 0,259

0,370 0,370 0,859 0,852 0,333

0,500

0,591

0,591

0,818

U. quadrata.

0,250

0,350

0,500

0,615

0,900

0,351

0,434

0,783

0,478

0,652

D. reductus

0,316

0,421

0,474

0,736

1.158

0,421

0,500

0,675

0,500

0,775

Prehousia alata,

0,136

0,409

0,273

0,469

1 ,0 0 0

0,136

0,269

0,769

0,327

0,423

P. Lndenta,

0,192

0,308

0,259

0,628

0,923

0,154

0,308

0,795

0,308

0,436

P. prima*

0,261

0,261

0,261

0,545

0,956

0,261

0,296

0,833

0,333

0,407

A. Longispina

0,259

0,370

0,556

0,444

0,852

0,296

0,372

0,824

0,431

0,706

a C — длина

глабели; X 1 — длина краевого валика/С;

Х а - длина

края/С ;

Х 3

длина

глазной

крышки/С;

X , - ширина

глабели/С;

Х«1 — ширина

неподвижной

щеки/С;

Х 6 — длина главного

шипа/длина

свободной

щеки; D — ширина пигидия;

Х 7 — ширина оси пнгндия/D; Х 8 — ширина плевральной

оси/D; Х 9 — длина

оси

пигндия/D; Хю — длина пнгндия/D.

 

 

 

 

 

СPROGRAM 7.8

СSUBROUTINE ТО PRINT A DENDROGRAM

С

SUBROUTINE DENDRO(IPAIR,XLEV,M,MI, ISIM) DIMENSION IPAIR(2VMI) , XLEV(Ml) DIMENSION 11(100),12(100)

DIMENSION I0UT(6I) , XX<13)

DATA IBLNK,ICI, ICP,ICM/IH , IHI, 1 H 1Н-/

C

C . . . DETERMINE ORDER THAT BRANCHES HILL BE PRINTED IN C

M2*M-1

DO 100 1 *1 ,M

I l t n - 0 I 2 ( I ) - 0

100 CONTINUE

DO

101

1*1,М2

J * I - I

 

11 IF

( J .LE . 0) GO TO 12

IF

(IPAIR(1,I) .EQ. IPAIR(I, J ) ) GO TO 13

J - J - l

II

GO

TO

12 12(1)e1

GO TO 15 13 K *II(J>

IF (K .EQ. 0) GO TO 14 J-K

GO TO 13 14 I I ( J ) - I

15 DO 102 J - I , I

K - J

IF (IPAIR(2,I> .EQ. IPAIR(I, J )) GO TO 16

102CONTINUE GO TO 101

161 2 0 0 * 0 I I ( I ) *K

101 CONTINUE

C

C. . . FIND STARTING CLUSTER C

DO 103 1*1,М2 JS - I

IF (12(1) .NE. 0) GO TO 20 103 CONTINUE

CALL EXIT

20 NODE=IPAIR(I,JS)

C

C . . . FIND LARGEST AND SMALLEST SIMILARITY COEF. C

XMIN=XLEV(I)

XMAX*XMIN

DO 104 I=*I,M2

IF (XLEV(I) .LT. XMIN) XMIN-XLEV(I)

IF (XLEV(I) .GT. XMAX) XMAX-XLEV(I)

104CONTINUE DX*(XMAX-XMIN)/25.0 XMIN*XMIN-DX XMAX*XMAX+DX DX*(XMAX-XMIN)/6 0 .0

IF (ISIM .NE. 2) GO TO 21 DX— DX

XMIN-XMAX

C

C . . . BLANK OUT PRINT LINE ARRAY C

21 DO 105 1*1,61 IOUT( I)*IBLNK

105 CONTINUE

C

C...PRINT DENDROGRAM C

X*XMIN

DO 106 1-1,13 XX(I)-X X*X+DX*5.0

106 CONTINUE