Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Айвазян, С. А. Классификация многомерных наблюдений

.pdf
Скачиваний:
66
Добавлен:
20.10.2023
Размер:
8.58 Mб
Скачать

зок склоняет нас к тому, чтобы интерпретировать первый фактор у (1> как фактор общей одаренности, а второй фактор г/<2>как фактор гума­ нитарной одаренности.

В прямой постановке задачи классификации (т. е. при классифи­ кации обследованных учащихся) исследователь должен был бы, в пер­

вую очередь, определить, как эти два общие фактора г/(1>и г/<2)

выража­

ются через исходные признаки хП), х<2), ...,

х<6>; затем подсчитать зна­

чения (г/ѵІ), уі2)) (ѵ =

1, 2, .... 220) этих двух факторов для каждого из

обследованных учеников и,

наконец, нанести 220 точек (у ѵ{u, у ѵ{2)) на

плоскость

г/О) 0 у(2\

Расположение

«точек-учеников»

на плоскости

позволило бы исследователю полу­

 

 

 

 

 

чить

ряд

вспомогательных

сведений,

 

 

 

 

полезных при формулировке оконча­

 

 

 

у®

 

 

 

 

тельных выводов (наличие четко вы­

 

 

 

/

 

раженных

«сгущений

точек» •— клас­

0,5 -

/

 

сов,

их

число, их

интерпретация

 

 

и т. п.)1. Кстати метод Томсона (4.32)

 

/ т(з)

 

дает в качестве оценки общих факто­

 

/

*

*х(!)

 

ров выражения:

 

 

 

/

 

•х(г)

 

г/< 1) =

0,245x0 +

0,208х<2>+

 

/

 

1

Ю)

 

 

/

 

+

0,158х<3>+ 0,278x0+ 0,271х<5>+

 

К------

0.5

 

 

\

 

•т(б)

 

 

+

0,157х<6>,

yW = 0,352^Р) +

 

\

 

 

 

 

 

.х(5)

+

0,201х<2) +

0,309х<3>— 0,351х(4>—

 

\

\

•хі*)

-0,5

-

 

 

 

 

—0,303х<5>—0,126x0.

\

 

 

 

При обратной (двойственной) по­

 

 

 

^

у 0)

становке задачи, т. е. при классифи­

 

 

 

 

 

кации исследуемых

признаков хО),

Рис.

4.7. Изображение

исходных

х<2),

..., х<6>,

оказывается

полезной

следующая геометрическая интерпре­

признаков х<‘>,

... , х<6> в плоско­

сти двух общих факторов д(1>, у<2>

тация общих факторов и исходных

 

 

 

 

 

признаков. Рассмотрим рис. 4.7, на

 

 

 

 

а коорди­

котором осями координат являются общие факторы г/(1>и у<-2\

наты точек (у[\\ у™) = (qtl, qi2) определяются нагрузками /-го ис­ ходного признака на общие факторы (/ = 1, 2, ..., 6). Соответственно точку {ди, <7і2) удобно интерпретировать как изображение і-го исход­ ного признака х<(). Расположение точек на рис. 4.7 свидетельствует о естественном распадении совокупности исходных признаков на две группы: группу гуманитарных признаков (хС), х<2>, х<3)) и группу математических признаков (х<4>, х<5>, х<в>).

Кстати, подобная геометрическая интерпретация помогает вы­ брать вращение системы общих факторов, наиболее подходящее с точ­ ки зрения возможности их содержательной интерпретации. Дело в

1 Аналогичную задачу классификации ткачих при исследовании их произ­ водительности труда см. в п. 4 предыдущего параграфа.

183

том, что как мы уже отмечали, параметры

модели факторного

ана­

лиза, в том числе и сами общие факторы у (1),

уір,),

опре­

деляются

не однозначно, а лишь

с точностью

до некоторого

орто­

гонального преобразования, т. е.

с точностью до вращения

осей у*1),

у(2\ ...,

в пространстве. При этом выбор окончательного реше­

ния, т. е.

закрепление системы у(1),

у(2\...,

у (р,)

в определенном по­

ложении,

находится в распоряжении

исследователя. Другими слова­

ми, исследователь должен решить вопрос:

как,

располагая некото­

рым частным решением у ^ \ г/<2>, ..., у<Р'\

полученным,

например,

с помощью центроидного метода,

выбрать такое

ортогональное

пре­

образование, такой поворот осей г/<1>, г/<2>, ..., у (р,), при котором по­

лучаемые при этом новые общие факторы г/*1), г/<2), ..., у(р">допус-' кают наиболее естественную и убедительную содержательную интер­ претацию. Рассматривая расположение исходных признаков в плос­ кости г/(1>0 г/<2> или в пространстве, натянутом на первые три об­ щих фактора, естественно повернуть координатную систему таким образом, чтобы координатные оси прошли через наиболее четко вы­ раженные сгущения точек-признаков (см. поворот, намеченный пунк­

тирными осями г/<Р и г/(2>на рис. 4.7). При этом иногда бывает полезно отказаться от ортогональности общих факторов, переходя к косо­ угольной системе координат.

§ 3. ЭВРИСТИЧЕСКИЕ МЕТОДЫ СНИЖЕНИЯ РАЗМЕРНОСТИ

Описанные выше методы сокращения размерности факторного пространства (метод главных компонент и модели факторного анализа) допускали интерпретацию в терминах той или иной строгой вероятно­ стной модели и, следовательно, подразумевали возможность исследо­ вания свойств рассматриваемых процедур в рамках теории математи­ ческой статистики (см. п. 3., § 1,2 настоящей главы). В данном пара­ графе речь пойдет о методах, подчиненных некоторым частным целе­ вым установкам (наименьшее искажение геометрической структуры исходных «выборочных точек», наименьшее искажение их эталонного разбиения на классы и т. д.), но не формулируемых в терминах вероят­ ностно-статистической теории ]. Процедура выбора той или иной целе­ вой установки, подходящей именно для данной конкретной задачи, практически не формализована, носит эвристический характер, т. е., как правило, обусловливается лишь опытом и интуицией исследо­ вателя. Поэтому мы и будем называть такие методы эвристическими.

Надо признаться, что при отсутствии априорной или выборочной предварительной информации о природе исследуемого вектора наблю­ дений и о генеральных совокупностях, из которых эти наблюдения извлекаются, точно в таком же невыгодном положении находятся методы, факторного анализа и главных компонент. Однако для них

1 Отсутствие строгой вероятностно-статистической модели, лежащей в ос­ нове тех или иных методов, не исключает возможности использования отдель­ ных вероятностно-статистических понятий и соответствующей терминологии, как это имеет место, например, в методе экстремальной группировки факторов, в методе корреляционных плеяд и некоторых других.

184

все-таки существует принципиальная возможность теоретического обоснования (при наличии соответствующей дополнительной инфор­ мации), в то время как эвристические методы не претендуют и на это.

Хочется подчеркнуть, что факт описания здесь методов сниже­ ния размерности, не использующих предварительной информации, например, обучающих или квазиобучающих выборок, следует рас­ ценивать лишь как следствие признания неизбежности ситуаций, в которых мы такой информации не имеем, но не как стремление рек­ ламировать эти методы в качестве наиболее эффективных. В действи­ тельности же обоснованное и эффективное решение задач снижения размерности без слепой надежды на удачу, можно, по нашему мнению, получить лишь на пути глубокого профессионального анализа, до­ полненного статистическими методами, использующими предвари­ тельную выборочную (обучающую) информацию.

1. Методы, не использующие обучающих выборок

а) Нелинейное отображение выборочных точек в пространство мень­ шей размерности, наименее искажающее их геометрическую конфигу­ рацию. Пусть, как обычно, Х ъ Х 2, ..., Хп — результаты р-мерных

наблюдений, «снятые» на п исследуемых объектах. И пусть

=

= рЕ (Xi, X j) = 1 / 2 1 (4 V) — */V>)2 — евклидово расстояние

между

ѵ=1

 

точками Х і и Xj в исходном р-мерном пространстве.

 

Метод, предложенный в работе 131], состоит в нелинейном однознач­ ном отображении п данных точек (векторов) из р-мерного исходного факторного пространства Rp в пространство меньшей размерности. Особенно важны отображения в двухили трехмерное пространство (р' = 2,3), так как полученная там конфигурация из п точек поддает­ ся непосредственному графическому изображению. Ставится цель ми­ нимально (в некотором смысле) исказить исходную конфигурацию из п точек. Опишем этот метод и укажем некоторые возможности его модификации.

Пусть в результате некоторого однозначного отображения (проек­ ции) П имеющиеся у нас исходные многомерные наблюдения

( 1 )

преобразованы (спроектированы) в соответствующие п наблюдений

185

р а сп о л о ж ен н ы е в п р остр ан ств е R p ' м еньш ей

р азм ер н ости , т . е .

=

= П (X,).

Х„ к конфигурации Ylt

При переходе от конфигурации Хь Х2,

У2, ■ Уп, попарные расстояния d*j между исходными точками X, и Xj преобразуются в расстояния йц = р£ (К,, Yj)- В качестве меры

искажения конфигурации исходных точек введем величину А, кото­ рую естественно рассматривать как функцию от переменных г/^ѵ> (ѵ =

= 1, 2,

p', i =

1, 2,

n).\

 

 

 

A W P

У1 >• • • >У п )

V

К / - * ; ] 2

 

 

 

 

i < /

4

г < У

 

Предлагается следующая эвристическая итерационная процедура подбора переменных г/-ѵ> с целью минимизации функции

A(z/i‘\ У ?\ .... Уір,),

.... Уп'})- пусть

1

^

 

Ы*ц — dij(m)]2

Ат

і <\

 

d‘i

 

 

 

 

 

 

 

 

 

 

 

после т-й итерации, где с =

п

 

 

 

ошибка отображения

^

d,y и cfü-(m) =

 

 

 

 

 

 

 

і < /

 

 

2

[г/(-ѵ)(т) —г//ѵ) (m)]2.

Следующая +

1)-я

итерация за­

ѵ =

1

 

 

 

 

 

 

 

 

 

дается:

 

 

 

 

 

 

 

 

 

 

 

г/'ѵ) (ш + 1) =

(v) ,

 

 

 

 

 

 

 

у/Г' (т) —абіѴ(m),

 

 

 

 

где

 

 

d&m

I

d2 Ащ

 

 

 

 

 

 

б , ѵ ( w )

 

 

 

 

 

 

Ф/[ѵ) (от) j

d [t/jv) (m)]2

 

 

 

 

 

 

 

 

 

 

 

 

 

а а определено эмпирически (автор [31] использовал а

«

0,3 или 0,4).

На первом шаге итерационной процедуры набор

Ylt У2, .... Уп

фик­

сируется

случайным образом или находится с помощью

метода

глав­

ных компонент (см. § 1 настоящей главы).

На ряде примеров удалось показать, что данная процедура приво­ дит к отображению П, которое достаточно хорошо сохраняет некото­ рые геометрические свойства исходной конфигурации точек.

Так, в качестве исходных данных брались 9 точек, расположен­ ных на прямой в R9 на равных расстояниях друг от друга; после при­ менения к ним описанной выше процедуры, задающей преобразо­ вание П, на плоскости были получены точки, лежащие на одной прямой.

При отображении конфигурации из 8 точек, лежащих на окружно­ сти в R9 на равных расстояниях друг от друга, и центра этого круга, на плоскости R2 были получены точки, лежащие практически на ок-

186

ружности, и центр круга. В обоих случаях начальное приближение на плоскости выбиралось случайно, а А = 10'1в; исходные данные одномерны в 1-м и двумерны во 2-м случае, поэтому отображение на плоскость можно провести с нулевой ошибкой.

При отображении набора из 30 точек, равномерно распределен­ ных на 3-мерной спирали, была получена конфигурация из то­ чек на синусоидальной кривой и примерно равноотстоящих друг от друга.

Следующий пример показывает, что метод нелинейных отображе­ ний может давать лучшие результаты, чем метод главных компонент

[30].

Даны 5 сферических 4-мерных гауссовских распределений спе­ циального вида, из каждого делается выборка по 15 точек. Оказалось что при нелинейном отображении исходной конфигурации в R 2 на плос­ кости можно выделить 5 групп точек, причем эти группы соответству­ ют исходным группам.

При отображении методом главных компонент удается выделить только 4 группы точек. Две исходные группы точек после проекти­ рования на плоскость оказались полностью «перекрытыми».

Во всех рассмотренных примерах сходимость алгоритма была по­ лучена за 20 и менее шагов.

Возможности применения данного метода ограничены, с одной сто­ роны, видом или сложностью распределений, из которых были сдела­ ны выборки, и, с другой стороны, общим количеством точек. При по­ пытке применить алгоритм для анализа выборок из очень сложных распределений высокой размерности оказалось, что ошибка отобра­ жения слишком велика (Л > 0,1), и двумерная конфигурация резко искажает исходную. В то же время есть основания предполагать, что описанный метод может быть успешно использован для анализа таких данных, которые содержат выборки из гиперсферических и гипер­ эллиптических распределений.

Отметим, что данный метод требует большого объема оперативной памяти машины, поэтому общее число точек ограничено (у автора [31] максимальное значение п = 250). При п > 250 целесообразно объе­ динять наблюдения в группы и заменять группу некоторым ее пред­ ставителем (например, центром группы), сокращая таким образом число векторов («Замечание о методах предварительной обработки классифицируемых наблюдений» см. в конце главы III). Данная про­ цедура сравнительно проста, она не зависит от вида распределений элементов выборки, не требуется никакой априорной информации об

этих распределениях. Можно

предложить

следующие два видоизме­

нения данного алгоритма.

 

 

 

Во-первых, рассмотрим

 

 

 

AW

У

[dlj-ldij]

-

 

і < !

 

 

 

При растяжении каждого вектора У; в 1 раз (У* = RY;) расстояние

187

между преобразованными точками так же, как легко видеть, растя- dij Ря (Yi, Yj) ==Xdij, так что

 

к

 

2

 

п

,

Z2

п

du

 

А ß)

2 <4І

 

,

 

 

с

я 2 4 - і - — 2

dij

 

І < }

 

 

 

і < І

 

 

і </

 

 

/

п

 

\

1

 

п

,2

\

 

2 ( 4 -

2

duf

 

Ф

dij

\

(4.33)

/

Z +

2

d*i

\X2.

 

 

і < І

 

я

 

г < /

/

 

Из (4.33) следует, что

min

А (X) достигается при

 

Х =

2

( d i} )

 

2

( 4 / 4 )

 

(4.34)

 

І < /

 

 

 

і < І

 

 

 

 

 

В то же время очевидно, что наилучшее в смысле минимума функции ошибки А значение X равно 1 (иначе конфигурацию можно «растянуть», уменьшив значение А), следовательно.

 

,2

(4.35)

2 du

d-ij

І2 < j

 

Представляется целесообразным на каждом шаге итерационной проце­ дуры «растягивать» все векторы в X раз по формуле (4.34), уменьшая тем самым значения функции ошибки. Из сказанного следует, что ус­ ловие (4.35) является необходимым условием минимума функции ошиб­ ки в смысле преобразования «растяжения» всех векторов конфигура­ ции.

Во-вторых, оставаясь в рамках тех же качественных критериев близости конфигураций исходной и преобразованной совокупностей точек, можно предложить использовать вместо функции ошибки А более гладкую (бесконечно дифференцируемую) функцию новых координат, например:

 

</,” ...... » Г ) =

 

 

« / ) ■ -

S W '” - » ! '”)1

 

2

К ,] I < !

( 4 ) 2

 

І </

 

 

 

 

Рассмотрим подробнее случай р' =

2.

Обозначим

 

Z = ( 2<», г<2>,

..., г'2" - » , г ™ ) = { у ?\

у ? \

г/<2))-

188

вектор в

2 « -м ер н ом п р остр ан ств е;

IZ ||=

f

2п

1 /

2 [г(ѵ)]2 —норма вектора Z,

*ѵ = 1

(Z\, Z2) — 2 z(iv) z2v)—скалярное произведение векторов Zx и Z2.

 

 

 

 

 

V = 1

 

 

 

 

 

 

 

 

 

 (Z) = А (г(1>, z(2),

z(2n)) =

 

 

 

 

1

у

[(d?/)a -

-

г (2/ - ' ) ) 2 - (z ^ ) - г (2/))»]а

 

 

V ( ä - , y

, < I

 

 

( * „ )

 

i

<

1

 

 

 

 

 

 

 

 

1

2

 

 

2<г/-П)8- (г<»>- 2(2/))2]2

 

S

1

(</)2

/“

“ >

 

« f f

 

i

<

 

 

 

 

 

 

Выпишем в явном виде первые производные функции Д:

 

 

 

 

 

 

дЛ

____ 4_

 

 

 

 

 

 

az(2i-D

с Х

X

^

 

 

(г(2і--1 )_

2(2/-1)) [(d*;)2_ (z(2 i- l)_ г(2/-1))2_(г(2«_ г(2/))2]2

2

 

 

 

 

 

«

f f

 

/= 1

 

 

 

 

і Ф І

 

 

 

 

 

 

 

 

 

 

 

 

д Л

 

X

 

 

 

 

 

 

0г<2г>

 

 

 

 

 

 

 

 

 

 

 

 

«

( г ( 2 і ) _ г ( 2 / ) ) [ ( ^ . ) 2 _ ( г ( 2 , - - 1 ) _ г ( 2 / - 1) ) 2 _ ( г ( 2 Ц _ г ( 2 / ) ) 2] 2

 

X

у

 

 

 

(402

 

 

/

=

1

 

 

 

 

 

 

 

 

 

 

і

Ф

І

 

 

 

 

где

с =

2 ( 4 ) 2-

 

 

 

 

 

 

 

г < 1

 

 

 

 

Пусть г(1) = г (2>= г<3) = 0, z(4)> 0 .

Тогда легко показать, что выполняются следующие условия:

Л (Z) > О,

189

Q = {Z : А (Z) <1 c) — ограниченное множество, где с — произволь­ ная константа,

/

д А (Z)

d S ( Z )

d % ( Z ) \

^ , ( Z)

\

0г<‘> ’

d z ^

öz<2"> 1 '

 

■— градиент функции A (Z) удовлетворяет условию Липшица на мно­

жестве Q, так как А' (Z) — непрерывно дифференцируемая векторфункция.

Следовательно, для нахождения минимума функции А (Z) приме­ ним метод сопряженных градиентов [11], а именно, следующую итера­ ционную процедуру

Z (т + 1) --- Z (т) 4 ат U (т),

U(m)=: — A'[Z(m)] + ßmH(m— 1) т-= 0, 1, ...,

где Z(m) и U(m) — векторы, полученные на т-м шаге, а коэффициенты а т и ßm находятся из условий:

ат: А [Z (т)— ат U (т)] =- min А [Z (т)ail (т)],

а

о(А ' [Z {т)\ , Â'[Z (ш)] —'К' [Z ( т — 1)])

Р т "

и

(.0

 

II А

[Z ( т — 1)]і!2

Можно доказать, что для любого начального приближения такой алгоритм сходится в смысле

lim I А' [Z (т)] I —О,

где под lim <р (т) понимается так называемый нижний предел функ-

т~* оо

ции ср (т), т. е. sup inf ф (п). Заметим, что экспериментальные ис-

тп > т .

следования метода сопряженных градиентов показывают, что на прак­ тике наблюдается не только сходимость на подпоследовательностях (т. е. по нижнему пределу), но и обычная сходимость, т. е.

lim [I A' [Z (т)] I = 0.

m ->• о с

б) Метод экстремальной группировки признаков. При изучении сложных объектов, заданных многими параметрами, возникает задача разбиения параметров на группы, каждая из которых характеризует объект с какой-либо одной стороны. Но получение легко интерпрети­ руемых результатов осложняется тем, что во многих приложениях из­ меряемые параметры (признаки) лишь косвенно отражают существен­ ные свойства, которыми характеризуется данный объект.

Так, в психологии измеряемые параметры •— это реакции людей на'различные тесты, а выражением существенных свойств, общими факторами, являются такие характеристики, как тип нервной сис­ темы, работоспособность и т. д.

190

Оказывается, что во многих случаях изменение какого-либо общего фактора сказывается неодинаково на измеряемых признаках, в част­ ности, исходная совокупность из р признаков обнаруживает такое ес­ тественное «расщепление» на сравнительно (с р) небольшое количество групп, при котором изменение признаков, относящихся к какой-либо одной группе, обусловливается в основном каким-то одним общим фак­ тором, своим для каждой такой группы. После принятия этой гипо­ тезы разбиение на группы естественно строить так, чтобы параметры,, принадлежащие к одной группе, были коррелированы сравнительно сильно, а параметры, принадлежащие к разным группам ■— слабо. После такого разбиения для каждой группы признаков строится слу­ чайная величина, которая в некотором смысле наиболее сильно коррелирована с параметрами данной группы; эта случайная величина интерпретируется как искомый фактор, от которого существенно зави­ сят все параметры данной группы.

Очевидно, подобная схема является одним из частных случаев об­ щей логической схемы факторного анализа. В отличие от ранее описан­ ных классических моделей факторного анализа при так называемом экстремальном подходе [5], группировка признаков и выделение общих факторов делаются на основе экстремизации некоторых эври­ стически введенных функционалов. Разбиение, оптимизирующее дан­ ный функционал, называется экстремальной группировкой парамет­ ров. Таким образом, под задачей экстремальной группировки набора случайных величин хР), х(2>, ..., х<г) на заранее заданное число клас­

сов р' понимают отыскание такого набора подмножеств Sx,

S 2,

Sp'

натурального ряда

чисел 1, 2, ...,

р, что

Р'

= {1,

2, ..., р),

U S;

а Si

 

 

і=1

 

 

П S g — 0 при І'Ф q, и таких р' нормированных (т. е. с единич­

ной дисперсией £>/<*'> =

1) факторов /Р>,

/<2), ...,

/(''б,

которые макси­

мизируют какой-либо критерий оптимальности.

Следуя [5], остановимся здесь на алгоритмах для двух различных критериев оптимальности.

Первый алгоритм экстремальной группировки признаков в каче­ стве критерия оптимальности использует функционал

Ji — 2

[сог(*<»,/<•>)]*+ ... -f- 2

[сог(х<г>, /<р'>)]2,

і еs,

 

г еSp'

 

в котором под сог (х, /)

понимается обычный

парный коэффициент

корреляции между признаком х и фактором /

[1]. Обозначим Л г =

= {х<*>, і 6 S J ,

/ = 1, 2,

..., p'. Максимизация функционала J1 (как

по разбиению признаков на группы Ах, ...,

Ар>, так и по выбору фак­

торов /С)( jF(2)j ...,/(р')) отвечает требованию такого разбиения парамет­ ров, когда в одной группе оказываются наиболее «близкие» между собой, в смысле степени коррелированное™, признаки: в самом деле, при максимизации функционала Jxдля каждого фиксированного набо­ ра случайных величин /С), /<2), ..., /(p'), в одну 1-ю группу будут по­ падать такие признаки, которые наиболее сильно коррелированы с ве­ личиной в то же время среди всех возможных наборов случайных

191

величин ff1), /(2), /<р') будет выбираться такой набор, что каждая из величин ffl) в среднем наиболее «близка» ко всем признакам своей группы.

Очевидно, что при заданных классах Sx, S2,

..., S p>оптимальный

набор факторов /б),

ff2),

ffp')

получается в результате независимой

максимизации каждого слагаемого

 

 

 

V

[cor(x<‘>, /(О)]* (/==1,2,...,

р'),

 

 

max

Jt =

V

Xf,

 

 

f O ) ,

f(2)........

f(/)

i =

!

 

где Я,г — максимальное собственное значение матрицы 2 г, составлен­ ной из коэффициентов корреляции переменных, входящих в А х. При этом оптимальный набор факторов ff1), I = 1, 2, ..., р' задается фор­ мулами:

 

2

a j l)

 

------ --— -- l

, 1 = 1,2, ...,p',

(4.36)

г /

s

“ М ' Ч

 

Г

г,/es,

 

 

где

Д/ =сог (х(0, л:0)), а а (0 = (а (/ ), 4 г), ..., а ^ )

— собственный вектор матрицы 2 г, отвечающий максимальному соб­ ственному значению Яг, т. е.

2,-а<0 = Ѵа<0.

 

С другой стороны, считая известными факторы Д1), Д2>, ...,

нетруд­

но построить разбиение Slt S 2, ..., SP', максимизирующее Jx при фик­ сированных ff-1'), ff2), .... ffp'), а именно:

S, = {/: cor2 (лД>, ffl)) ^cov2(xfi), ffq)) для всех q —1,2,..., p'. (4.37)

Заметим, что соотношения (4.36) и (4.37) являются необходимыми ус­ ловиями максимума Д.

Для одновременного нахождения оптимального разбиения 51? 5 2,

..., Sp' и оптимального набора факторов ff1), ff2), ..., ffp'>предлагается

итерационный алгоритм, чередующий выбор оптимальных (по отноше­

нию к разбиению, полученному на предыдущем шаге)

факторов и вы­

бор разбиения оптимального к факторам, полученным

на предыдущем

шаге.

Пусть на ѵ-м шаге итерации построено разбиение параметров на группы Аг, ..., Ар'. Для каждой такой группы параметров строят фак­

торы fil) по формуле (4.36) и новое (ѵ +

1) разбиение параметров

Д]Ѵ+1), ..., A fi+l) в соответствии с правилом:

параметр лД>

относит­

ся к группе Л/(ѵ+І), если

 

 

 

сог2(х(0, /</>)> cor2(x(<?). fvq))

(1=1,

2, ..., p').

(4.38)

192

Соседние файлы в папке книги из ГПНТБ