Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Айвазян, С. А. Классификация многомерных наблюдений

.pdf
Скачиваний:
46
Добавлен:
20.10.2023
Размер:
8.58 Mб
Скачать

14.Ж и т к о в Г. Н. Некоторые методы автоматической классификации. —

Всб.: Структурные методы опознавания и автоматическое чтение. Всесоюзный институт научной и технической информации. М., 1970.

15. Ж у р а в л е в О. Г.,

Т о р г о в и ц к и й И. Ш.

Оптимальный метод

объективной классификации в задачах распознавания

образов. — «Автома- <

тика и телемеханика»,

1965, № 11.

 

16.3 а г о р у й к о Н. Г. Методы распознавания и их применения. М., «Со­ ветское радио», 1972.

17.К е м е н и Д ж., С н е л л Дж. Кибернетическое моделирование. Некото­ рые приложения. М., «Советское радио», 1972.

18.

Л у м е л ь с к и й В. Я- Агрегирование матрицы межотраслевого баланса

 

с помощью алгоритма диагонализации матрицы связи. — «Автоматика и те­

19.

лемеханика»,

1970, № 9, с. 69—72.

М и р к и н

Б. Г. Об одном подходе к обработке нечисловых данных. —•

 

В сб.: Математические методы моделирования и решения экономических за­

 

дач. Под ред. К. А. Багриновского. Новосибирск, СО АН СССР, 1969.

20.М и р к и н Б. Г. Об аксиоматических подходах к согласованию классифи­ каций (доклад, представленный на конференцию «Логика и методология», Вроцлав, 1971).

21.

М и р к и н Б. Г.,

Ч е р н ы й

Л. Б. Аксиоматический подход к измерению

 

близости

между различными классификациями объектов данного множества.

 

— В сб.:

Математические методы моделирования и решения экономических

22.

задач. Под ред. К- А. Багриновского. Новосибирск, СО АН СССР, 1969.

М и р к и н Б. Г.,

Ч е р н ы й

Л. Б. Об измерении близости между раз- *

 

личными разбиениями конечного множества объектов. — «Автоматика и те­

 

лемеханика». 1970, № 5, с. 120—127.

23.Психологические измерения. Сборник переводных статей (под редакцией А. Д. Мешалкина). М., «Мир», 1967.

24. Распознавание образов в социальных исследованиях (под ред. Н. Г. Загоруй-

ко и Т. И. Заславской). Новосибирск, «Наука», СО АН СССР, 1968.

25уР о з и н Б. Б. и др. Группировка предприятий отрасли методами теории распознания образов. — «Экономика и математические методы», 1969, т. V, вып. 3.

26.Р о з и н Б. Б. Распознавание образов в экономических исследованиях. М., «Статистика», 1973.

27.С е б а с т и а н Г. С. Принятие решений при распознавании образов (Пер. с англ.), Киев, «Техника», 1965.

28.Т е р е х и н А. Т. Методы кластер-анализа и их применения в социоло­ гических и экономических исследованиях. (Диссертация на соискание ученой степени кандидата технических наук, МГУ, 1972).

29.Т е р - М к р т ч я н С. Г. Об ожидаемой оправдываемое™ прогноза в схе­ ме квадратичного дискриминантного анализа. «Статистические методы ана­ лиза и прогноза метеорологических полей». Труды гидрометеорологического научно-исследовательского центра СССР. Вып. 44, Л., 1969.

30.Т о р г о в и ц к и й И. Ш. Распознавание образов при отсутствии процес­

31.

са обучения. — В сб.: Вопросы бионики, 1967.

Ц ы п к и н

Я-

3.

Основы теории обучающих систем. М., «Наука», 1970.

32.

Ц ы п к и н

Я.

3.,

К е л ь м а нс Г. К- Рекуррентные алгоритмы само­

33.

обучения. Изв. АН СССР.—«Техническая кибернетика», 1967, § 5, с. 70—80.

Ш л е з и н г е р

М.

 

И. О самопроизвольном различении образов. — В сб.:

34.

Читающие автоматы. Киев. «Наукова думка», 1965.

A r r o w

К.

Social Choice and Individual Values. J. Wiley, 1951; 2 ed. 1963,

35.

3 ed.

1966.

 

H a l l

D. I.

Isodata, a novel methods of data analysis and

В a’l 1

G. H.,

36.

pattern

classification. Stanford

Res. Inst. Calif., 1965.

B l u m

 

J.

A.

Appoximation methods which converges with probability one.

37.

Ann. Math. Stat., 25, № 2, 1954, p. 382—386.

В 1 u m

J.

A.

Multidimensional stochastic approximation procedures. Ann.

38.

Math. Stat., 25, № 4,

1965, p. 734—744.

В о 1s h e v

L.

N.

Cluster analysis. Bull. Int. Stat. Inst., № 43, 1969, p.441—

 

425.

 

 

 

 

 

 

 

233

.39 . D i d а у E. Une nouvelle méthode en classification automatique et reconnais­ sance des formes. La méthode des nuée dinamique. Rev. Stat. Appl., 19, 1971,

p.19—34.

40.D V о r e t s к у A. On Stochastic Approximation. Proc. 3 Berkley Symp. Math. Stat. a Probab., № 1, 1956.

41.

E d w a r d s

A.

W.

F., С a v a 1 1 i -S f о r z a L.

L. A method for cluster

42.

analysis. Biometrics. 21, p. 362—375.

 

 

procedures.—

F i s h e r

L., J o n h

W.

Va n

N ess. Admissible clustering

43.

«Biometrika», 58, № 1, 1971, p. 91—104.

procedures,

«Multivariate

F о r t i e r

J.

J.,

 

S o l o m o n

 

H.

Cluctering

44.

Analysis», ed. by Krishnaiah, N. Y., Acad. Press, 1966, p. 493—506.

F r a s e r

P.

M.,

B a r o n

D.

N.

Taxonomic procedures applied to liver

45.

disease. Proc. Soc.

Med., 1968, 61, p. 23—26.

 

 

F r i e d m a n H.

P., R u b i n J.

On some invariant criterion for grouping

46.

data. J. Amer. Stat., Ass. 1967, 62,

p. 1159—1178.

 

 

G o w e r

I.

C.

Classification and geology. Rev. Intern. Stat. Inst., 1970, 38,

«47.

p. 35—40.

J.

C.,

R o s s

G. J. S. Minimum spanning trees and single linkage

G o w e r

 

cluster analysis.

Appl. Stat.,

1969,

18,

p. 54—64.

 

 

48.H a r t i g a n J. A. Representation of simularity matrices by trees. J. Am. Stat. Ass., 1967, 62, p. 1140—1158.

49.

FI о

Y., A g r a w a 1 a A.

K-

On self learning sheme of Nage and Shelton.

50.

Proc. IEEE, 55, № 10, 1967.

 

 

 

 

 

 

 

 

 

1966, 14,

Ja n с e у

R.

C.

Multidimentional group analysis. Austr. J. Bot.,

51.

p.

127.

 

N.,

S i b s о n

R.

The

construction

of hierarchic

and non-

J

a r d i n e

52.

hierarchic classifications. Comp. J.,

1968, 11, p. 177—184.

cluster

analysis.

J e n s e n

R.

E.

A

dinamic

programming

algorithm for

53.

Oper,

res.,

1969,

17,

p. 1034—1957.

 

 

schemes. Psychometrika, 1967,

J

о h n s о n

S.

C.

 

hierarchical

clustering

54.

32, p. 241—245.

 

 

 

 

 

 

 

 

 

 

 

 

 

K i e f e r

J.,

 

W о 1 f о w i t z J. Stochastic estimation of the maximum of a

55.

regression function. Ann. Math. Stat.,

23, №

3, 1952, p. 462—446.

 

L a n c e G.

N.,

W i l l i a m s

W.

T.

A general

theory

of

classificatory

56.

sorting strategies.

I.

Hierarchical

systems.

Comp.

J., 1967, 9.

p. 373—380.

Ma c

Q u e e n

J. Some methods for classification

and analysis of miltiva-

 

riate observation. Proc. Fifth Berkeley

Symp. Math. Stat. a. Probab., 1967,

 

1, p. 281—297.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

57.M о r r i s о n D. G. Measurement problems in cluster analysis. Management Science, 13, p. B775—B780.

58.M u r t h у V. К. Nonparametic Estimation of Multivariate Densities wich Applications. Multiv. Anal., 1966, Proc. Intern. Symp. held in Dayton Ohio.

59.

June 14—19,

1965.

 

Self

corrective caracter recognition system.

N a g e

G.,

S h e l t o n G. L.

60.

IEEE Trans, 1966, IT-12.

 

of the Theory of cumps. Mech. Translat.,

N e e d n a m

R.

M.

Application

61.

1965, 8,

p.

13.

M.,

J o n e s

R.

S.

Keywords and clumps. J. Doc., 1964,

N e e d h a m

 

R.

20, p. 5.

62.Numerical taxonomy. Ed. by Gole A. J. Acad. Press, 1969.

63.О r 1 о c i L. Information Theory models for hierarchic and non-hierarchic

 

classifications. Nume rical, taxonomy, ed. by

C o l e A. J. Ld. — N. Y. Acad.

64.

Press., 1969, p. 148—164.

 

P a r z e n

E. On. the estimation of probability density function and the mode.

65.

Ann. Math. St, 1962, 33, p. 1065—1076.

numerical methods J. Soil Sei.,

R a у n e r

J. H. Classification of soils by

66.

17, p. 79—92.

 

R o b b i n s

N., M o n r o S. A. Stochastic Approximation method. Berkley

 

Symp. Math. Stat. a. Probab., 1956, № 1.

 

67.R u b i n J. Optimal classification into groups: an approach for solving taxo­ nomy problem. J. Theor Biol., 1967, 15, p. 103—144.

234

68.

S с о t t

A.

J.,

S y m o n s

M.

J.

Clustering methods based on Likelihood

69.

ratio criteria.

— «Biometrics», 1971,

27 p. 387.

 

S c o t t

A.

J.,

S у m о n s

M.

J. On Edwards and Cavalli—Sforza method

70.

of cluster

analysis. — «Biometrics», 1971, 27,

p. 217—219.

sample set

S e b e s t у e n

G. Pattern

recognition

by

adaptive proccess of

71.

construction. Trans. IRE, 1962,

IT-8, №5.

 

taxonomy.

S о к a 1

R.

R.,

S n e a t h

P.

H.

A.

Principles of numerical

 

Ld., Freeman, 1963.

 

 

 

 

 

 

72.S о r e n s e n T. A. A method of establishing groups of equal amplitude in plant sociology based on similarity of species content and its application to analysis of the vegetation on Danish commons. Biol. Skr., 1948, 5, p. 1—34.

73.W a 1 t z M. D., F у К- S. A heuristic approach to reinforcement learning control systems. IEEE Trans. AC—10, 1965, № 4.

74.W a r d J. H. Hierarchical grouping to optimize an objective function. J. Amer. Stat. Ass., 1963, 58, p. 236—244.

75. W i 1 1 m о t t A. J., G r i m s h a w P.

N. Clucter analysis in social geog­

raphy. Numerical

taxonomy

Ld. — N. Y.,

Acad. Press., 1969, p. 271—281.

•»76. W i s h a r t

D.

An algorithm

for hierarchical classification — «Biometrics»,

22, 1969, p.

165—170.

 

 

77.W i s h a r t D. Mode an alysis: a generalization of nearest neighbour which reduce a chaining effect. Nume rical. Taxonomy. Ld. — N. Y., Acad. Press., 1969, p. 282—311.

Г л а в а IV

1.А й в а з я н С. А. Статистическое исследование зависимостей. М., Метал­ лургия, 1968.

2.А н д е р с о н Т'. Введение в многомерный статистический анализ. М., Физматгиз, 1963.

3.А н д р у к о в и ч П. Ф. Некоторые свойства главных компонент. (Дис­ сертационная работа, представленная на соискание ученой степени кандида­ та технических наук). МГУ, 1972.

4.А р X а р о в Л. В. О предельных теоремах для характеристических кор­

ней выборочных ковариационных матриц при больших размерностях. —

В сб.: Статистические методы классификации. П. МГУ, 1972.

5.Б р а в е р м а н Э. М. Методы экстремальной группировки параметров

задача выделения существенных факторов. Автоматика и телемеханика, 1970, ‘

1.

6. В а т а н а б е С. Разложение Карунена-Лоэва и факторный анализ. Тео­ рия и приложения. — В сб.: Автоматический анализ сложных изображений. М., «Мир», 1969.

7.В ы X а н д у Л. К- Об исследовании многопризнаковых биологических систем. — В сб.: Применение математических методов в биологии. III, ЛГУ, 1964.

8.Л б о в Г. С. Выбор эффективной системы зависимых признаков. Вычисли- тельные системы. Вып. 19. Новосибирск, 1965.

9.Л о у л и Д., М а к с в е л л А. Факторный анализ как статистический

метод. М., «Мир», 1967.

10. Л у м е л ь с к и й В. Я- Агрегирование объектов на основе квадратич­ ной матрицы. Автоматика и телемеханика, 1970, № 1.

11.П о л я к Б. Т. Метод сопряженных градиентов. Труды 2-й зимней школы по математическому программированию и смежным вопросам. Вып. 1, 1969.

12.Т е р е н т ь е в П. В. Метод корреляционных плеяд (серия «Биология»).

Вестник ЛГУ, 1969,

№ 9.

13. Т е р е н т ь е в П.

В. Дальнейшее развитие метода корреляционных

плеяд. — В сб.: Применение математических методов в биологии, 1960, № 1.

14.A n d e r s o n Т. W. The asymptotic distribution of certain characteristic roots and vectors. Proc. 2 Berkley Symp. Math. Stat. Probab., Univ. Calif. Press,

1951, p. 103—130.

15.A n d e r s o n T. W. Asymtotic theory for principal component analysis. Ann. Math St. 1963, 34, p. 122—148.

235

16.

А n d e r s о п Т.

W.,

R u b i n Н. Statistical

inference in factor

analysis.

 

Proc. 3 Berkeley Symp. Math. Stat. and Probab.

Univ. Calif. Press,

1956

5

 

p. 11—50.

 

 

 

 

 

17.

A n d r u k o v i c h

P.

F. a. o. Abstract

painting as a specific—Generale—

18.

Language. A Stat. Appr. to the problem.

Metron»

XXIX, 1971, №

1—2.

 

B a r t l e t t

M. S. Factor analysis in psychological as a statisticia n sees it

19.

Uppsala, Almqvist and Wiksell, 1953, p. 23—34.

Application of the Kurhu-

F u k u n a g a

K.,

K o o n t z W a r r e n

L. G.

nen—Loeve expansion to feature selection and ordering. IEEE Trans. ComD 1970, c — 19, № 4, p. 311—318.

20. G i r s h i с к M. A. Principal Components.

J. Am. St. Ass. 1936, 31, n

519—528.

^

21.G i r s h i с к M. A. On the sampling theory of roots of determinantial equa­ tions. Ann. Math. St. 1939, 10, p. 203—224.

22.H a^r m a n H. H. Modern factor analysis. Univ. Chicago Press, 1960. (рус­

ский перевод: Г. Харман. Современный факторный анализ. М., «Статистика». 1972).

23. H ^ l z i n g e r К., H a r m a n Н. Factor Analysis. Univ. Chicago Press,

24.J e f f e r s J. N. R. Two case studies in the application of principal compo­ nent analysis. Appl. Stat., 16, № 3, 1967.

25.

К e n d a 1 1

M.

G. Discrimination and Classification. Multivariate Analy­

26.

sis Proc. Intern. Symp. held in Dayton, June, 1965, p. 165—185.

M о r r i s о n

D.

F. Multivariate

statistical method. McGrom. Hill Book

27.

Company. N.

Y.,

1967.

 

O k o m o t o

M.

Optimality of Principal Components Multivariate Analysis.

28.

Proc. 3 Int. Symp., Dauton, 1967.

M. Minimization of Eigenvalues of a mat­

O k o m o t o

M.,

K a n a z a w a

rix and optimality of principal components. Ann. Math. St. 39, № 3, 1968.

29.R а о C. R. The use and interpretation of principal component analysis in appiied research, Sankhya (A), 1964, 26, № 4, p. 329—358.

30.R а о C. R. Estimation and tests of significance in factor analysis. Psychometrika, 1955, 20, p. 93—111

31.S a m m о n H. A nonlinear mapping for Data Structure Analysis. IEEE Trans.

Comp., 1969, c — 18, № 5, p. 401—409.

Г л а в а V

 

 

 

 

 

 

1.

В а л ь т у х К -

К-

Пропорции развития и удовлетворения потребностей.—

 

В сб.: Проблемы народного хозяйства. Вып. 2. Новосибирск, «Наука», СО

 

АН СССР,

1969.

 

 

 

 

2.

В о л к о н с к и й

В.

А.

Об объективной математической характеристи­

 

ке народного потребления. — Веб.: Народнохозяйственные модели. Теорети­

3.

ческие вопросы потребления. М., Изд-во АН СССР, 1963, с. 201.

Г р а н б е р г

А.

Г.

Целевая функция

общественного благосостояния и

 

критерии оптимальности в

прикладных

народнохозяйственных моделях.

4.

— В сб.: Проблемы народнохозяйственного оптимума, М., «Экономика», 1969.

Л ь ю с Р.

Д., Р а й ф X.

Игры и решения, М., Изд. иностр. лит., 1961.

5.

Ш а к и н

В.

В. Уравновешивание матрицы данных. — В сб.: Социология

и математика. Новосибирск, «Наука», СО АН СССР, 1971.

6.В е n а г d J. Quelques aspects théorique des biens collectif sous tutelle. Le roppot sur «Conférence sur la planification et le marche», Liblic—Tchécoslo- vaqiue, 4 au 8 Mai, 1970.

7.H o t h a k k e r H . S. Revealed preference and utility function,. Economet-

rika, 17, № 2, 1949, p. 195.

8.

К e n d a 1 1 M.

G. Rank correlation methods. 2 ed. N. Y., Hafner, 1955.

9.

R a d e r T. The

existence of utility function to represent preferences. Rev.

 

econom. stud., 1963, № 3.

10.U s a w a H. Preference and rational choice in the theory of consumption. Math, methods soc. sei. Proc. of 1 Stanford symp., 1960.

11. W i d m a i e r H.

P. R o l o f f O, F r a n k J. Public and private expenditure.

Plan Europe 2000.

Copyring 1970, Europ. cult, found. Amsterdam — The

Netherland.

 

П Р Е Д М Е Т Н Ы Й У К А З А Т Е Л Ь

Аксиоматический подход к класси­ фикации объектов 129

Алгоритм «ближайшего соседа» 101

—102ЭЛЬНеГ° С0Седа>> «<полн°й связи»)

— иерархический 100

—, основанный на эталонных множест­ вах (точках) 104

— последовательного переноса точек из класса в класс 103

Анализ главных компонент 134

— мод 127

факторный (см. Факторный анализ) 165

Аппроксимация стохастическая 123

— неизвестной целевой функции 206, 210, 218, 220

Асимптотические свойства процедуры

98, 117, 123

-------оценок 21,22, 46, 49

Байеса решающие правила 31, 34 Близость точек 45, 76

Вероятности неправильной классифи­ кации 32, 35

правильной классификации 32, 35 Вероятностная мера 15

модификация задачи кластер-ана­ лиза 76, 87 1

Вероятность априорная 30, 51

события 15

условная 16 Вес 78

Весовая функция 48 Весовые коэффициенты 78

Вращение системы факторов 172, 183 Выборка 13

Генеральная совокупность 13 Гипотеза 26 Гистограмма 79

Главные компоненты 134, 137

— выборочные 140

—, распределение 149

—, оценка максимального правдо­ подобия 148

Городов классификация 222

Двойственная задача (главных компо­ нент) 156

— постановка экстремальной задачи (в кластер-анализе) 93

Дискриминантная функция 35, 43 Дисперсия выборочная 19

— обобщенная 86 Доверительный интервал 19, 23, 24 Допустимость выпуклая 111

в классе образов 111

монотонная 113

относительно дублирования 113

по отношению к структуре 112

разбиения 111

связная 111

Дуализм 156

Евклидово расстояние 78 Единственность модели факторного^на-

лиза (см. идентификация модели‘фак­ торного анализа) 167

Идентификация модели факторного ана­ лиза 167, 172

Иерархическая процедура 99 Иерархические процедуры (агломератив-

ные, дивизимные 84, 99, 100

— — ^-обобщенные 102

Иерархическое дерево (агломеративное, дивизимное) 99

Информативность

системы признаков

198

 

 

Класс 29

75

 

Кластер-анализ

(агломер ативные,

Кластер-процедуры

иерархические)

84,

99

Ковариационная матрица 19

— выборочная (эмпирическая) 19 Ковариация 18

выборочная (эмпирическая) 19 Корреляционная матрица 19

— выборочная (эмпирическая) 19 Корреляция парная 19

Косинус угла между векторами 147 Коэффициент корреляции 19 Кратчайший незамкнутый путь 88 Критерий асиптотически подобный 41

— отношения правдоподобия (см. ме­ тод отношения правдоподобия)

237

Критерий проверки гипотез 26

— L (с) — состоятельный 41 Критическая статистика 21

Линейная классификация 35, 43

Максимум дисперсий линейных комби­ наций 137

Матрица межотраслевого баланса 81 Мера близости объектов 77

— классов 82 Мера грубости 120

концентрации 90

рассеяния средняя (обобщенная) 86

точности 120

Метод Бартлетта (оценка общих факто­ ров в факторном анализе) 178 Метод классификации локальный 45

— непараметрический 44, 45 —■— параметрический 40

— эвристический 50

корреляционных плеяд 195

максимального правдоподобия 24, 65

отношения правдоподобия 27

Томсона (оценка общих факторов в

факторном анализе) 178

экспертно-статистический (построе­ ния целевой функции) 206

экстремальной группировки приз­ наков 189

Минимальное дистанционное разбиение

51

Мода 18 Модальное значение 18

Модель дисперсионного анализа 169

множественной регрессии 169

факторного анализа 167, 168

Наилучшее (линейное) предсказание 143 Нагрузки 168 Независимость событий 16

Несмещенность метода к-средних 117

— оценки 22 Норма матрицы (евклидова) 143

Обобщенная дисперсия 86 Обобщенное среднее 83 Обобщенное к-расстояние 83

Обратная задача (в анализе главных компонент), см. двойственная задача Обучающие выборки (обучение) 8, 29

Общий фактор 66 Окрестность 45

— подобная 45

Оценка максимального правдоподобия

24

нагрузок 175

несмещенная 22

плотности, непараметрическая 45, 46, 47

отношения правдоподобия 47

Опенка разделяющей поверхности 43

состоятельная 21

статистическая 20

эффективная 22 Ошибки классификации 26

Перебор 199 Плотность распределения 17

Поверхность постоянного уровня плот­

ности 44 Подобие методов классификации 41

Порог 85 Потенциальная функция 49, 79

Потери 31

— при правильной классификации 31 Правила байесовские (решающие) 34 Признаки качественные 5, 129

классификационные 5, 129

количественные 5, 129 Принцип «ближайшего соседа» 82

«дальнего соседа» 82

«средней связи» 82

«центра тяжести» 82

Проверка гипотез статистическая 26,

147, 179

Пространство спрямляющее 94

Прогноз 143 Процедура иерархическая 98

— агломеративная 99

— дивизимная 99

параллельная 100, 103

последовательная 100, 113

— «К-обобщенная» 102 Процентная точка 19

Прямая задача (в анализе главных ком­ понент) 15 7

Разбиение допустимое 111

минимальное дистанционное 51, 93

несмещенное 93

Разделяющая функция (см. функция дискриминантная)

Различимость смеси 57, 58

— конечной 58

G-смеси 58

Распознавание образов без обучения

8,9

— с обучением 8, 9 Распределение нормальное 29

— стандартное 29

равномерное 60

Стьюдента 29

Фишера 29

Уишарта 29

к2 29

F 29, 42

Расстояние Махаланобиса 77

между классами 82

— объектами 76

— разбиениями 131

обобщенное 83

Расстояние хеммингово 78

евклидово 78

-— «взвешенное» 78

‘ешающая функция, см. функция ре­ шающая 33

Свертка распределений 58 Семейство распределений 58, 59

— — аддитивно замкнутое 58 След матрицы 143 Смесь классов 57

конечная 58

различимая 57, 58

G 58

Смещение 22 Снижение размерности 183

Собственный вектор матрицы 138 Собственное число матрицы 138 Состоятельность оценки 21

— метода классификации 41

^Социально-экономические задачи 206 Среднее значение 18

ІСреднее' значение выборочное (эмпири-

*ческое) 18

к116

|Статистическая оценка (см. оценка ста­ тистическая) 20 Стационарность функционала качества

разбиения 118 Стохастическая аппроксимация (см. ап­

проксимация стохастическая) Структура простая 174

Структура факторной модели 172 Существование модели факторного ана­

лиза 166

Гаксон 75

Таксономия 75

Уровень значимости 26

Факторное пространство. 8 Факторный анализ 165 Функционал качества разбиения 85 Функция веса (весовая) 78 Функция дискриминантная 35

плотности 17

потенциальная 79

потерь (см. потери)

правдоподобия (логарифмическая)25, 65

решающая 33

смешивающая 58

Характеристические векторы матрицы

138

— корни 138

Целевая функция 206, 208 Центр тяжести класса 52, 116 Цетроидный метод 175

Циклическое продолжение выборки 54,

Экспертные оценки 211 Эллипсоид рассеяния 136

Эмпирическое среднее (см. среднее зна­ чение эмпирическое) 18

Эталонные точки 98

множества 104

алгоритмы 104 Эффективность оценки 22

О Г Л А В Л Е Н И Е

 

Введение

...............................................................................................

3

Г л а в а

I. Классификация при полностью описанных классах или

при

 

наличии обучающих выборок ..........................................................

12

§ 1.

Основные понятия. Терминология ................................................

12

§ 2.

Классификация при полностью описанных классах.................

29

§ 3.

Классификация при наличии обучающих выборок.......................

40

§ 4.

Классификация с частичным обучением. Параметрический

 

случай........................................................................................................

51

Г л а в а

И. Классификация без обучения. Параметрический

случай:

 

расщепление смесей на основе оценки неизвестных параметров 57

>S>‘

§ 1. Смеси и условия их различимости.....................................................

57

§ 2.

Различимые сме.си и оценка параметров.........................................

63

§ 3.

Смеси и метод максимального правдоподобия.................................

65

Г л а в а

111. Классификация без обучения. Непараметрический случай:

75

 

методы кластер-анализа, таксономия..................................................

§ 1. Общая постановка задачи. Основные понятия и определения

75

§ Z.

Основные типы задач кластер-анализа и основные типы кластер-

98

§ 3.

процедур ...........................................................................................

Описание кластер-процедур и их основных свойств.....................

100

§ 4.

Классификация объектов,описываемых не только количествен­

 

 

ными признаками (аксиоматический подход; обработка эксперт­

129

 

ных мнений).............................................................................................

Г л а в а

IV.

Методы снижения размерности..................................................

 

134

V § 1.

Метод главных компонент..................................................................

 

134

§ 2.

Факторный анализ................................................................................

 

 

165

§ 3.

Эвристические методы снижения размерности.............................

184

Гл а в a-,

V.

Решение социально-экономических

задач с использованием

'.гу)

методов классификации и снижения размерности..........................

206

§ 1. Экспертно-статистический метод построения неизвестной

це-

'L

левой функции и его

применение .

. . . •................................

206

§ 2. Выявление основных

типов городов

РСФСР с точки, зрения

 

их социально-экономического облика..............................................

 

223

Литература................................................................................................................

 

 

 

231

Предметный указатель..........................................................................................

 

 

237;

Соседние файлы в папке книги из ГПНТБ