
книги из ГПНТБ / Вапник В.Н. Теория распознавания образов. Статистические проблемы обучения
.pdfВ.Н.ВАПНИК АЛ. ЧЕРВОНЕНКИС
Теория
распознавания
образов
:.V '
< |
а , / |
* ' 'it |
|
В. Н. ВАПНИК, А. Я. ЧЕРВОНЕНКИС
ТЕОРИЯ
РАСПОЗНАВАНИЯ
ОБРАЗОВ
СТАТИСТИЧЕСКИЕ ПРОБЛЕМЫ ОБУЧЕНИЯ
И ЗД А ТЕЛ ЬС ТВ О «НАУКА»
ГЛ А В Н А Я Р Е Д А К Ц И Я Ф И ЗИ КО -М А ТЕМ А ТИ ЧЕС КО Й Л И Т Е Р А Т У Р Ы
М о с к в а 1974
г
£3 С & У
Теория распознавания образов (статистические проблемы обу чения), В. Н. В а п н и к, А. Я. Ч е р в о н ѳ н к и с . Издатель ство «Наука», Главная редакция физико-математической литерату ры, М., 1974, 416 стр.
Книга посвящена изложению статистической теории распоз навания образов.
В первой части книги задача распознавания образов рассмат ривается с точки зрения проблемы минимизации среднего риска. Показано, как далеко можно продвинуться в решении задачи обу чения распознаванию образов, следуя по каждому из существующих в статистике путей минимизации риска, и к каким алгоритмам они приводят. Вторая часть посвящена исследованию математических проблем обучения. Изложена теория равномерной сходимости час тот появлений событий к их вероятностям, которая является пре дельным обобщением теоремы Гливенко. Третья часть посвящена алгоритмам построения линейных и кусочно-линейных решающих правил.
Книга рассчитана на студентов старших курсов, аспирантов, инженеров и научных сотрудников, занятых в области теоретиче ской и технической кибернетики. Она будет также интересна специа листам по теории вероятностей и математической статистике.
Илл. 28. Библ. 96 назв.
w *
© Издательство «Наука», 1974.
О Г Л А В Л Е Н И Е
П редисловие......................................................................................... |
|
|
|
|
9 |
|||
|
|
|
|
|
ЧА СТЬ П Е Р В А Я |
|
|
|
|
|
|
Э Л Е М Е Н Т А Р Н А Я Т Е О Р И Я |
|
||||
Г л а в а |
|
I. |
Персептрон |
Розенблатта......................................... |
|
16 |
||
§ |
1. |
Феномен восприятия..................................................... |
|
16 |
||||
§ |
2. |
Физиологическая |
модель восприятия.................. |
17 |
||||
§ |
3. Техническая модель. Персептрон |
.......................... |
19 |
|||||
§ |
4. |
Математическая модель . . ....................................... |
20 |
|||||
§ |
5. |
Обобщенная |
математическая м одель ................. |
23 |
||||
§ |
|
|
6. Теорема |
Н овикова.................................. |
|
25 |
||
§ |
|
7. |
Доказательство теоремы Новикова................... |
28 |
||||
§ |
8. Двухуровневая схема распознавания................. |
30 |
||||||
Г л а в а |
|
II. |
Задача обучения машин распознаванию образов |
34 |
||||
§ |
|
|
|
1. Задача |
имитации.................................... |
|
34 |
|
§ |
|
|
2 |
Качество |
о б у ч е н и я .................................. |
|
35 |
|
§ |
|
|
3. |
Надежность обучения................................ |
|
37 |
||
§ |
|
|
4. Обучение — задача вы бора |
.......................... |
38 |
|||
§ 5. |
Две задачи конструирования обучающихся уст |
39 |
||||||
|
|
ройств .............................................................................. |
|
|
|
|
||
§6. Математическая постановка задачи |
обучения . |
41 |
||||||
§ |
7. |
Три пути решения задачи о минимизации средне |
|
|||||
|
|
го |
риска ....................................................................... |
|
|
|
43 |
|
§ 8. |
Задача обучения распознаванию образов и методы |
|
||||||
|
|
минимизации среднего риска ................................. |
|
47 |
||||
Г л а в а |
III. |
Методы обучения, основанные на восстановле |
|
|||||
|
|
|
нии |
распределения вероятностей..................... |
49 |
|||
§1. |
О |
восстановлении |
распределения |
вероятностей |
49 |
|||
§ |
|
|
2. Классификация оц ен ок ..................... |
|
52 |
|||
§ |
|
3. Метод максимума правдоподобия...................... |
54 |
4 |
|
|
ОГЛАВЛЕНИЕ |
|
|
|
§ |
4. |
Байесов |
принцип |
восстановления |
..................... |
55 |
§ 5. |
Сравнение байесова метода оценивания и оцени |
|
||||
|
|
вания методом максимума правдоподобия . . . |
59 |
|||
§ |
6. |
Оценка параметров распределения дискретных не |
60 |
|||
|
|
зависимых признаков..................................................... |
|
|||
§ |
7. |
Байесовы оценки параметров распределения дис |
63 |
|||
|
|
кретных независимых признаковл.............................. |
|
|||
§ |
8. |
Восстановление параметров нормального распре |
65 |
|||
|
|
деления методом максимума правдоподобия . . . . |
||||
§ |
9. |
Байесов метод восстановления нормального рас |
|
|||
|
|
пределения ....................................................................... |
|
|
67 |
|
Г л а в а |
|
IV. Рекуррентные алгоритмы обучения распозна |
|
|||
|
|
ванию образов.............................................................. |
|
|
72 |
|
§ |
1. |
Метод стохастической аппроксимации................... |
72 |
|||
§ |
2. |
Детерминистская |
и стохастическая постановки |
|
||
|
|
задачи |
обучения |
распознаванию |
образов . . . |
73 |
§ |
3. |
Конечно-сходящиеся рекуррентные процедуры |
78 |
|||
§ |
4. |
Теоремы об останове....................................................... |
|
80 |
||
§ 5. |
Метод циклического повторения обучающей по |
|
||||
|
|
следовательности |
.......................................................... |
|
84 |
|
§ |
6. |
Метод потенциальных функций............................... |
|
86 |
||
Г л а в а |
|
V. Алгоритмы, минимизирующие |
эмпирический |
|
||
|
|
р и с к ................................................................................ |
|
|
|
89 |
§ |
1. Метод минимизацииэмпирического риска . . . |
89 |
§2. Равномерная сходимость частот появления со
|
бытий к их вероятностям......................................... |
90 |
§ |
3. Теорема Гливенко............................................ |
92 |
§ |
4. Частный сл уч ай ......................................................... |
93 |
§5. Оценка числа различных линейных разделений
век тор ов ........................................................................ |
96 |
§6. Условия равномерной сходимости частот появле
|
ния событий к их вероятностям............................... |
99 |
§ |
7. Свойства функции роста................................................ |
101 |
§8. Оценка уклонения эмпирически оптимального ре
|
|
шающего правила...................................................... |
102 |
|
§ |
9. |
Метод минимизации эмпирического риска |
в де |
|
|
|
терминистской постановке задачи обучения рас |
||
|
|
познаванию |
обр азов .................................................. |
104 |
§ |
10. |
Замечание |
об оценке скорости равномерной схо |
|
|
|
димости частот появления событий к их вероят |
||
|
|
ностям ............................................................................ |
|
107 |
|
|
ОГЛАВЛЕНИЕ |
|
5 |
||
§ |
11. Замечания об особенностях метода минимизации |
|
||||
|
эмпирического |
р и с к а .......................................... |
111 |
|
||
§ |
12. |
Алгоритмы метода обобщенного портрета . . |
. |
113 |
||
§ |
13. |
Алгоритм К ор а .................................................... |
|
115 |
|
|
Г л а в а |
VI. Метод упорядоченной минимизации риска |
118 |
||||
§ |
1 . 0 |
критериях оценки качества алгоритмов . . |
. |
118 |
||
§ |
2. |
Минимаксный |
критерий................................. |
121 |
|
|
§ |
3- |
Критерий минимакса потерь........................... |
123 |
|
||
§ |
4. |
Критерий Б айеса................................................. |
|
126 |
|
|
§ |
5. |
Упорядочение классов решающихправил . . |
. |
127 |
||
§ |
6. |
О критериях |
вы бора......................................... |
129 |
|
|
§7. Несмещенность оценки скользящего контроля |
. |
130 |
||||
§ |
8. |
Упорядочение по |
размерностям.................... |
132 |
|
|
§ |
9. |
Упорядочение |
по |
относительнымрасстояниям |
|
134 |
§10. Упорядочение по эмпирическим оценкам относи тельного расстояния и задача минимизации сум
|
|
|
марного р и с к а .............................................................. |
|
139 |
|
§ |
И . |
О выборе оптимальной совокупности признаков |
147 |
|||
§ |
|
12. |
Алгоритмы упорядоченной минимизации суммар |
|
||
|
|
|
ного р и ск а ..................................................................... |
|
151 |
|
§ |
13. |
Алгоритмы построения экстремальных кусочно |
|
|||
|
|
|
линейных решающих п р а в и л ................................ |
155 |
||
§ 14. Приложение к главе V I ............................................ |
156 |
|||||
Г л а в а |
VII. Примеры применения методов обучения распоз |
|
||||
|
|
|
наванию образов...................................................... |
161 |
||
§ |
1. |
Задача о различении нефтеносных и водоносных |
|
|||
|
|
|
пластов в скважине......................................................... |
161 |
||
§ |
|
2. |
Задачао |
различении сходных почерков . . . . |
164 |
|
§ |
|
3. |
Задачао |
контроле |
качествапродукции . . . . |
166 |
§ |
|
4. |
Задачао прогнозе |
погоды .......................................... |
169 |
|
§ |
|
5. |
Применение методов обучения распознаванию обра |
|
||
|
|
|
зов в медицине................................................................. |
|
171 |
|
§ |
6. |
Замечания о применениях методов обучения рас |
|
|||
|
|
|
познаванию образов...................................................... |
176 |
||
Г л а в а |
VIII. Несколько общихзамечаний............................. |
178 |
||||
§ |
|
1. |
Еще раз о постановке задачи.................................... |
178 |
||
§ |
|
2. |
Физики об интуиции................................................... |
180 |
||
§ |
|
3. |
Машинная и н т у и ц и я ................................................ |
181 |
||
§ |
|
4. |
О мире, в котором возможна интуиция................. |
181 |
6 |
|
|
|
ОГЛАВЛЕНИЕ |
|
|
|
|
|
|
|
Ч А С Т Ь В Т О Р А Я |
|
|
|
||
С Т А Т И С Т И Ч Е С К И Е О С Н О В Ы Т Е О Р И И |
|
|||||||
Г л а в а |
|
IX. О сходимости рекуррентных алгоритмов обу |
|
|||||
|
|
чения распознаванию образов................ |
184 |
|
||||
§ |
1. |
Определение понятия сходимости............... |
184 |
|
||||
§ |
2. |
Выпуклые функции |
......................................... |
|
187 |
|
||
§ |
3. |
Обобщенный градиент.................................... |
|
188 |
|
|||
§ |
4. |
Условия сходимости |
рекуррентныхалгоритмов |
190 |
||||
§ |
5. |
Еще одно условие сходимости рекуррентных ал |
|
|||||
|
|
горитмов ............................................................................ |
|
|
|
|
|
200 |
Г л а в а |
|
X. Достаточные условия равномерной сходимости |
|
|||||
|
|
частот к вероятностям по классу событий . . . |
203 |
|||||
§ 1 . 0 близости минимума эмпирического риска к ми |
|
|||||||
|
|
нимуму среднего риска.................................... |
|
203 |
|
|||
§ 2. |
Определение |
равномерной |
сходимости |
частот |
|
|||
|
|
к вероятностям..................................................... |
|
|
206 |
|
||
§ |
3. |
Определение функции ...........................роста |
|
211 |
|
|||
§ |
4. |
Свойство функции роста ................................ |
|
213 |
|
|||
§ 5. |
Основная лемма................................................ |
|
|
219 |
|
|||
§ |
6. |
Вывод достаточных условий |
равномерной сходи |
|
||||
|
|
мости частот к |
вероятностям |
по классу событий |
223 |
|||
§ |
7. |
О равномерной сходимости с вероятностью единица |
229 |
|||||
§ |
8. |
Примеры и дополнительные ................ |
замечания |
|
231 |
|||
§ |
9. |
Приложение к главе X ................................................ |
|
|
236 |
|||
Г л а в а |
|
XI. Необходимые и достаточные условия |
равно |
|
||||
|
|
мерной сходимости частот к вероятностям по |
|
|||||
|
|
классу |
собы тий...................................................... |
|
|
|
240 |
|
§ |
1. |
Энтропия |
системы собы .....................................тий |
|
240 |
|||
§ 2. Асимптотические свойства ....................энтропии |
|
242 |
||||||
§ |
3. |
Необходимые и достаточные условия равномерной |
|
|||||
|
|
сходимости (доказательство достаточности) |
. . . |
248 |
||||
§ |
4. |
Доказательство |
необходимости условий |
равно |
|
|||
|
|
мерной сходимости..................... ............................. |
|
; |
|
251 |
||
§ 5. Примеры и дополнительные ...................критерии |
|
261 |
||||||
Г л а в а |
XII. Оценки |
равномерного относительного |
укло |
|
||||
|
|
нения частот от вероятностей в классе событий |
267 |
|||||
§ |
1. |
О равномерном |
относительном уклонении |
. . . |
267 |
|||
§ |
2. |
Оценка равномерного |
относительного уклонения |
|
||||
|
|
частот в двух полувыборках..................................... |
|
269 |