
книги из ГПНТБ / Горелик, А. Л. Некоторые вопросы построения систем распознавания
.pdfМу закону, iiâ участок от а до Ь. СледойательНО,
■(Z -
а У 2‘ |
і |
|
(2.17) |
где Ф(/) — функция Лапласа. |
|
В нашем случае Z — X j, b = bij, а = ац, т = О, |
так как |
систематическая ошибка в измерении признаков Xj от
сутствует и n='<Tj. Поэтому
/< № ) = |
1 |
Гф 7 |
-ѵ* |
(2.18) |
^ і ' ^г;) L V а, Р 3 |
<чѴ*~ |
Рассмотрим вопрос о возможных методах построения функций Р(Уг), і=1, ..., т, т. е. априорных вероятно стей появления объектов і-х классов. В том случае, ког
да априорная вероятность не зависит от времени, значе ния Р (Qi) могут быть определены на основании частот
событий:
Р* (Qi) =Ni(N,
где N — общее количество доступных изучению объектов
во |
всех |
классах, а Ni — количество объектов в і-м |
||
классе. |
|
|
в частности |
|
В |
некоторых системах распознавания, |
|||
в системах |
медицинской |
диагностики, P(Qi) |
может за |
|
висеть от времени. Это |
может быть связано, например, |
с распространением эпидемии какого-либо заболевания, составляющего или входящего в какой-либо класс си стемы. В этом случае следует изучить поведение функ ций P(Qj) во времени до текущего момента, а затем на основе тщательного изучения явления произвести их
экстраполяцию на |
определенный |
промежуток |
времени. |
В том случае, когда непосредственно изучить априор |
|||
ную информацию |
невозможно, |
приходится |
прибегать |
к эвристическому конструированию законов распределе ния значений признаков по классам fi(Xj), і= 1, ..., т; j = 1, ..., N, и функций P(Qi).
Задача определения функций fi(Xj) может быть ре
шена следующим образом. Положим, что группа квали фицированных специалистов согласилась дать эксперт ные оценки возможных значений признаков объектов всех классов. Пусть применительно к і-му классу оценки возможных значений признаков Xj, по мнению экспер тов, Ah, k — \, .... S, составляют Cjg, g= 1, ..., tij. Для
29
Наглядности сведем суждений эксйерТов в таблицу вида
|
|
|
Т а б л и ц а 2.1 |
Наименование ре- |
|
Признаки |
X j |
|
|
х р |
|
шений альтернатив |
X, |
Х 1 |
|
|
|
|
|
|
с ! |
с \ |
C f |
С 1 |
|
4 |
|
|
|
|
|
|
С'Пі |
( J |
Г-Ѵ |
|
п і |
nN |
|
|
|
В таблице верхний индекс у решений С1 относится
к номеру признака, а нижний — определяет его возмож ное значение. Наличие нескольких решений по каждому признаку есть следствие того, что эксперты могут ука зывать не на одну, а на несколько альтернатив. Поло жим, что при определении значения признака Хі объек тов і'-го класса эксперты подразделились на р групп.
При этом 1-я группа, состоящая из а экспертов, ука
зала, |
что значение признака равно С1, 2-я (Ь экспертов)— |
|||
С1 |
Р-я группа (k |
экспертов) — С1(г, |
ц, <7= 1 ,..., |
|
ііі). Обозначим „веса“ |
мнений |
экспертов |
каждой группы |
|
через |
ßj1’, Y = 1, ..., |
а; ß '2), <р= |
1, ... , b; |
ф = 1,... , k. |
„веса“ мнений групп равны:
|
|
а |
|
|
|
|
|
|
ь |
|
|
i x |
* ) |
= |
1 |
ß |
( |
— |
;= 2 4 |
=>■ . |
у |
- В |
( 12 ). |
|
|
|
D I )< |
|
у |
||||||
|
а и 1 |
|
1 |
’ |
|
Ь |
9 |
2 |
d |
||
|
7 |
|
= 1 |
|
1 |
|
|
|
= |
(2.19) |
|
|
|
|
|
|
|
|
k |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Я<р>= |
т |
в [ р ) . |
|
|
|||
|
|
|
|
|
|
|
Ф |
і |
|
|
|
|
|
|
|
|
|
Ф |
- |
і |
|
|
|
Будем полагать, что статистическая вероятность каждого из названных группами экспертов значений признака
30
пропорциональна «весам» их авторитетов. Тогда
Р*(С') =D <1>/D; |
P*(Cjj = D (2>/D;...; Р* (C') = DWfD, |
где Z?= £ ) ( » + |
. . . +Z)(p). |
Наличие значений признаков Xj в i-x классах и соот
ветствующих им статистических вероятностей позволяет построить статистические ряды, а затем произвести вы равнивание (сглаживание) и, следовательно, определить искомые функции распределения fi(Xj) [3].
Метод определения функций P(Q;) аналогичен при веденному. Таким образом, эвристический подход к фор мированию априорных сведений основывается на обра ботке результатов опроса группы экспертов с учетом их авторитета. При этом предполагается, что научно-техни ческий уровень экспертов достаточно высок, а их ре шения обусловлены только физическими или обществен ными законами и техническими возможностями.
2.2.АЛГОРИТМЫ РАСПОЗНАВАНИЯ, ОСНОВАННЫЕ НА ТЕОРИИ СТАТИСТИЧЕСКИХ РЕШЕНИИ
Мы рассмотрели вопросы, связанные с анализом априорной информации и построением функций плотно сти вероятности значений признаков объектов по клас сам. Наличие этих функций, наряду с функциями апри орных вероятностей появления объектов соответствую щих классов, позволяет приступить к конструированию собственно алгоритмов распознавания.
Анализ характера задачи распознавания в условиях неполной информации, т. е. при наличии вероятностной связи между признаками объектов и классами, показал, что для построения алгоритмов распознавания с успе хом может быть использована теория статистических решений или, иначе, статистическая теория проверки ги потез, созданная Нейманом и Пирсоном.
Рассмотрим, в чем состоит суть теории проверки ги потез па простом примере. Положим: перед нами постав лена задача распознавать объекты, когда число классов равно двум, а объекты описываются одним признаком
X [5].
Пусть класс I описывается функцией условной ности вероятности fi(X), а класс П — функцией
взаимное расположение которых представлено на рис. 2.1. (И
X
Пусть, кроме того, заданы априорные вероятности появ ления объектов I и II и классов Р(І) и Р(ІІ) = 1—Р (І). В результате эксперимента определено значение призна ка распознаваемого объекта, равное X. Спрашивается,
к какому классу отнести объект?
Обозначим через Х0 некоторое, пока неопределенное
число и условимся о следующем правиле принятия ре
шений: |
|
если Х > Х 0, |
то объект будем относить ко II классу; |
если Х^ Х о , |
— к I классу. |
Если объект относится к классу I, а его считают объектом клас са II, то совершена ошибка, которая называется ошибкой первого рода. По терминологии теории статистических решений, ошибочно выбрана гипотеза Нг, в то время как справедлива гипотеза Ни
Вероятность ошибки первого рода, т. е. вероятность отнести объект к классу II, когда он относится к классу I,
оо
Q1= \ h ( X ) d X . |
(2.20) |
Х0
Наоборот, если справедлива гипотеза Нг. а отдано предпочтение гипотезе # і, то совершена ошибка второго рода, вероятность кото рой равна
х„
Q .= ] h ( X ) d X , |
(2.21) |
С?2 есть вероятность выбрать гипотезу Ни когда справедлива гипо теза Нг.
В некоторых приложениях теории статистических ре шений вероятность ошибки первого рода подчас называ ют вероятностью ложной тревоги, в то время как вероят ность ошибки второго рода — вероятностью пропуска
цели.
■ , ■ *і
32
Если fi(X) и fz(X) подчинены нормальным законам распределения с математическими ожиданиями ßi и az
соответственно и среднеквадратическими отклонениями ві — ö‘i= o , т. е. имеют вид
іС-{Х-аЩ!Ъ\1
а Ѵ2Х
|
М *) = |
- |
( X - a \ ) ß 0 f |
|
||
|
|
|
|
|
||
то вероятность ложной тревоги равна |
|
|||||
|
00 |
|
со |
|
||
Q ,= Q * t = S |
|
ft (X)dX-^= |
\ f 1( X ) d X ~ |
|
||
|
Хо |
|
—oo |
|
||
- |
]° f, ( X ) d X - ^ l - F |
( X 0 -[ a t)/a, |
(2.22) |
|||
—oo |
|
|
|
|
|
|
где F(t) — функция Лапласа. |
|
|
|
|||
Вероятность пропуска цели равна |
|
|||||
Qz = |
Qnp= |
^ f A X ) d X = |
F (X lt- a t)lo. |
(2.23) |
||
Условные вероятности правильных решений при спра |
||||||
ведливости гипотез Н1 |
и Hz соответственно равны |
|
||||
|
0 1= l - Q nT= /7№ -ai)/(T , |
(2.24) |
||||
|
Ö2= l —Qnp= l —F(Xo-az)/o, |
(2.25) |
В теории статистических решений Qnr называется раз
мером испытаний, Dz— 1—Qnp— мощностью |
испытаний. |
В приведенных выражениях для Qi и Qz при инте |
|
грировании функций fі(Х) и fz(X) в пределах от — оо до |
|
Х 0 произведена замена Х0—a/a — t, которая |
приводит |
к интегралам вида |
|
|
|
(Хо-а,)/о |
|
|
(Х0-с,)/ч |
J |
е - * |
1X2:* |
—/*/2dt. |
|
|
1 |
Для вычисления этих интегралов ввиду того, что они не выражаются через элементарные функции, пользуют-
3-452 |
33 |
ся таблицами специальных функций
(Х-а)/о
V2Ü
которые приведены в работах ряда авторов (например,
И ) .
При многомерных нормальных распределениях могу г быть получены функции Fn (%2), которые являются п- мерными аналогами интеграла вероятностей F(t). Для
этих функций при 2 < п < 1 9 разработаны таблицы (7]. При выборе значения Х0, т. е. при разделении про
странства признака А' на два полупространства R\ и R2,
необходимо учитывать, с чем сопряжено совершениеошибок первого и второго рода. Можно полагать, что эти ошибки связаны с нанесением стороне, включающей в се бя систему распознавания, определенного ущерба, что распознающая сторона несет определенные потери. Ве личина этих потерь определяет собой плату за ошибки, иначе стоимости принятия ошибочных решений. В об щем виде мы имеем дело со следующими стоимостями (рисками): Сі2— стоимость ошибки первого рода, С21— стоимость ошибки второго рода, Си, С22 — стоимости
правильных решений.
Указанные стоимости можно записать в виде матри цы цен
|с„ ^12 1^*21 С2%
Средняя стоимость, которую приходится платить при многократном распознавании неизвестных объектов, рав на сумме стоимостей неправильных и правильных реше ний с учетом вероятностей их появления и априорных вероятностей поступления на вход системы распознана ния объектов I и II классов, т. е.
C = -P (I)C n (l- Q „ T) + P ( I) C i2QnT+
+ P(II)C22( l - Q Dp)+P (II)C 21Qnp. |
(2.26) |
34
Подставив в (2.26) выражения для вероятностей Qaт и
Qnp, получим
|
Хо |
со |
1 |
С = Р ( I) |
Сп jM X )rfX + |
C12 J h ( X ) d X |
+ |
|
оо |
Хо |
Т |
+ Р(ІІ) |
C22J / 2(X)dX + |
C21 j /2 (X)dX I . (2.27) |
|
|
Xo |
—oo |
J |
Произведение вида CkQk называется риском, соответст вующим k -й гипотезе. Системы распознавания, как пра вило, являются системами многократного действия.
Именно поэтому необходимо, чтобы выбору Х0 был осу ществлен с учетом того, чтобы величина С была мини
мальна.
Для определения величины Х0, при_которой средний риск минимален, продифференцируем С по X и прирав няем производную нулю, положив X= Х0
-Ѣ I Рѵ IеW^ = |
( |
Сх 12Л (*Хо)) + |
о= ) |
+ Р (И) [C J* (Хо) - |
c |
j 2(X,)] = 0. |
(2.28) |
Откуда
/2(Хо)//1 (Хо) = Р (I) (С12- С „ )/Р (II) (С2і - С 22) . (2.29)
Отношение плотностей вероятности f2(X)/fl (X) назы вают отношением или коэффициентом правдоподобия.
При Х = Х0 коэффициент правдоподобия приобретает кри тическое значение и обозначается либо Хо, либо Х(Х0).
Положим для примера, что Сц = С22= 0 , Сі2= С і и
€ 2і = С2. Тогда
h (Хо) /fi (Хо) = |
Р (I) Сі/Р (11) С2= Х0. |
(2.30) |
||
Откуда при Оі= (Т2= сг |
|
|
|
|
Хо = ехр—[(Хо—аі)2— (Хо—а2)2]/2о2. |
(2.31) |
|||
Решая это уравнение относительно Х0, получаем |
|
|||
Ді + Й2 |
I |
°2 |
1п Р(І) Cl |
(2.32) |
2 |
"Г а2- а , |
Р(П)Са |
|
при Сі = С2 и Р(І )=Р( ІІ )
Хо= (йі + а2)/2.
3: |
35 |
Знание Х0> при котором осуществляется оптимальное
в смысле минимума риска разделение пространства на две области Ri и R%, позволяет минимизировать ошибку
классификации. Если Х <Х 0, то следует принять реше ние о принадлежности объекта к классу I, а если Х> >2Г0— то к классу II. Область R і состоит из значений X
для |
которых Я (X) <К0, |
а R2 — из |
значений X, для кото |
рых |
А(Х)>Яо. Поэтому |
решение |
об отнесении объекта |
к классу I следует принимать, если значение коэффи циента правдоподобия меньше его критического значе ния, и к классу II — при противоположной ситуации..
2.3. КРИТЕРИИ БАЙЕСА
Правило, по которому стратегия решений выбирается так, чтобы минимизировать средний риск, называется критерием Байеса. Применение подобного критерия осо
бенно целесообразно в том случае, когда необходимо принимать многократно решения в одинаковых усло виях.
Минимизация среднего риска будет иметь место в том случае, если гипотеза # і принимается тогда, когда изме ренное значение X лежит в области Ri, а если в обла сти Rz, то принимается гипотеза Я2. Докажем, что байе
совская стратегия обеспечивает минимальный средний риск, который называется байесовским риском. Для это
го вычислим средний риск, когда используется стратегия,
отличная от байесовской |
(рис. 2.2). |
Пусть, |
|
например* |
|
используется |
стратегия А, т. е. принимается |
решение |
|||
о принадлежности объекта к классу |
I, если |
Х < Х А, и |
|||
к классу II, |
если Х > Х А. |
|
|
|
_ |
Разность среднего риска при подобной стратегии СА |
|||||
и байесовского риска С будет равна |
|
|
|
||
с А - Ѵ = |
Р (И) С21 h (X) d X ~ P (I) Cl j h (X) d X = |
||||
|
r2 |
|
r2 |
|
|
= |
[ J h (X )d x - |
Я0 J /, (X)dX]p(\\)C2. |
(2.33) |
||
|
r2 |
r2 |
|
|
|
В_области rz^ R 2 f2(X)>Xofi(X), |
значит |
CA—C > 0, |
|||
T. e. CA>C. |
|
|
|
|
|
При выборе стратегии В, т. е. когда принимается ре |
|||||
шение о принадлежности |
объекта к классу |
I, |
если Х < |
36
< Х В, и к классу II, |
если Х > Х В, разность средних ри |
|||
сков этой и байесовской стратегии будет равна |
|
|||
св - Г - = Р (I) С, j |
и (X) dX - |
Р (II) С2 j>2(X) d X ^ |
||
|
Гі |
|
гI |
|
= [я* J h (X) d X - I f , |
(X) dX] P(U)C2. |
(2.34) |
||
|
n |
rt |
|
|
В_области |
r i^ R i |
X0fi(X)>f2(X), значит CB—C>0, |
||
T. e. CB>C. |
|
|
|
|
Байесовская |
стратегия может быть описана |
также |
с помощью других соостношений. Пусть в результате опы-
Рис. 2.2.
та установлено, что признак распознаваемого объекта составляет величину У0. Тогда условная вероятность при надлежности этого объекта к первому классу или, ина че, условная вероятность первой гипотезы равна
р(Ну\ Х °)=Р ( І ) П(Х°)If (X«), |
' (2.35) |
а условная вероятность второй гипотезы
Р(Н2\Х°) = P ( l l ) f 2(X°)lf(X°), |
(2.36) |
где f (У0) =P(l)fi(X°) +P(II)f2(X°)— полная плотность вероятности результатов X при всех опытах. Величины Р( Ні|Х°) и Р(Н2\Х°) называются также апостериорными
вероятностями.
Условный риск, связанный с выбором гипотезы Ну,
будет равен
С(Ну\Х°)=С2Р(Н2\Х°), (2.37)
а условный риск при выборе гипотезы Н2 будет равен
С (Н21Х°) — СуР (Ну I У0) . |
(2.38) |
37
Система распознавания, основанная на байесовой стратегии, должна решать задачу с минимумом услов ного риска. Это значит, что предпочтение первой гипо тезе следует отдавать тогда, когда
с (Hi\x °)!с ( н 2\х°) < і. |
(2.39) |
Следовательно, первая гипотеза должна приниматься тогда, когда
С1Р( НІ \Х°)>С2Р(Н2\Х°) |
(2.40) |
или |
(2.41) |
Р (Н 1\Х0)/Р(Н2\Х°)>С2ІСі. |
Таким образом, байесов подход к решению задачи распознавания состоит в вычислении условных апосте риорных вероятностей и принятия решения на основа нии сравнения их величин. Если число классов больше двух и равно т, то апостериорная вероятность отнесе
ния распознаваемого объекта к t-му классу равна
|
Р Щ Х ° ) = Р № ) Ь ( Х ° ) |
2 |
т ) № |
° ) . |
(2.42) |
|||||
В том случае, |
когда |
объекты характеризуются N приз |
||||||||
наками |
X j . ’ j = |
1,..., |
N, и признаки |
распознаваемого |
||||||
объекта |
приняли |
значения |
Х, = Х°; Х 2 = |
Х°, ..., |
2^ = |
|||||
_ \/о |
то вероятность |
того, |
что при осуществлении со |
|||||||
= Лд,, |
||||||||||
бытий aN = (X°, |
Х ° ,..., |
Х^.) |
объект |
будет |
относиться к |
|||||
t-му классу, будет |
равна |
|
|
|
|
|
|
|||
|
P m a N) |
Р ( ^ ) к ( х 1 |
х 2,° |
..., |
‘ |
(2.43) |
||||
|
т |
|
|
|
|
|
||||
|
|
|
2 т ) |
ы |
а-?, |
х°2.......x°N) |
|
|||
|
|
|
і=1 |
|
|
|
|
|
|
|
Существует и другая форма записи байесового кри |
||||||||||
терия статистического различения гипотез |
(в нашем слу |
чае отнесения объекта к тому или другому классу). Пусть, как и раньше, имеется два класса Qt и Q2, ап риорные вероятности появления объектов этих классов
соответственно Р(І) |
и б*(II) |
и |
заданы |
веса или |
цены |
ошибок первого |
Сі2=С і |
и |
второго |
С2і = С 2 |
рода, |
а Си = С22, = 0. Пусть известны также условные плотно
сти распределения вероятностей значений признаков по классам, т. е. fi(Xu ..., XN) и f2(Xit ..., XN).
38