Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Журавлёв, Ю. И. Алгоритмы вычисления оценок и их применение [монография]

.pdf
Скачиваний:
53
Добавлен:
19.10.2023
Размер:
5.37 Mб
Скачать

Основываясь на теоремах о вычислении оценок, формулы (ШЛО), (ШЛЗ) можно представить в явном виде. Так, используя результаты, полученные в пп. 1, 2, 5 § 3 гл. II, выражению (ШЛЗ) можно придать соответствующий явный вид:

 

l

 

 

 

" ' l l

 

2

c l

А (») =

V

1

 

 

V

 

) i

r ( S , , S,,)

„ = 1

m m

И - 1

,

Jmi

I

m j

 

 

и

0

 

V

v

ck

 

 

 

 

 

 

 

 

 

 

 

j

jLj

~

 

 

 

 

 

 

-j=lt=m}_ 1+ 1 / - ( S , , S (/)

V

' - « н и

(III.14)

 

 

v v

c*

 

 

l

 

i

- 2

 

mll

 

 

ТГТТ]

V

i

m/

mu- П 1

 

 

V

V

 

 

 

—J

t=mj_-[ +1

 

 

L-/=l

X ( sr s„) -0

 

V

l 9 ( ' ' Ю

 

 

<=т„_г!-1

 

(IIIЛ5)

 

 

 

i

S

( 2' и л ) _

,

j = . \ t = m j _ v v \ \

 

 

a (0

v

X

 

«в - m„-l

 

■h

e

■a

 

V

v

X

9=лг„_1+ 1

*K

2

 

- 1 + 1

* = °

71 - p ( •Г Г S ,;)

P ( S r

S ll)

I

m j

e

c*_x

 

 

V

V

у

• CA

 

j—1<=«'/-! + ' л = 0

я- P ( s 9 )

P (

S (/)

e

c fc—X

 

•CA

 

 

S

 

 

 

< = m „ _ l + 1 >--0

л p ( S' , S i ) - 1

p ( S' , S ^ )

/

my

E

 

(Ш.16)

c k~ l

c l

2

V

V

j=\t=^_vYl^0

n- ~ ( 4 Se)

^ ( Sr S‘q)

40

Аналогично по результатам, полученным в пп. 3, 4, 6, можно вывести явные формулы для подсчета p(i). Подобным же обра­ зом выписываются формулы при определении p(i) по соотношению- (111.10).

§4. Вычислительные алгоритмы получения

информационных весов и оценки их сложности

Используя результаты и формулы предыдущего параграфа, по­ строим вычислительные алгоритмы для получения значений инфор­ мационных весов признаков.

Вели вычисления проводятся для объектов с произвольными: признаками, то возникает необходимость в предварительном за­ дании указанных выше порогов £j , s„, ... , zn . Естественно эти

величины задавать, основываясь на значениях признаков исход­ ной таблицы. Один из подходов к вычислению е. -порогов для.

произвольных таблиц по каждому признаку или по группам раз­ биения (однородные группы признаков) приводится в работе[46]

и в § 7 гл. IV.

 

процедуру

вычисления

значений p t (£)_

Рассмотрим подробно

Подсчитываем величины, содержащиеся в соотношениях (III.6)—

(III.8). Для этого необходима матрица расстояний р

, S g), j

ф q,

j = 1, 2, ...., т\

<7 = 1 , 2,

... , т.

строками Sj =

(а,, «2»

 

Расстояние

Хемминга

между

 

S g = ( Pj , , ...,

Рл ) равно

числу различных разрядов строк.

Для

сравнения требуется т 2 т машинных операций. Полученная мат­

рица будет иметь вид

 

 

 

(III.17).

Далее находим

lm1 -j-1 (mt) тх

• • • -f I (т

=

величин из (III.6) —(III.8).

по формуле

 

Каждую из этих

величин вычисляем

 

[ и — р (S j , S q) ]• ■• [ п — р (5 у, S q)— k + 1 ]

Для определения по

последней формуле одного значения

Ги (S. ) требуется (п k)

к [ти — mH_1j -ф 1 операция.

Для построения матрицы Гц (Sj ), j = 1, 2, ... , т, к = 1, 2,... , I необходимо (п к) 1кт т2 операции.

т I

Выводим У]

^ I’B(Sy) для

всех у, и.

j— I

U= 1

 

На это уходит операций.

 

Сумму правильно поданных голосов записываем в виде

Ш\

гг.j

т

£ ' = 2

 

2

!\ . ( s . ) + - - - +

2

Г,( М -

? = 1

 

q = ш ;-| 1

< 7 = т ; _ 1 + 1

 

 

Для данного

вычисления

используется ml

операций.

Делим L'

на L и получаем

0 (см.

формулу (III. 12)).

 

 

 

Всего для определения в требуется, таким образом,

 

т 2 т

т- + Imk (а — k)-\-mi 1

 

 

операция.

 

 

можно переписать так:

 

 

Последнюю величину

 

 

 

 

т2 2т L 1пгк (п к)

-ф 1.

 

 

Если т =

100,

п — 50,

k — 10, 1 — 2, то

число

необходимых

операций равно

15000 -ф 400 -ф 80000 — 50+1 = 95 351 ^ 100000.

На машине типа М-220 такая задача будет

решаться

около ми­

нуты, на машине БЭСМ-6 — несколько секунд.

 

 

Для определения второй компоненты 0 из

таблицы

удаляется

г-й столбец, на вновь полученной таблице проводятся повторные

все ранее описанные вычисления. При этом

затрачивается

опе­

раций несколько меньше, чем - |- m 2 4- 2ml-\-Lmk {а— к)

-ф 1.

Из приведенных формул нетрудно видеть,

что при /и-<1000,

п <200, k < 50, /< Л 0 задача нахождения информационного

веса

разрешима на машине БЭСМ-6.

Вычисление по формуле (ШЛО) требует значительно меньшего числа операций. При этом формируются только матрицы расстоя­ ний в пределах одного класса

р(51, s 8), р (S,, s 3), ... , Р (Slf

Smi)

p(S.2, S 3), . . . , p(S2, S mi)

-i’

.)

42

и так далее для всех I классов. На данный подсчет необходимо

т\—тх

(т., т^~—(гп.,—т{)

 

(т —mt_x)12*—(jn—ml_l)

2 ‘

2

I

2

операций.

Далее в каждом классе подсчитываются правильно поданные голоса

М5*.)

Г, (S mi+1), г 2(S„i+a).......Г.2( S J

На

вычисление

каждой

компоненты

уходит также (n—k) k

+ \inu — ти_х) +

1

операций.

Но общее число операций

при по­

строении последней матрицы здесь существенно меньше,

чем при

построении матрицы для (III.13).

 

 

 

для таблицы,

Имея матрицу

 

(111.18) и

аналогичную матрицу

из которой

 

удален /-й столбец,

без

труда

находим

значения

А.,, ... , Л,

и подсчитываем

вес р х(г).

 

 

 

Если для подсчета

голосов использовать

формулу

 

 

 

 

г „ (5) =

2

 

( 2 r (s,s") - l ) ,

 

 

то потребуется меньшее число операций.

 

 

 

Теперь рассмотрим процедуру вычисления ръ1:

 

 

1)

находим

матрицу

расстояний

р (5;.,

SJt Sq — строки

исходной

таблицы.

Последовательно

проверяем

неравенства

| ач — 3f| ^ e r

i =

1, 2, ... , п и подсчитываем

общее

число невы­

полненных

неравенств;

 

(S^

(у —строка исходной таблицы,

2) вычисляем величины Гц

и = 1,

2, ... ,

/) по формуле

 

 

 

 

 

 

 

^

 

С5 /

)

=

Y

 

V с ъ-ь

 

с\

 

 

 

 

 

 

 

n-p(S;..J?)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Строим матрицу

 

 

 

 

 

 

 

 

 

 

 

 

 

Г 1 ( 5 , ) .

( 5 , ) .

-

- г ! ( $ « , )

 

 

 

 

 

 

 

 

 

М 5*)....... Г2(5*,)

 

 

 

43

г , №

)■ г . №)■ -

• И (S.,)

 

 

 

*1

)’

1 1(^mt_ !+2 ) ’ ••• •

Г. (5«)

 

-12 (^ тг_!+1) ’

* 2

)>

М 5*)

 

r ,

).

r , ( S . , . 1+s). -

($.):

 

3) суммируем

все элементы матрицы, Получаем

величину

вычисляем сумму

L' правильно поданных голосов по формуле

/77,

7773

 

 

m

 

* ' - 2 Г, < ? , ) + 2

r s (s ,) + ' -+

2

г, и -

<2=1

g=mJ+1

 

 

Я—т/—1‘Ы

Делим U на L, получаем величину 0;

4)удаляем из исходной таблицы столбец с номером i. Пр

этом строки

таблицы

S, , S'.,,..., S m переходят

в Sj

, S 2‘ , ... , S ml m

Для

новых пар

строк Sj ,

рассчитываем

матрицу расстоя­

ний р

(S) , S ‘g ).

 

 

 

 

 

 

 

Находим

величины Га ^S ! j

по формуле

 

 

 

Г ,(5 ‘ ) =

 

Т)

2

С*~~

 

' С~

 

 

 

{ '

«=»„-!+! »=0

■n - f^ s ‘,s‘9y i

p(sj, $')

Строим матрицу

|

Г {St

j j. Суммируя элементы

матрицы, по­

лучаем

величину

L.

Вычисляем сумму L' правильно поданных

голосов:

 

 

ТПч

 

 

 

 

 

772,

 

 

 

 

/77

 

Z = 2 r . ( s ', ) +

2

М 4 ) + - - +

 

2

г - ( 4 ) -

 

? = 1

 

 

? = m j + 1

 

,q = mi_i + l

 

Находим 0 = - ^ - .Наконец, рй(г) = 0 — 0. Приводим схему

L

вычисления для р ь (г), но с использованием формулы (ШЛО).

1.Подсчитываем расстояния р (5., -S ) для следующих пар строк

,52 ; 5, , 53 ; ...; Sj , ; ... ; Sm[_l+l . -Sm;_]+2 ! ••• >

S2, S3 ; ... ; S2, Sm \ ... ; S

_

m / _ l + 3 ’ ••• ’ °/nz_j-l-2 1

 

mi —i~f2

44

т, —1 5.

Для каждой строки S. определяем число (строка Sj содержится в классе и) по формуле

ш„

5т -I’

голосов Гц

 

г - ( 5у)

 

V

l + l

У ск~х

Stj)

■ск

 

 

 

 

 

Q ~ m u _

Х=0

n - p ( S y .

9 ( S j , S q)

 

 

2.

Удаляем

из

таблицы

столбец

с

номером

I.

Строки S ,,

S9, ....,

Sm при этом переходят в Sj

, Sj .

 

$ т‘ -

 

 

Вычисляем

матрицы,

аналогичные матрицам из п.

1, но для

строк S j , Sj .

 

 

 

 

 

 

 

 

 

 

 

Для

каждой строки S'

находим

число

голосов по

формуле

 

 

 

ти

 

в

 

 

 

 

 

 

 

 

t (s i ) =

2 2

 

2

° k~~

..

 

-с ~

 

 

 

1

q = m u _ l + 1 М М )

п -

q

 

 

Р ( « j ■

)

 

3. Выводим величины

А,, А .,..., Дг.

4. Устанавливаем

Эти вычислительные схемы для подсчета информационных ве­ сов с помощью процедур голосования могут быть оформлены про­ граммно различным образом в зависимости от типа и математи­ ческого обеспечения ЭВМ.

§ 5. Некоторые применения меры важности признаков

Выше мы ввели понятия меры важности объекта в системе, ин­ формационного веса признака и получили эффективные формулы для их подсчета. Эти величины представляют интерес лишь тогда, когда их удается использовать (причем эффективно) при решении тех или иных практических задач.

Опишем еще три примера возможностей применения информа­ ционных весов в практических задачах.

1. Допустим, что для получения информации о свойствах (при­ знаках) изучаемого объекта требуется затрачивать определенные ресурсы (время, денежные затраты и т. д.). При этом необходимо получить информацию о таком числе свойств объекта, чтобы опи­ сание последнего было как можно более полным; но заранее неиз­ вестно, на какие из свойств следует обращать внимание, а какие

45

можно зообгае не рассматривать. Эта задача аналогична задаче получения непзбыточных описаний исследуемых объектов. Если каким-то образом при изучении объектов удалось бы оперировать только неизбыточными описаниями (получать их), то удалось бы сократить и материальные затраты. Такая задача зачастую воз­ никает. например, при определении наличия или отсутствия тех или иных полезных ископаемых в геологических объектах. По-ви­ димому, знание важности признаков (свойств) данных объектов может сыграть здесь положительную роль. Рассмотрим использо­ вание информационных весов в этом аспекте.

Многолетний опыт геологических исследований дает возмож­ ность при обследовании совершенно нового геологического региона систематизировать априорные данные таким образом, чтобы выра­ ботать предварительные системы признаков объектов, на которых строго выполняется функция цели, т. е. позволяет разработать не­ которую таблицу эталонных объектов.

С помощью такой таблицы можно оценить важность того или иного признака (геологического фактора) с использованием ука­ занных выше голосующих процедур.

Пусть в системе эталонных объектов рассматривается совокуп­ ность признаков, обозначенных номерами 1, 2, ..., п и с помощью одной из формул (ШЛО) или (III.13) получены их веса/?(1),/7(2),..., р(п). В этом случае возможно установить важность групп призна­ ков, т. е. провести их ранжирование путем упорядочения информа­ ционных весов по степени убывания и построения графика, где по оси ординат откладываются p(i/), а по осп абсцисс — соответству­ ющие номера признаков г'у. При таком построении, обычно, сово­ купность признаков распадается на четко выраженные группы. Число признаков может быть различным и колебания их значений внутри групп намного меньше, чем между ними.

Каждой группе признаков можно сопоставить определенный ранг так, что группы признаков первого ранга будут иметь инфор­ мационные веса существенно большие, чем веса признаков второго; веса признаков группы второго ранга имеют значения намного большие, чем веса признаков третьего и т. д.

Можно считать теперь существенными группы признаков выс­ ших рангов и несущественными признаки некоторого числа групп низшего ранга.

При решении конкретных задач и выдаче рекомендаций для спе­ циалистов основное внимание следует уделять именно получению информации по признакам высшего ранга. Отбрасывая некоторое число менее существенных признаков, которые, с точки зрения ко­ личества информации об изучаемом объекте несут меньшую функциональную нагрузку, при проведении работ удается сокра­ тить и сроки, и материальные затраты, и людские ресурсы.

Подобная постановка может быть осуществлена не только для геологоразведочных работ, но и для множества других не менее важных практических задач.

2. Опишем другой важный случай использования информаци­ онных весов признаков.

Пусть рассматривается совокупность объектов

s j = ( v V - ’ “»;)• J = 1' -• - • от-

причем для каждого признака, не только бинарного, получены зна­ чения их информационных весов.

Р{°т). Р {*■>)'- >

Используя значения р ( ос4), удается ввести понятие и опре­

делить величину информационного веса (меры важности) отдель­ ного объекта в совокупности рассматриваемых объектов. Величину

1

= 2

р Ы - я/;.

 

i =

1

где а;/- — значение г'-го

признака а. в строе Sj, назовем инфор­

мационным весом объекта.

Зная значения I(S/), j = 1, 2, ..., т, можно теперь провести аналогичную, как это было сделано для признаков, ранжировку объектов, которая приведет к разбиению множества Sj объектов по группам. Упорядочение этих групп позволяет четко выделить объекты разных рангов.

Объекты одного ранга следует отнести к одному классу. Такое построение позволяет наметить пути классификации рассматри­ ваемых объектов.

Если формальное разбиение с помощью ранжирования согла­ суется с «содержательным» разбиением, проведенным специалиста­ ми в определенной области знаний, из которой выбрана задача, то такой метод может быть экстраполирован на решение в последую­ щем новых подобных задач.

3. На объем вычислений при распознавании объектов, представ­ ленных множеством своих признаков, существенно влияет размер­ ность признакового пространства. От числа признаков (столбцов) и строк эталонной таблицы Т„т, используемой для распознавания контрольных объектов, зависит выбор типа ЭВМ, причем увеличе­ ние п и пг требует перехода к более совершенным и быстродейст­ вующим вычислительным машинам.

Поэтому задача сокращения размерности исходного признако­ вого пространства, заданного специалистами в исследуемой обла­ сти знаний, приобретает при распознавании объектов особое зна­ чение. Во многих практических случаях оказывается более предпо­ чтительным проводить удовлетворительное, пусть не абсолютно точное распознавание с меньшими затратами, чем достигать высо­ кой степени точности решения задачи дорогой ценой.

Опишем один из возможных подходов к решению задачи сокра- . щения размерности признакового пространства объектов, исполь­

47

зующий некоторую последовательную процедуру исключения при­ знаков и анализ качества распознавания на каждой итерации [39].

Пусть для всех п признаков исходной эталонной таблицы Тпт1 с помощью алгоритма А* по формуле (ШЛО) вычислены ин­

формационные веса, обозначенные для удобства дальнейших рас-

суждений через р* ( il ), ;?* ( г.,), ... , р* ( гл).

Последовательная процедура исключения признаков заклю­ чается в следующем.

Среди величин р * ( г',), р* ( г.,'), , ... , /?* ( гя ) находим макси­ мальную /?* ( i . ) и минимальную р* ( г?). Задаем шаг А и оценку

А'. Выделяем признаки, у которых меры важности находятся в отрезке

[/>*(*,), P * { i q ) + л].

Удаляем указанные признаки из таблицы Тп.п1 . К полученной таблице Tnml применяем алгоритм А* и вычисляем некоторый функционал зависящий от числа ложных распознаваний и количества отказов алгоритма от распознавания (функционал <р4*

можно вывести на основании количества

штрафных

очков,

§ 2

гл. II).

функционала

по сравнению с найденным

по

Если значение

полной таблице увеличилось не

более,

чем на А', убираем

из

таблицы Tnml признаки, у которых меры

важности

расположены

в отрезке

 

 

 

 

 

 

[ р * Ю - /» * K ) + A]-

 

 

Рассматриваем

отрезок

 

 

 

 

 

 

( г‘?) + 2Л]

 

 

и выделяем признаки, меры важности которых лежат в этом отрезке. Повторяем, вышеприведенный процесс.

Удаление признаков из таблицы заканчивается в случае, если

испытание очередной группы

признаков увеличит функционал

<Рл* на величину не меньшую,

чем

А' (по сравнению с полной

таблицей). Допустимое ухудшение

качества распознания А' оп­

ределяется из содержательных особенностей задач.

При использовании для вычисления р (г) формулы (III.13) не­

которые элементы множества

Р У; могут принимать и отрицатель­

ные значения. Тогда исключение признаков из исходной таблицы производится следующим образом.

В наборе мер важности выделяются сначала отрицательные числа, соответствующие признакам, в среднем ухудшающим каче­ ство распознавания. Такие ситуации возможны в реальных зада­ чах, так как набор признаков обычно задается специалистом в исследуемой области знаний. При отборе признаков могут играть

48

роль субъективные соображения, которые не всегда оказываются правильными.

Признаки с отрицательным весом удаляются из таблицы после­ довательно. Сначала исключается признак с самой большой аб­ солютной величиной веса, после чего осуществляется проверка — не появились ли в таблице Тпт1 одинаковые строки в разных клас­

сах. Если это произошло, то признак возвращается в таблицу. Среди оставшихся признаков снова находится признак с отрица­ тельной мерой важности наибольшей абсолютной величины. С ним проводится такое же испытание, как п с первым, и т. д. Когда дальнейшее удаление признаков становится невозможным, с остав­ шимися признаками (ь г2, ..., ia с соответствующими информацион­

ными весами p*(i\), р*(к),

) производится такая же по­

следовательная процедура, как и в случае использования формулы (ШЛО). При этом задаются определенный шаг А и оценка А'.

Описанная методика позволяет уменьшить размерность при­ знакового пространства за счет некоторого ухудшения качества распознавания.

4 -6 0

49

 

Соседние файлы в папке книги из ГПНТБ