Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Галушкин, А. И. Синтез многослойных систем распознавания образов

.pdf
Скачиваний:
38
Добавлен:
22.10.2023
Размер:
12.65 Mб
Скачать

просами оптимальной фильтрации и корреляционного (моментного) анализа многомерных случайных процессов, то здесь желательно применение рекуррентных методов, изложенных в [Л. 57, 58]. Сложные случаи переменных во времени моментов высокого порядка распределения fx (х) требуют построения оптимальных фильтров оценки упрежденного значения моментов высокого порядка, что само по себе является трудной задачей.

Несколько замечаний относительно области применения рег­ рессионного и факторного анализа в задаче синтеза СР.

Регрессионный анализ предполагает изучение статистических свойств признаков при известных условных плотностях, поэтому его можно применять только в рамках настройки по разомкнутому циклу. То же самое можно сказать и относительно факторного ана­ лиза — только в сфере решения задачи выделения информативных признаков (см. гл. 10).

3-7. Исследование точности СР, настраивающихся по разомкнутому циклу

Результатом исследования точности систем обработки инфор­ мации, синтезированных в соответствии с некоторой априорной информацией о характеристиках входного сигнала, структуре си­ стемы, и критерием качества являются вывод и анализ выражений для оценок качества достижения конечной цели обработки. В слу­ чае задач оптимальной фильтрации априорной информацией о вход­ ном сигнале является, в частности, задание характера изменения регулярной составляющей сигнала и характера распределений слу­ чайных составляющих входного сигнала на интервале памяти. Ап­ риорной информацией о структуре системы является формирование выходного сигнала системы оптимальной фильтрации в виде свертки входного сигнала и импульсной переходной функции, а также ин­ тервал интегрирования в свертке — память системы. Критерием качества является обычно минимизация случайных ошибок филь­ трации при определенных ограничениях на систематические.

Анализ точности синтезированной системы (вывод выражения для минимальных ошибок) обычно производится на уровне априор­ ной информации о характеристиках входного сигнала системы, хотя возможно исследование точности оптимальной системы при харак­ теристиках входных сигналов, отличающихся от априорных.

При исследовании точности систем распознавания образов будем рассматривать их как частный случай систем обработки ин­ формации. Здесь априорной информацией о входном сигнале яв­ ляется его размерность и характер изменения моментов на интер­ вале памяти. В данной главе рассматривается СР, описанная в

§ 3-5.

Желательно было бы синтезировать параметры разделяющей поверхности таким образом, чтобы обеспечить оптимальность по критерию первичной оптимизации. Однако это приведет к проце­ дуре синтеза нелинейных фильтров, так как связь между парамет­ рами входного сигнала и системы в данном случае должна быть су­ щественно нелинейной. Мы же останавливаемся на дополнительном задании априорной структуры блока обучения, связывающего па­ раметры входного сигнала системы и параметры системы в виде

80

выражений:

а (л) = т 1 (л) — т2(п),

а„ («) = - у [m f (л) т1(л) — ш [ (л) т 2 (л)| .

(3-19)

Кроме того, априори задаем структуру блоков получения па­ раметров входного сигнала.-Это приводит к некоторому отклонению от критерия первичной оптимизации системы распознавания даже на уровне задания априорных характеристик входного сигнала. Если принимать за критерий качества получения настраиваемых ко­ эффициентов системы минимум случайной и нуль динамической ошибки, то оптимизация по данному критерию блока получения параметров входного сигнала по каждому классу приводит к полу­ чению оптимальных по данному критерию настраиваемых парамет­ ров а (л). Это верно только для случая, когда входные сигналы пер­

вого и второго класса системы независимы. Синтез блока получе­ ния коэффициентов а (л) при зависимых классах в виде многомер­

ного линейного фильтра не представляет принципиальных затруд­ нений. Минимизация случайной и обнуление динамической ошибок получения параметров входных сигналов не приводит к удовлетво­ рению этого указанного выше критерия для а0 (л), так как а0 (л) и параметры входного сигнала связаны нелинейной зависимостью. Именно это и приводит к отклонению от критерия первичной опти­ мизации даже на уровне задания априорных характеристик вход­ ного сигнала. Исследование точности само по себе должно показать слабые стороны синтезированной системы, которые появляются при задании в процессе синтеза некоторой априорной информации о входных сигналах, структуре системы и критериях качества. Итак, останавливаясь на априорной структуре систем распозна­ вания и блоков обучения, описанных выше, будем исследовать точ­ ность обучающихся по разомкнутому циклу систем распознавания нестационарных образов в следующем порядке [Л. 56, 57]:

1.Для априорных характеристик входного сигнала и синте­ зированных блоков оценки параметров функций распределения входного сигнала исследуется точность оценки данных параметров.

2.По полученным оценкам точности вычисления параметров функций распределения входного сигнала в соответствии с’ выра­

жением (3-19) рассчитаем оценки точности получения настраивае­ мых параметров систем распознавания. Эти оценки будут оценками точности работы контура настройки по разомкнутому циклу СР не­ стационарных образов в режиме обучения.

3. Имея характеристики точности получения настраиваемых параметров системы распознавания в текущий момент времени, априорную структуру системы распознавания и характеристики (априорные или отличные от априорных) входного сигнала, можно получить оценки для точности работы замкнутой системы распо­ знавания образов в терминах вероятностей правильного распозна­ вания или ошибок как конечной цели исследования точности работы

данного класса систем.

Данная методика справедлива для любых законов распределе­ ния совокупностей образов в пространстве признаков, а не только нормального.

81

Исследование точности оценки параметров функций распределения входного сигнала

В качестве параметров функции распределения входного сиг­ нала при построении линейной разделяющей поверхности служат первые моменты распределений. Точность оценки определяется точностью многомерных фильтров для выделения векторов первых моментов многомерных случайных процессов, соответствующих первому и второму классу на входе систем распознавания. Целью данного исследования, по сути дела, является вычисление ковариа­ ционных матриц для вектора случайных ошибок многомерных фильтров. Данные ковариационные матрицы вообще могут быть различными для первого и второго класса по следующим причинам:

1.Возможно несоответствие действительных ковариационных матриц сигналов N (п) для первого и второго класса априорной ин­ формации о их равенстве. Здесь N (п) — случайная составляющая дискретного входного сигнала СР.

2.Возможна разница в значениях памяти многомерных фильт­ ров оценки векторов математических ожиданий сигналов для пер­ вого и второго класса.

3.Возможна разница в гипотезах изменения регулярных со­ ставляющих входных сигналов.

Выведем выражение для ковариационной матрицы ошибок

многомерного фильтра оценки вектора математических ожиданий в блоке обучения СР нестационарных образов. Выражение для ошибки по /-му выходу указанного многомерного фильтра имеет следующий вид:

N

М

N { , (n -i).

Мл) = 2

2

£'=1 i= О

 

Ковариационная матрица случайных ошибок определения век­ тора математических ожиданий в момент времени п имеет следую­ щий вид:

еу (п) гг (п) = | Us (л) | =

 

N

N

М

М

=

2 2

2

2

wll-(ii ) wr r ( iz)ufr(n, iv i2),

 

Г=1 i"=1£,=0 £a= 0

где Ur i , (n,

iv i^ =

Ni, ( n — ij) jV£„ (n — i'2) — ковариационная

матрица

многомерного

сигнала N (п)\ Wр (j'j) — импульсная пе­

реходная

функция

канала многомерного фильтра, соединяющего

/-й выход и i'-й вход;

М — память многомерного фильтра.

Это

выражение можно записать в матричной форме [Л. 49]

с учетом

специфики задач распознавания образов

м м

[</е(л)] = 2 2

. £,=0 £2=0 1

_ У

w / ( '

 

*'а) W, (*'а)

. /. Г =

N:

н»

1

 

 

 

м ___

 

( ‘ а) ~

 

 

 

 

г э

II JC

 

1-----

, ТУ

(<l)_

1___

м<

 

 

 

82

 

 

^ 1 1 (**,

*1 ,

*2 )

U lN (я ,

i\,

/2 )

[U [я, ib i2)] =

 

 

 

 

 

 

 

 

 

 

_?7дг1(п,

ilt i2)

. .

t/дглг (я,

h ’ *2 ) _

 

 

(*1 ,

*2 =

0, . . . .

Af).

 

 

 

С учетом того, что

 

 

 

 

 

 

 

 

 

U (я, 0, 0) . . .

U (я, О, М)

 

 

 

 

 

 

 

 

 

 

 

 

 

и (я, ЛУ,

0) . . .

У (я, Af, М)

 

 

-

IF,

(0)

-

 

 

-

Wr

(0)

-

Wy=

 

 

 

;

w r =

 

 

 

 

_

Wi

(М)

_

 

 

_

Wy

(M)

_

ковариационная матрица принимает вид:

 

 

 

 

[Ve (n)] = l'»r UWj], /, Г =

1, . . . . N.

 

В данном выражении импульсная переходная функция много­

мерного фильтра является оптимальной

 

 

 

 

 

 

W;- = U ~ lB (Bt U~'1B)~1 Му.

 

 

 

Здесь В — числовая

субматрица;

Му — вектор

ограничений

на оптимальную импульсную переходную функцию.

 

 

Отсюда следует,

что

 

 

 

 

 

 

 

 

[£/е (л)] = [[£/“

 

(BTU~'B)-' М;]тX

 

X и [ и - 1в ( в ти ~ 1в ) - 1Му,] ] , у,

/' =

1 ,___ N;

[Уе(я)]= [м7 (вти - 1в ) - 1в ти - 1и и ~ 1в (вти ~ 1в ) - 1Му,] .

Преобразовывая,

получаем:

 

 

 

 

 

 

[Ut (я)] =

[М[ (BTU - ' B ) - 1 Му,],

у,

/ ’ =

1...........N. (3-20)

Отметим, что формула (3-20) верна для случаев как стационар­ ного, так и нестационарного вида ковариационной матрицы сиг­ нала N (я); из формулы следует также симметричность матрицы Ue (я). Особенно важным для практики является случай независи­ мых признаков, так как он просто реализуется. В случае независи­ мых признаков, как видно из формулы, матрица становится диа­ гональной и уравнение для передаточного коэффициента (коэффи­ циента сглаживания) каждого канала многомерного фильтра по

83

случайной составляющей входного сигнала будет иметь следующий

вид:

о* = МТ (ВТВ)~' М =

j = k .

(3-21)

 

N\ (л)

 

Общий анализ данных выражений позволяет сделать следую­ щие выводы для СР нестационарных образов.

При обучении по разомкнутому циклу, чем больше память си­ стемы распознавания, тем с большей точностью оцениваются пара­ метры функций распределения совокупностей первого и второго

класса.

Чем больше время упреждения в процессе распознавания не­ стационарных образов, тем больше ошибка оценки параметров функций распределения совокупностей первого и второго класса. Для блоков обучения по разомкнутому циклу систем распознава­ ния нестационарных образов с возрастающей памятью выражения

для характеристик точности имеют тот же вид,

что и для случая

с постоянной памятью (3-20), (3-21) с заменой

в соответствующих

субматрицах и матрицах М на л.

 

Исследование точности получения настраиваемых коэффициентов

Необходимо определить точность работы контура настройки по разомкнутому циклу систем распознавания. Задача оценки точ­ ности СР ниже решается лишь в принципе с иллюстрацией на кон­ кретном примере.

В связи с этим рассмотрим случай, когда 1) гипотезы измене­ ния во времени первых моментов распределений совокупностей входных выборок одинаковы; 2) память блоков оценки моментов распределений этих выборок одинакова; 3) ковариационные мат­ рицы совокупностей входных выборок равны.

Для данного случая используем выражение (3-19) для опти­ мальных настраиваемых параметров системы распознавания обра­ зов, где а (п) и а0(л) — коэффициенты разделяющей поверхности, реализуемой в момент времени п системой распознавания образов в пространстве признаков

аг (п) х + а0 (п) = 0.

Нужно определить динамические и случайные ошибки коэффи­ циентов а (л) и а0 (л) по имеющимся динамическим и случайным ошибкам векторов математических ожиданий (оценок вектора пер­ вых моментов) шх (л) и т 2 (л).

Динамические ошибки определения векторов ш1 (л) и т 2 (л) равны нулю при характеристиках входного сигнала системы рас­ познавания, соответствующих априорным. Случайные ошибки оп­ ределения векторов mt (л) и т 2 (л) характеризуются ковариацион­ ной матрицей ошибок (3-20). Так как совокупности входных обра­ зов, соответствующих различным классам, считаются независимыми, то ковариационная матрица случайных ошибок определения ко­ эффициентов равна:

[иа\ = [2t/J = 2 [мf, (ВТи - ' В ) ~ 1 Я,]; /, /' = 1...........N.

Из (3-19) следует, что динамическая ошибка определения ко­ эффициентов равна нулю.

84

Теперь в соответствии с приведенными выше ошибками опре­ деления оценок т х (п) и т 2 (п) необходимо определить характери­ стики случайных и систематических (динамических) ошибок коэф­ фициента а0 (п) системы распознавания образов. Выходные сигналы У1 (п) и Уг (п) многомерных фильтров для оценки векторов математи­

ческих ожиданий совокупностей входных образов первого и вто­ рого класса имеют следующие характеристики:

М [Уг (л)] = mj [я]; М [у2 (л)] = ш2 [я].

 

Ковариационные

матрицы,

соответствующие

yt (п)

и у2 (п),

\ и 1у\ = \ и 2у) = [tfe] = [ r f W

v - ' B ) - 1 М/] .

/.

/ =

N.

Таким образом,

многомерные случайные

величины

yt (п) и

у2 (п) можно в данном случае считать многомерными нормальными с указанными выше векторами математических ожиданий и матри­ цами ковариаций. Задача заключается в определении с использо­ ванием этих данных распределения одномерной случайной вели­ чины, вычисляемой по ух (п) и у2 (п) в соответствии со следующим выражением:

ао (") =■ — [у[ (л) Ух («) — yj («) У2 (л)] .

Отметим, что эта задача для произвольных (п), т 2 (п) и Ue является трудной, ее решение заканчивает в данном случае точное исследование ошибок настройки коэффициентов системы распозна­ вания образов по разомкнутому циклу. Задача получения совмест­ ного распределения всех настраиваемых коэффициентов данной СР является довольно трудной задачей математической статистики и вряд ли представляет интерес для теории распознавания образов в виду частного характера рассматриваемой СР, тем более что, чем сложнее данное совместное распределение, тем труднее решение третьего этапа анализа замкнутых СР, настраивающихся по разом­ кнутому циклу.

3-8. Исследование точности замкнутой СР по величине вероятности правильного распознавания

В каждом конкретном случае вывод выражения для характе­ ристик необходимо производить в зависимости от характеристик априорной структуры разомкнутой СР, характеристик точности получения настраиваемых коэффициентов и характеристик входного сигнала. Ниже исследование точности замкнутой СР нестацио­ нарных образов проводится для случая совокупностей образов первого и второго класса, подчиняющихся нормальным распределе­ ниям с единичными ковариационными матрицами, умноженными на постоянный коэффициент, и различным характером изменения во времени компонент векторов математических ожиданий. Этот слу­ чай является простейшим, но характерным для малой памяти СР. Ниже для данных характеристик входного сигнала СР представлены результаты исследования характеристик вероятности правильного распознавания следующих факторов: предварительности обучаю­ щей выборки (памяти СР), задаваемой априорно гипотезы изменения во времени на интервале памяти СР компонент векторов математи­

85

ческих ожиданий совокупностей образов первого и второго класса, степени пересечений классов, задаваемой в виде одинакового для первого и второго класса коэффициента-множителя перед ковариа­ ционной матрицей при постоянной разнице между компонентами векторов математических ожиданий, времени упреждения в про­ цессе распознавания, размерности пространства признаков.

Предметом исследования здесь являются математическое ожи­ дание и дисперсия Рправ, полученные усреднением по множеству опытов с СР с конечной памятью, причем одна реализация Р„рав вычисляется при распознавании генеральной совокупности систе­ мой, обученной по реализации конечного объема.

В одномерном случае распределение порога имеет следующий вид [Л.56, 57]:

f a j «о. Л) =

где

с1( с2 — среднеквадратичные отклонения для выходных сигналов фильтров оценки координат центров классов (ниже сг = с2 = с)

[Л.48]. Выражения для коэффициентов сглаживания <?а!2<? дискрет­

ных фильтров оценки компонент векторов математических ожиданий совокупностей образов взяты из работы [Л.48 ] и здесь не приво­ дятся. Данные выражения определяют для различных гипотез из­ менения во времени указанных компонент зависимость е2 от памяти CP М и времени упреждения решения а.

Выражения для математического ожидания и дисперсии веро­ ятности правильного распознавания Гг|рав имеют в данном, в част­ ности одномерном, случае следующий вид:

МР прав =

J /а0К. П )

а»

 

 

 

 

J Ы*. n ) d x +

 

------ \ f2 (х,

п) dx

 

m2 (n) —

(n)

 

 

 

 

 

 

 

 

 

 

 

 

 

2 ^

 

+ < i

_

DP пправ

J fао (0о>

л )

1

J fi С*. л) dx +

— | / 2

(*,

п) dx X

 

— 00

 

 

 

 

 

 

 

 

 

X da() ■

оо

 

 

 

 

 

 

 

 

 

J fa0(до. п)

— J*

(х, п) d x -f

f

(k,

n) dx da0

 

1

W

 

 

ф (*0 + - -2- СТ^ +

___! _ =

r exp

2c^Qq

*ca0V2nJo- 0

 

t

 

 

 

 

 

 

■f 1 — Ф \a0m% m1

dao - M P npa„2

 

86

для случая совокупностей образов, распределенных по нормальным законам. На рис. 3-6—3-8 представлены результаты расчетов по

вышеприведенным

выражениям

при

*г/ПРАВ

 

(п) = ш2 (л) =

const. Анализ дан­

С ~0г3

ных

результатов

позволяет сделать

 

 

следующие выводы:

 

 

 

 

 

 

1.

Влияние степени пересечения

 

 

классов на характеристики распре­

 

 

деления РПрав относительно асимпто­

 

 

тической величины

в рассматривае­

 

 

мых

 

пределах

незначительно

при

 

 

фиксированной

 

величине

памяти

 

 

СР М.

 

 

порядка

гипотезы

 

 

 

2.

Влияние

 

 

изменения

во

времени

компонент

 

 

векторов математических

ожиданий

 

 

на

характеристики

распределения

 

 

Р прав незначительно

(рис.

3-6). Не­

 

 

обходимо

отметить,

что относитель­

 

 

ное

влияние

указанного

порядка

 

 

гипотезы на ошибки оценки коорди­

 

 

нат центра класса (ошибки фильтра­

 

 

ции) велико [Л. 48]. С увеличением

 

 

памяти СР влияние указанной

гипо­

Рис. 3-6. Зависимости мате­

тезы на характеристики распределе­

ния

Рдрав уменьшается.

 

 

матического ожидания и ди­

3.В рассматриваемом случае сперсии Рправ Для стацио­

совокупностей образов, распределен­

нарных образов.

ных по нормальным законам, уже

------------- мр„п р а в ’

при М > КШР прав незначительно

DPп р а в -

ВРпРДймрлр/1в

 

Рис. 3-7. Зависимости Л4Рправ и DPправ Для нестационарных об­

разов (линейная гипотеза).

Рис.3-8. Зависимости М Р Прави D P правДля нестационарных об­ разов (квадратичная гипотеза).

87

отличается от асимптотической (при М = оо), а

величина D P upaB

монотонно уменьшается при увеличении М.

 

 

4. Влияние времени упреждения ос на МРправ в сторону умень­

шения относительно асимптотического значения

при конечном

М

весьма существенно.

С увеличением М уменьшается влияние

а

на М Р прав (рис. 3-7

и 3-8).

 

 

5. Отмечается значительное влияние на М Р прав в сторону

уменьшения

(при фиксированном

значении а) порядка гипотезы

 

 

 

 

изменения во времени компонент век­

 

 

 

 

тора математических ожиданий коор­

 

 

 

 

динат центров классов.

увеличение

 

 

 

 

 

С

одной

стороны,

 

 

 

 

/V-размерности пространства призна­

 

 

 

 

ков

должно

увеличивать

Л4РПрав.

 

 

 

 

с другой стороны, при конечном зна­

 

 

 

 

чении памяти

CP М — увеличивать

 

 

 

 

D P прав

(эти две тенденции влияния

 

 

 

 

на качество СР являются противо­

 

 

 

 

положными). Выражение для опти­

 

 

 

 

мальной

разделяющей

поверхности

 

 

 

 

в рассматриваемом случае имеет сле­

 

 

 

 

дующий вид:

 

 

 

 

 

 

 

 

S(x) =

 

1

 

 

X

 

 

 

 

 

( m x —

m 2)

 

 

 

 

 

 

 

X (mj — m2) = 0 ,

 

 

 

 

 

где векторы координат центров клас­

 

 

 

 

сов

m!

и

т 2

оцениваются по конеч­

Рис.

3-9.

Зависимости

ной выборке.

Известно

[Л.

29, 30],

MP прав

для

многомерного

что

в

указанном

случае

функция

 

случая.

 

S (х) распределена

как

случайная

М - 3

; ----------М = 20.

величина

tx= kx ( и ^ —

где

 

 

 

 

v2

и2

 

независимые

случаи-

 

 

 

 

 

*N%,

 

 

 

N степе-

ные величины, имеющие центральное %^-распределение

 

ними свободы и параметрами:

 

 

 

 

 

 

 

 

 

 

b = ( i -

 

Л1 j

 

4

 

 

 

 

 

 

 

>^1 +

 

1

 

 

 

 

1

2 MJ)2

 

 

 

 

 

m2)i

^2 =

I 1 +

V i + m

-----;

б2 = (ш1 —m2)-V ,(nil_

4

 

 

 

 

 

 

 

 

где S — ковариационная матрица. Применяя для вычисления ве­ роятности Р (tx < 0 ) инверсионную формулу Имхофа [Л. 29, 30], можно получить следующее выражение для М Рврав.

МРвраа = Ф {[9 (Г, + Г2) + 2 (62Г2 + ^Г?)] X

_ _ 1 _

х ^ [( v t ' + M T 1)]! 2 ,

где Гс — (N + Я,-)3 ; bt = 2 — N (N К

88

Тогда для

случая

равных

для каждого признака величин с2

и (тм m2i,

i = 1,

. . . , N)

величина МРправ монотонно воз­

растает, приближаясь к асимптотическому значению (рис. 3-9).

На этом заканчивается рассмотрение вопроса оценки точности настраивающихся по разомкнутому циклу СР стационарных обра­ зов в режиме обучения. Рассмотрение других режимов работы СР и более сложных, нежели нормальные, распределений приводит к усложнению соответствующих выкладок при сохранении общей методологии.

Г л а в а ч е т в е р т а я

ОПИСАНИЕ И ВЫБОР СТРУКТУРЫ РАЗОМКНУТОЙ СР

4-1. Постановка задачи

Настоящая глава начинает этапы синтеза (см. табл. В-1) СР с фиксированной структурой, настраивающихся по

замкнутому циклу,

 

и

СР с

переменной

структурой. СР

с фиксированной

структурой

 

 

 

предполагает неизменное в ре­

 

 

 

жиме настройки

число слоев

 

 

 

из линейных

пороговых эле­

 

 

 

ментов

(ЛПЭ) и число

ЛПЭ

 

 

 

в каждом слое. Структура

 

 

 

разомкнутой

системы

здесь

 

 

 

выбирается исходя из необхо­

 

 

 

димости реализации

 

разделя­

 

 

 

ющей

поверхности

заданной

£(п)

 

 

сложности. Для СР с пере­

Рис. 4-1. Общая структурная

менной

структурой

 

число

слоев

ЛПЭ

и

число

ЛПЭ

схема СР,

настраивающихся

в слое

выбираются

в

зависи­

по замкнутому

циклу.

I — блок вычисления

оценки век­

мости от характеристик

вход­

тора градиентов функционала опти­

ного сигнала.

 

 

 

 

 

мизации; II

— блок итерационного

(рис.

4-1) со­

поиска экстремума

функционала

Любая СР

оптимизации.

стоит из двух частей: разом­ кнутая СР и блок, производящий настройку коэффициентов

разомкнутой части. Под разомкнутой СР подразумевается СР с настраиваемыми параметрами без блоков обучения или самообучения. Входом разомкнутой СР и ее выходом являются вход и выход замкнутой СР.

В общем плане под структурой разомкнутых СР при­ нимается структура преобразования xk (х), осуществляе­ мого системой на этапе распознавания. Для описания дан­

89

Соседние файлы в папке книги из ГПНТБ