Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Ширман, Я. Д. Разрешение и сжатие сигналов

.pdf
Скачиваний:
16
Добавлен:
22.10.2023
Размер:
13.3 Mб
Скачать

§ 3.1.3. КВАЗИПОЛНОЕ РАЗРЕШЕНИЕ — ИЗМЕРЕНИЕ

Пусть подлежащие различению сигналы отличаются значениями только одного параметра. Фиксируя интервал возможного изменения параметра, положим, что т1различаемых его значений равномерно за­ полняют этот интервал. Обращаясь к случаю, когда число т1 неограни­ ченно увеличивается, перейдем от различения дискретных значений па­ раметра к оцениванию параметра как непрерывно распределенной ве­ личины [3]. Матричное описание качества различения переходит при этом в функциональное. Матрица стоимости заменяется функцией стои­

мости а (я, X), где я = X— оценка X. Выражение среднего риска в виде двойной суммы [(3), § 1.1.1] преобразуется в двойной интеграл

Q= Ц

а{Х, X) р ( Х ) р ( І \ Х ) dXdX.

(1)

(£, х)

 

 

Здесь р (X) — доопытная,

а р (X | X) — послеопытная

плотность ве­

роятности. Произведения р (X)dX и р (Л. | Я) dA, в (1) заменяют Р3 и

в [(3), § 1.1.1]. Формула (1) справедлива как при наличии, так и в от­ сутствие мешающих сигналов.

Рассмотрение ограничим наиболее важным случаем, когда оценка X вырабатывается по неслучайному алгоритму X = X (и) в зависимо­ сти от принимаемого колебания и — и (t). При этом *>

р(X) р (Х\Х) dX dX = р (X) p(ujX) dudX — р(и)р(Х \ u) dudX.

Сучетом многообразия приходящих колебаний и возможных значений параметра выражение для среднего риска принимает вид

Q = \ Q { X \ u ) p ( u ) d u ,

(2)

(I*)

 

где Q (Я,|и) —' средний риск для фиксированной реализации приходя­ щих колебаний (условный средний риск), соответствующий рассматри­

ваемому алгоритму X — X (и):

Q(X[u)=n ^ а{Х, X) p(\|u)c?A, + Qo(u).

(3)

(X)

Для общности в (3) введена зависящая от случайной реализации и ве­ личина Qo (и), математическое ожидание которой равно нулю [61]

$ Qo (u) Р (и) du = 0

(4)

(и)

и которая не влияет на величину (2). Пока не возникнет необходимо­ сти, далее будем полагать Q0 (и) = 0.

*> Смысл du при и = и (t) был пояснен в § 1.1.2.

§ 3.1.3.

319

По аналогии с матрицами потерь различении введем некоторые Ха­ рактерные ф у и к ц и н п о т е р ь и з м е р е и п я :

а) п р о с т у ю

а(Я ,

Я) = —б(Я —Я);

(5)

б) к в а д р а т и ч и у ю

 

 

а(Я,

Я) = (Я — Я)2;

(6)

в) и н т е г р а л ь и у ю

 

 

а(Я , Я) =

$ [u(t, Я) — «(/, К)]2 dt.

(7)

 

U)

 

Эти функции описывают различные варианты зависимости потерь измерения от оценки параметра Я и его истинного значения Я. Согласно

(5), (б) потерн зависят от абсолютной величины разности |Я — Я| оцен­ ки и параметра. Согласно же (7) потери зависят от разности сигналь­ ных функций, взятых для оценочного и истинного значений параметра.

Выражение условного среднего риска (3) для п р о с т о й

функ­

ции потерь (5) получим в виде

 

 

 

 

 

 

< 2 (я | и )= — р(я|и).

'

(8)

Выражение условного среднего риска (3) для к в а д р а т и ч н о й

функции потерь (6) будет

 

 

 

 

 

 

 

Q (я|и) =

[Я—

$ Яр (Я |u) dX]2 +

 

 

 

 

 

(Я)

 

 

 

 

 

+ § Я2 р (Я I и) £/Я — f ^ Яр (Я] и) dX 2.

 

(9)

 

 

(Я)

 

ЧЯ)'

 

 

 

Выражение условного среднего риска (3) для и н т е г р а л ь н о й

функции

потерь преобразуем, используя

алгебраическое тождество

 

 

 

 

(а + Ь)2-= а- — 62 +

2(а + b)b.

 

 

Вводя разности сигнальных и принимаемых колебаний а = и (ЯЯ)

и (і), b —

= и (і) и

Я)

и замечая, что

J р (Я|и )с1Я =

1, получаем

 

 

 

 

 

(Я)

 

 

 

 

<2(Я|и) =

J

[и (Л Я ) - u ( t ) ] 2dt —

[u(t) - u(t,X)r - p(b\u)dtdX- y

 

 

 

(ЧЯ)

 

 

 

+ 2 J j

[u(t, X) — u (t, Я)] [u (t) — u(t,

Я)] p (Я I u)dtdX-\-Q0(u).

(10)

(f, Я)

 

 

 

 

 

 

 

В отличие от простой или квадратичной интегральная функция потерь целе­ сообразно используется только при аддитивных помехах п = п (і) с математи­

ческим ожиданием нуль, когда и (і) = и (Я Я) + п (t) и Г пр (n)dn = 0. Значение

(л)

Qо (и) целесообразно выбрать при этом равным по абсолютной величине и про-

320

§ 3.1.3.

Тивоположным по знаку третьему слагаемому в правой части равенства (ІО). Ма­ тематическое ожидание Q0 (и) при этом действительно равно нулю, поскольку

[и (t) — u (t Д)] р (и) р(Я | и) du dX—np (я) р(к) du dX.

Окончательно получим

 

 

Q{X |u ) = ([«(М % ) - u ( t ) ? d t — j al(t)dt,

(11)

 

где а® (t) — дисперсия помехи

п (t).

 

§ 3.1.4. ОПТИМАЛЬНЫЕ ОЦЕНКИ ДЛЯ РАЗЛИЧНЫХ ФУНКЦИЙ ПОТЕРЬ ИЗМЕРЕНИЯ. ДИСПЕРСИИ ОШИБОК ПРИ ОЦЕНКАХ МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ

Оптимальные оценки Я = Я (и) обеспечивают минимум Q (Я | и) при различных функциях потерь измерения.

В случае п р о с т о й функции потерь оптимальная оценка — это абсцисса абсолютного максимума послеопытной плотности вероятно­ сти р (Я|и). Если последняя описывается гладкой функцией и имеет единственный максимум внутри интервала возможных значений Я, ус­ ловие абсолютного максимума заменим условием относительного:

~zr р (Я I и) = 0

при Я =

Я (u)

(1)

дь

 

 

 

ИЛИ

 

 

 

1пр(Я| и) = 0

при Я =

Я(и).

(2)

В случае к в а д р а т и ч н о й функции потерь оптимальная оцен­ ка определяется как «центр тяжести» площади под кривой послеопыт­ ной плотности вероятности

Я = § Яр (Я I и) dX.

(3)

 

В случае и н т е г р а л ь н о й функции потерь и аддитивной по­ мехи оптимальная оценка соответствует абсолютному минимуму инте­ грала от среднего квадрата ошибки приближения принимаемого коле­

бания и (t) функцией и (t, Я) при Я = Я (и). Заменяя вычисление абсо­

лютного минимума вычислением относительного, получаем

 

Г [u(t, Я)—u(f)]2 dt = 0 при Я = Я(и).

(4)

дХ J

Критерий (4) не содержит функции р (Я|и) и не учитывает поэтому какой-либо доопытной информации.

Наоборот, при простой и квадратичной функциях стоимости опти­ мальные оценки получаются в зависимости от послеопытной плотности вероятности

Р ( Ч и) = - т т Р(х)Р(и \1)>

Р( и)

321

а значит, с учетом априорной (доопытной) плотности вероятности р (А).

Если

априорная

информация не

имеет

значения, можно принять

р (к)

= const. Условием получения

оптимальной оценки (о ц е и к и

м а к

с и м у м а

п р а в д о п о д о б и я )

для фиксированной реали­

зации и (/) при простой функции потерь тогда будет

(5)

При аддитивных гауссовых помехах с нулевым математическим ожи­ данием величина In р (и|А) пропорциональна интегралу J (/, к)

— и (t)]2dt (коэффициент пропорциональности отрицателен), а ее макси­ мум достигается при минимальном значении интеграла. Таким обра­ зом, условия получения оптимальных оценок при простой и интеграль­ ной функциях стоимости совпадают.

В обоих случаях встречаются затруднения, если уровень помех пре­ вышает некоторый пороговый. Функция р(к | и) становится многопико­

вой, а оптимальную оценку к (и) нельзя получить как абсциссу какогото одного относительного экстремума. Определение оценки облегчает­ ся при использовании квадратичной функции стоимости, однако и в этом случае дисперсия оценки резко нарастает по мере увеличения интенсивности помехи.

Когда уровень помех невелик, функция р (к | и) обычно имеет резко выраженный пик. По форме он симметричен, его центр тяжести и мак­ симум совпадают. Совпадают поэтому оптимальные оценки при ква­ дратичной, простой (а значит, и интегральной) функциях стоимости, т. е. для рассматриваемых условий оптимальные решения не критичны

квыбору функций стоимости.

Вслучае гауссовых аддитивных помех интегральная функция стои­ мости, игнорирующая априорную статистику, заметных преимуществ перед простой и квадратичной не имеет. В случае негауссовых аддитив­ ных помех с математическим ожиданием нуль эта функция имеет опре­ деленные преимущества, сводя задачу к минимизации интеграла (4), такого же, как и в гауссовом случае. Каких-либо предположений о по­ мехе, помимо ее аддитивности и нулевого математического ожидания при интегральной функции стоимости не требуется.

Остановимся подробнее на оценках максимального правдоподобия (5), не требующих априорных данных. Используя (5) применительно

кзадачам разрешения, прежде всего заметим, что входящая в нее плот­ ность вероятности р | к) вычисляется при условии наличия шума С, мешающих сигналов В и полезного сигнала А с параметром к, т. е.

Р(ч |^ ) = Рлвс(и ІХ)-

Всоответствии с [(6), § 1.1.2] имеем

Ра вс I к) — Рдс (u) I I А),

(6)

где / (u I А) — отношение правдоподобия для сигнала с известным пара­ метром А; рве (и) — плотность вероятности реализации и при наличии

322

§ 3.1.4.

только мешающих колебаний. Основываясь на (6), условие оптимума оценки (5) приводим к виду:

— ln / (u IЯ) = 0 при

Я = Я(и).

(7)

дл

 

 

В соответствии с (7) можно использовать

готовые результаты анализа

различных вариантов обнаружения для отыскания алгоритмов опти­ мального измерения.

Эти же результаты облегчают отыскание послеопытиой дисперсии измеряемого параметра. Повторно учитывая пропорциональную за­ висимость послеопытиой плотности вероятности параметра от отноше­ ния правдоподобия, после логарифмирования получаем

Іп р (Я I u) = In / I Я.) Ч- const.

(8)

Разложим правую часть равенства (8) в ряд по степеням (Я— Я). Пола­ гая ошибки малыми, ограничиваясь в силу этого первыми тремя члена­ ми ряда и используя (7), находим для скалярного Я:

 

 

Г—

in /(и I я) 1

( а . - я )2/2

 

jj{X\u) = C é dX"'

J

.

(9)

Уравнение (9) соответствует нормальному закону ошибок

 

о(Я|и) = —

е - ( ь - Ѵ 2/2о\

(Ш)

'

К 1

/ 2 па

 

ѵ

Сравнивая (9) и (10),

имеем С = 1/]/"2ла и

 

 

1/а2^

— д Ч п І ( и \ К ) / дХ \ =%.

(11)

Возможные отступления от нормального закона (10) и смещения оцен­ ки максимального правдоподобия, соответствующие несколько более интенсивным помехам, здесь и далее не учитываются.

До сих пор речь шла об измерении одного скалярного параметра. Положение существенно не меняется, если измеряется н е с к о л ь к о с к а л я р н ы х п а р а м е т р о в и 1, является ^.-мерной вектор­ ной величиной. Так, оценки максимума послеопытиой плотности ве­ роятности и максимума правдоподобия определяются как координаты точек экстремума (1), (5) функций нескольких переменных. При ква­ дратичной функции потерь оптимальная векторная оценка полу­ чается как интеграл от Яр (Я | и) по всем скалярным параметрам. Ска­ лярные оценки при интегральной функции потерь находятся из систе­ мы уравнений вида (4), дифференцирование в каждом из которых ве­ дется по своему скалярному параметру.

По аналогии с (11) величину

 

ctj = — ö2 ln / |ЯЬ ... , ЯД/дЯ£дЯ;-

( 12)

§ 3.1.4.

323

можно рассматривать как удвоенный коэффициент при квадратичных членах разложения в ряд выражения (8). В нормальном (гауссовом) приближении

м-

р ( К ..., I и) == ехр V са (К h ) (^j hj) (13)

і. І—1

Корреляционный момент ошибок измерения скалярных параметров (с номерами i, j) определяется соотношением

 

еи = М [(X,-

%t)(\j -

ij)] =

55

( h - h ) X

 

 

 

 

 

 

(hl, • • ■. Ä-ц)

 

 

Х (^ — i j ) p { K ,

.... V | u ) d k 1

... d X ^

(14)

Вводя

матрицы с = ||

||

и e

= || ец ]|,

из

(13)—(14) для

гауссовой

статистики можно получить

[49, 51,

70]

 

 

 

 

 

 

е =

с-1.

 

 

(15)

Поэтому послеопытные дисперсии измеряемых скалярных пара­

метров

я в л я ю т с я

(в гауссовом приближении) д и а г о н а л ь ­

н ы м и э л е м е н т а м и м а т р и ц ы е, о б р а т н о й м а т р и-

ц е

с с э л е м е н т а м и (12). Соотношение (11) можно рассматри­

вать

как частный случай (15) для р. = 1.

 

§ 3.1.5. РАЗРЕШЕНИЕ— ОБНАРУЖЕНИЕ — РАЗЛИЧЕНИЕ

Важнейшей составной частью разрешения для ряда приложений является оценка числа I приходящих от целей сигналов (0 <С / < т) при некотором максимально возможном их числе т. Сочетания / про­

извольно выбранных из т сигналов могут быть осуществлены Сгт спо­ собами. Таким образом, общее число 2п возможных комбинаций отсут­ ствия и наличия сигналов, соответствующее полному разрешению, раз­ бивается по группам событий / = 0, 1, ..., т (ни одной, одна, ..., т целей на контролируемом участке дальности)

т

*т = Ъ

Сш-

(1)

1=

0

 

Равенство (1) согласуется с известным разложением бинома Ньютона

(1 + 1)т .

В связи с изложенным примем следующую нумерацию возможных событий (/ = 0, 1, ..., 2'"—1). Событию отсутствия сигналов /= 0 при­ своим номер j — 0 и отнесем его к нулевой группе. Событиям наличия

одного сигнала (/ = 1) дадим номера } = 1, ..., С1т + 1, относя их к первой группе событий, и т. д. Совокупность всех 2т возможных со­ бытий разбивается постепенно на + 1) групп этих событий с номе­ рами I = 0, ..., т при неодинаковом числе событий в каждой группе.

324

§ 3.1.5.

Аналогично,

на +

1) групп k =

О,

1,

т разбиваются все воз-

можные решения об этих событиях.

 

 

 

 

 

 

 

Выражение для среднего риска (3) можно привести к виду

 

 

 

 

 

 

 

Q

— 2

 

2

 

 

 

Р lv Ркіцѵ !

 

 

 

(2)

 

 

 

 

 

 

 

 

к ,

/

Ц ,

V

 

 

 

 

 

 

 

 

где

I — число

сигналов; k

=

I — его оценка; ѵ — номер

сочетания

I сигналов из т (1 <

ѵ < Ст1);

р. =

ѵ — оценка ѵ.

 

 

 

 

Совокупность элементов а*/^,

 

соответ­

 

 

 

 

 

ствующая фиксированным значениям k, I,

I—

 

 

 

 

образует

подматрицу

матрицы стоимости.

\ о

 

I О

\к=0

I -1

 

Различие диагональных

(/г =

/) и недиаго-

I—

L -

 

 

нальных

(к Ф I) подматриц должно стиму­

! о

-/

о

о

к=1

лировать

правильное

определение

числа

 

 

 

о

к^2

сигналов

I (числа

целей в группе).

Разли­

О

О

-1

чие диагональных

(р =

ѵ)

и недиагональ­

[ _ _ ! —

 

4—

|

ных (р Ф ѵ)

элементов

каждой

 

подматри­

\ О

I о

о \ - 1

 

цы

может

 

стимулировать

 

правильное

 

*)

 

 

определение параметров сигналов. При

 

 

 

выборе

элементов

применимы

 

принципы

 

с=і

 

 

построения

простой,

квадратичной

и т. д.

1=0

С=2

 

матриц стоимостей различения. Так, ис­

 

S)

 

 

пользуя принцип построения

простой мат­

Рис.

З.І.І.

Пояснение мат­

рицы стоимости,

все

элементы

недиаго­

рицы

потерь различения с

нальных

подматриц (/г Ф I)

и недиагональ­

выделением подматриц (а)

ные

элементы

Ф ѵ)

диагональных под­

для

различных вариантов

матриц

 

(k =

/) можно

выбрать

равными

(б) наличия

целей на двух

нулю.

Диагональные

элементы

(р = ѵ)

 

позициях.

 

последний

принимаются

равными

— 1

числу). Пример подоб­

(или

какому-либо другому

отрицательному

ного построения 2т -элементаой

матрицы с

выделением

подматриц

для

т = 2

показан

на рис.

3.1.1.

 

 

 

 

 

 

§3.1.6. РАЗРЕШЕНИЕ — ОБНАРУЖЕНИЕ— ИЗМЕРЕНИЕ

ИЕГО АЛГОРИТМЫ ПРИ ПРОСТОЙ ФУНКЦИИ СТОИМОСТИ

Полагая, что интервал возможного изменения параметра сигнала равномерно заполнен т значениями этого параметра и, переходя к к /ті—>-оо, приходим к важному случаю полного разрешения, включаю­ щему н а р я д у с о б н а р у ж е н и е м и о ц е н к о й ч и с л а I разрешаемых сигналов о ц е н к у непрерывно распределенных зна­ чений их п а р а м е т р о в. Такой подход был четко сформулирован

вобщем виде И. А. Большаковым [115] и Нильссоном [61]. Выражение для среднего риска Q запишем в виде

Q —

ahl\^h’ ^l) p

^l) dhfrdhi.

(1)

к, I

(Xh. Xt)

 

 

§ 3.1.6.

325

Здесь I — число разрешаемых сигналов; k = I •— оценка этого числа;

— вектор параметров

разрешаемых

сигналов; \ к — оценка векто­

ра параметров;

Pt — априорная вероятность наличия

I сигналов;

Phi — Р (/г I /) — условная вероятность

оценки /г при действительном

числе сигналов

I; р {Хк,

Xt) — совместная плотность вероятности зна­

чений вектора

оценок

Хк и

вектора

параметров Xt;

aki (Xh, А,) —

функция стоимости решения.

Векторы

А, полужирным

шрифтом не

выделяем.

 

 

 

 

 

Считая, что решения k — І (и) и Хк = Хк (u) принимаются в неслу­ чайной зависимости от принимаемых колебаний и = u(t), перейдем, как и в § 3.1.2, к условному среднему риску

Q (£, К I и) = 2

$ a h i ( K > h ) P { K /1и) cfA,z.

(2)

I

(X,)

 

Здесь p (A,,, / [ u) — совместная послеопытная плотность вероятности вектора непрерывного параметра А,, и числа сигналов /, нормирован­ ная так, что

2 $р(Аь l\u)dXt = L

 

!

 

 

 

 

Перейдем к

а л г о р и т м а м

р а з р е ш е н и я

— о б н а р у ­

ж е н и я — и з м е р е н и я

п р и

п р о с т о й

ф у н к ц и и

с т о и м о с т и ,

что методически

представляется наиболее удобным.

Введем простую функцию

стоимости

а к1 (Хк, X,)

разрешения *—

обнаружения — измерения:

 

 

 

 

 

ahl Оѵп ^і) —

 

 

при l = k,

(3)

 

 

О

при Іфк.

 

 

 

 

Выражение условного среднего риска (2) существенно упрощается

Q(k, Xh \u) = — P(Xk,k\u).

Его минимальное значение соответствует абсолютному максимуму послеопытной плотности вероятности

шах р (Xh, k I и), где k = 1 (и), Xh = А,, (и),

(4)

что определяет оптимальные значения оценок / (и), \

(и).

 

Используя вытекающее из теоремы умножения равенство

 

p(Xh L\u) = - ^ — Pip(Xl)p(u\l, А,,)

 

 

Pi и)

 

 

и заменяя k на I в условии (4), последнее приведем к виду

 

max [ln р(и 11, Х,) + 1п Рі + 1п p(Xt)] при/ = /(и),

A,; = Â;(u).

(5)

Порядок оптимизации в (4) и (5), вначале по Xh а затем по /, или наоборот, произволен. Вычисления, однако, облегчаются, если, после-

326

§ 3.1.6.

довательно задавая дискретные I, при каждом из них находить Х1(и). Сравнивая значения (5) для различных / при соответствующих им

Х; (и), устанавливаем оптимальное значение I (и) = /г.

В случае р (А,,) = const оценка Хг (и) максимума послеопытной плотности вероятности параметра X (для фиксированного /) совпадает с оценкой максимума правдоподобия

max ln р (u I /, Xt) при А.г= Х г(и).

(6)

Условие абсолютного максимума (6) при малом уровне шума пере­ ходит в условие относительного

- щ - • In р(и ! Я,, ..., XtH, ...). = 0

при Хі.л = ХіѵХи).

(7)

Здесь Хи —■скалярная составляющая вектора Хр и — номер состав­ ляющей. Если система уравнений (7) невырожденная, решая ее, мож­ но определить все составляющие вектора к = 1, ц.

Далее можно перейти к сопоставлению выражений вида (4) или

(5) при различных значениях I с тем, чтобы установить оптимальную

оценку числа сигналов I (u) = k. Последнее равносильно сопоставле­ нию отношений правдоподобия (см. § 1.1.2) для конкурирующих ги­ потез наличия I и / •— 1 сигналов. Соответствующее неравенство для логарифма отношения правдоподобия

р(ц]СА;)

р ( и I

/ — 1 ,

(8)

l)

должно соблюдаться при I ^

/г и не соблюдаться при I > /г. Уровень

порога, с которым сравнивается логарифм отношения правдоподобия, определяется априорной статистикой /.

Правило (8) является видоизменением (4) или (5). Поиск абсолют­ ного максимума некоторой функции натурального числа I сводится, таким образом, к последовательному сравнению ее значений для Ім I — 1. Эвристически подобный алгоритм дан еще в [66].

При написании (6)—(8) полагалось, что априорные данные отсутст­ вуют: было принято р (X) = const. Решение заметно не усложнится, когда р (X) Ф const. В левые части уравнений (7) добавятся в этом случае производные логарифмов априорных плотностей вероятности, а в левую часть (8) — логарифм их отношения для значений параметра

X = Xt и X = Хн1.

Не произойдет также заметного усложнения, если в порядке обобщения функций стоимости (I) ввести неодинаковый ущерб от неправильных решений для различного числа выдаваемых сигналов, полагая

«лг(А;г, Х[)— — a h ö(Xh— Х[).

Соотношение (7) от этого не изменится, уровень же порога в (8) изменится на ве­ личину ln (aj-j/a;).

§ 3.1.6.

327

§ 3.1.7. АЛГОРИТМЫ РАЗРЕШЕНИЯ ОБНАРУЖЕНИЯ ИЗМЕРЕНИЯ

ПРИ НИЛЬССОНОВСКОЙ ФУНКЦИИ с т о и м о с т и

Кроме простых функций стоимости при разрешении — обнаружении — изме­ рении могут использоваться функции стоимости интегрального типа (см. § 3.1.2— 3.1.3). В работе Нильссона [61] к ним добавляется слагаемое Да^і, учитывающее ущерб от неправильного определения числа сигналов. Таким образом,

 

 

1( »

А;)= j*

(t, ^jt)

и (t. А/)]'“ dt -К До:/^ ■

 

(1)

 

 

 

 

V)

 

 

 

 

 

 

 

 

 

Значения Да^

можно выбрать,

например,

как элементы простой матрицы

потерь

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( —1

при к =

/,

 

 

 

( )

 

 

 

 

 

[

,

,

,

 

 

 

 

 

 

 

 

0

при k ф I ■

 

 

завы

Иногда занижение числа сигналов не полагают ущербом, ущерб же

 

2

шення считают пропорциональным

ошибке завышения:

 

 

 

 

 

 

 

 

 

г/г —і

при к

 

і,

 

 

 

(3)

 

 

 

 

Дctfjі— {

0

при к <

/.

 

 

 

 

 

 

 

 

\

 

 

 

 

В любом из рассматриваемых случаев выражение условного среднего риска

Q [к,

Ад I и ]

по аналогии с [(11), §3.1.3] приводится к виду

 

 

 

 

 

Q(k,

A/t|u) = j'

[и (Л l k) — u(t)]* dt + M{Aaki \ u } —

J

a2n (t)dt.

 

(4)

 

 

 

(0

 

 

 

 

 

(t)

 

 

 

Здесь

AJ{Aah;|u}

— послеопытпое

математическое ожидание

ущерба от

не­

правильного определения числа сигналов

 

 

 

 

 

 

 

 

 

 

 

М {Aaiti I и} = 2

д <*hi р (Пи).

 

 

 

 

в свою очередь, Р (/ j и)

— послеопытная вероятность наличия сигналов

 

 

 

 

 

 

Р(П u )=

j'

р (А,, [\u)dli.

 

 

 

 

 

 

 

 

 

( h )

 

 

 

 

 

 

 

 

Из выражения

(4)

определяются

оптимальные

оценки

составляющих А^.

При фиксированном значении к они находятся как решения системы уравнений

Кх. • • •)—u(t)]2 ct=Q.

(5)

В случае гауссовой помехи с нулевым математическим ожиданием и в отсутствие априорных данных о параметрах сигнала уравнения (6) тождественны получен­ ным ранее [(7), § 3.1.6J.

Оптимальная оценка к = I числа сигналов выбирается из условия абсо­ лютного минимума выражения Q (I, А/1 и ), который имеет место при некотором

значении I = к. Когда этот минимум единственный, непосредственное вычисле­ ние сводится к пороговой процедуре, при которой зависящие от I и и (і) выраже­

ния последовательно сравниваются с порогами.

Если неравенство

 

l l u ( t , h - i ) - u ( t ) \ * d t >

J [ы (t,

h ) - u ( t ) f d t + B i

(6)

 

 

328

 

§

3 . 1 .7

Соседние файлы в папке книги из ГПНТБ