Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

FOKOEP_-_CHastina_1

.pdf
Скачиваний:
4
Добавлен:
23.02.2016
Размер:
1.88 Mб
Скачать

Sg (x ) Sm (x ) Sn (x ),

Smg (i x ) Sm ( x ).

(136)

При умові (136) мінімальне значення середньоквадратичної похибки вимірювання випадкової величини, згідно із (134), буде таким:

2

 

 

 

1

 

 

S

m

(

x

)S

n

(

x

)

d x ,

 

(137)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

min

 

2

Sm ( x ) Sn ( x )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а оптимальна амплітудочастотна

 

фазова передаточна

функція

Wопт(i x ) Wопт(x ) визначиться з умови

 

 

 

Wопт

(x )

 

 

 

Sm

(x )

 

 

.

 

 

 

 

 

 

(138)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Sm (x ) Sn (x )

 

 

 

 

 

 

 

 

З останньої формули випливає, що в області частот, де

виконується умова

Sm (x ) Sn (x ) ,

Wопт(x ) 1,

а

коли

Sm (x ) Sn (x ) ,

оптимальне

 

значення

функції Wопт(x )

буде

таким:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

W

(

 

)

Sm (x )

.

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

опт

 

 

 

Sn (x )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Звідси можна зробити такі висновки:

1) При некорельованій заваді оптимальна робота ОЕС за рахунок підбору її аплітудо частотної фазової передаточної функції (АЧФПФ) здійснюється тільки за рахунок фільтрації за амплітудою (фільтрація

за фазою відсутня, функція Wопт(x ) - дійсна, додатна, фільтрація

всіх частот здійснюється з однією і тією ж фазою.

 

 

2) При некорельованій

заваді,

в області

частот,

де

Sm (x ) Sn (x ) оптимізація

роботи

системи

досягається

за

рахунок фільтра з неселективним пропусканням на частоті гармонічних складових сигналу.

3) При некорельованій

заваді

в області

частот,

де

Sm (x ) Sn (x ) оптимізація

роботи

системи

досягається

за

рахунок селективного фільтра

із пропусканням,

що дорівнює

- 71 -

відношенню

Sm

(x )

(тобто, зворотно пропорційно до спектра

Sn

(x )

 

 

потужності завади при однаковому енергетичному спектру корисного сигналу).

4) При наявності кореляції між завадою та сигналом оптимізація частотно амплітудно фазової передаточної функції можлива за рахунок одночасної фільтрації за амплітудою та фазою, так як

Wопт(i x ) буде комплесною.

Для незалежних величин сигналу та завади функцію Wопт(x ) можна представити в простому аналітичному вигляді, якщо ввести

позначення

S

m

(

x

) S

n

(

x

) (i

x

) (i

x

)

 

 

 

2 .

Відповідно

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

до (132), після послідовних Фур’є-перетворень для розглядаємого випадку.

Wопт(x )

 

Sm (x )

 

 

Sm (x )

 

 

;

 

 

Sm

(x ) Sn (x )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(i x ) (i x )

 

 

1

 

 

 

 

 

1

S

 

( )

exp(i x x)d x .

 

 

 

Wопт(x ) (i x ) exp(i x x)d x

 

 

 

m

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

2

( i

)

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

Формально отримаємо:

1

2

Wопт( x )

Позначимо

Тоді

exp(i x

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S

 

( )

exp(i x x)d x

. (140)

 

 

 

 

 

 

 

 

 

exp( i x x)dx

 

 

 

m

 

x

 

 

2 (i

x

)

 

 

 

 

 

 

 

 

 

 

 

( i

 

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

Sm (x )

 

 

 

n

 

 

 

 

 

Al

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

(i

 

)

 

i

x

 

l

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

l 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

подвійний

 

 

 

 

 

 

 

інтеграл

 

 

S

m

(

)

 

 

exp(i x x)d x

 

 

 

 

 

x)dx

 

 

 

 

 

x

 

 

 

 

 

згідно із властивістю

(i

 

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

- 72 -

 

 

 

 

 

 

 

 

exp(x)

x 0

 

 

 

 

1

 

 

 

 

 

f (x)

 

 

 

 

 

 

 

 

 

 

 

F (i x )

 

функції

 

 

 

 

 

 

 

 

 

 

,

 

 

 

буде

 

 

 

 

 

 

 

 

 

 

 

i x

 

 

 

 

 

 

 

 

 

0

 

 

 

x 0

 

 

 

 

дорівнювати виразу

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

S

 

( )

exp(i x x)d x

 

 

 

 

 

 

exp(i x x)dx

 

 

 

m

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

( i

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

n

 

 

 

Al

 

 

n

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

Al

 

exp(iarctg (

)).

 

 

i

 

 

 

 

 

 

 

 

 

l 1

x

l

 

l 1

 

 

 

 

 

 

 

 

l

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

У зв’язку із цим оптимальне значення А.Ч.Ф. передаточної функції для нескорельованого сигналу та завади можна представити виразом:

 

 

 

1

 

n

 

Al

 

 

 

Wопт

(x )

 

 

 

 

,

(141)

(i

)

i

 

 

 

 

 

l 1

x

l

 

 

 

 

x

 

 

 

 

де (i x ) Sm ( x ) Sn ( x ) 1/ 2 exp( iartg (i x )) .

Значення коефіцієнтів Al , l визначається з розв’язку рівності:

 

Sm (x )

 

n

Al

 

 

 

 

exp(i arg (i x ))

 

 

.

(142)

 

1/ 2

 

 

 

Sm (x ) Sn (x )

 

l 1

i x

l

 

 

Якщо сигнали є функціями п-змінних, що позначаються вектором

 

 

 

 

 

 

 

X , то для знаходження

оптимальної

функції

ваги ( X ) та

 

 

 

 

 

 

 

 

 

амплітудочастотно фазової

передаточної

функції

W (i x )

можна

використати рівняння

Kmg (u)

 

 

 

 

 

 

опт ( )K g

( u)d ,

(143)

(n)

 

 

 

 

Smg (i x )

 

Wопт(i x )

 

,

 

Sg (x )

 

а також

 

1

 

 

опт

( X )

 

(2 )n

 

 

Wопт(i x

(n)

 

 

 

) exp (i x

X )d x .

(144)

(145)

- 73 -

1.5. Методи оцінки кількості інформації та її перетворення при проходженні сигналу через лінійні системи

Для кількісної оцінки інформації можна скористатись основними поняттями та методами теорії інформації, розробленими К. Шенноном. В основі його теорії лежить поняття інформації як кількісної міри, що знімає невизначеність знань про властивості, характеристики та параметри процесів, предметів і різноманітних явищ. Кількість інформації, яка отримується в результаті зняття деякої невизначеності, буде, напевно, тим більша, чим менше знань було до отримання інформації. Отримувачем інформації може бути людина (чи живий організм), машина, вимірювальна чи розрахункова система та ін.

Виникає питання: як вибрати кількісну міру інформації, якщо різноманітні явища та процеси характеризуються відмінними ознаками та величинами різної роз вимірності ( як от швидкість, тиск, енергія, колір, запах, температура і т.д). Це можна зробити, якщо кожне числове значення параметрів, що характеризують вказані предмети, явища пов’язати з ймовірністю появи цих значень параметрів. У такому випадку розвимірності розгляданих величин стають несуттєвими.

1.5.1. Інформаційна міра

Розглянемо введення кількісної міри інформації на прикладі роботи ОЕС інформаційного типу.

Рис. 26. Введення інформаційної міри

- 74 -

Припустимо, що до проведення досліду нам відомо (з імовірністю P 1), що в площині предметів, обмеженій площадкою S0 , є єдина точка, що світиться, яка може з однаковою ймовірністю знаходитися в будь-якому місці площини. Площина S0 розбита на п однакових

площадок S . Необхідно визначити, яка максимальна кількість інформації може бути отримана в результаті визначення, в якій саме площадці S знаходиться точка, що світиться, при найбільш раціональному способі пошуку даної площадки. Коли площина S0

складається тільки з однієї площадки S й апріорно відомо, що точка, яка світиться, знаходиться в межах S0 , то ніякої додаткової інформації при постановці експерименту, що встановлює факт

знаходження

даної точки в

межах

S , отримано

не буде,

а

сам

приріст інформації дорівнюватиме нулю.

 

 

 

Якщо S0

розділена на

дві рівні

частини ( S0

= 2 S ),

то

для

встановлення, в якій саме площадці знаходиться наша точка, достатньо поставити один експеримент і відповісти на питання «так» - «ні», чи «одиниця»-«нуль».

Якщо площина S0 розділена на чотири рівних частини, то при

раціональному пошуку світлової точки, необхідно два рази відповісти на питання «так»-«ні»: один раз при виявленні у верхній або нижній частині (чи лівій-правій) і вдругий раз, досліджуючи одну з двох залишених площадок.

Продовживши ділення площини S0 на більш мілкі площадки,

можна побачити, що загальна кількість інформації у вигляді двозначних відповідей «так»-«ні», необхідних для ідентифікації

досліджуваної точки конкретної площадки

S , буде дорівнювати

логарифму при основі 2 від п, кількості можливих виборок:

I log2 n .

(146)

Число п можна пов’язати з імовірністю знаходження точки в одній

елементарній площадці площиною S :

 

P 1/ n .

(147)

1

 

Тоді кількість інформації, яка може бути отримана в результаті ідентифікації точки конкретної площадки S , визначиться виразом:

- 75 -

I log

 

n log

 

1

log

P .

(148)

 

2 P

 

2

 

 

2 1

 

 

 

 

1

 

 

 

Імовірність знаходження досліджуваної точки в межах і-ї площадки може бути різною, позначимо її через Pi . Тоді середню кількість інформації, яка отримується при аналізі однієї площадки S при пошуку досліджуваної точки на площині S0 , можна визначити математичним очікуванням:

 

 

1

n

 

I1

 

Pi log 2 Pi .

(149)

 

 

 

n i 1

 

На

основі (149) повна кількість інформації, яка

може бути

отримана в результаті ідентифікації світної точки, конкретної

площадки S (тобто міститься

в об’єкті

до

експерименту),

буде

дорівнювати:

 

 

 

 

 

n

 

 

 

 

 

I nI1 Pi

log 2 Pi .

 

 

 

(150)

i 1

 

 

 

 

 

Кількісна міра інформації, що розраховується згідно з (150) в

теорії інформації

називається

ентропією

й

позначається

H .

Відповідно до викладеного матеріалу, ентропію можна трактувати як міру невизначеності знань про предмет, явище (міра хаотичності знань) до експерименту чи як міру кількості інформації, яка може бути отримана в результаті експерименту по зняттю невизначеності знань про предмет.

Згідно до (150), запишемо:

n

 

I H Pi log 2 Pi ,

(151)

i 1

 

де п – кількість дискретних значень, Pi

- дискретна ймовірність

знаходження досліджуваного параметра в і-му стані.

Проте на практиці доводиться мати справу з невизначеними процесами, параметри яких g , що визначають приналежність до

даного стану, змінюються неперервно. Тоді від суми (151) для визначення ентропії слід перейти до інтегралу:

- 76 -

 

(g) dg,

 

H ' (g) log 2

(152)

 

 

 

де (g) - функція густини ймовірності, яка вказує на те, що даний параметр g набуває те або інше значення; (g)dg - ймовірність того, що значення величини g знаходиться в інтервалі g dg .

Для зручності розрахунків ентропії, а також для усунення

можливої розбіжності інтегралу (152) під знак

log2 вводиться так

званий дискретизуючий

множник g , що має

смисл

найменшого

інтервалу значень змінної g , з точність до якого ( g )

цю величину

можна визначити. Тоді маємо:

 

 

 

 

 

 

H (g) log2 g (g) dg

 

 

 

 

 

(153)

 

 

 

 

 

log2 g (g)dg (g) log2 (g) dg H H g ,

 

 

 

 

де H log2 g , H g H ' .

Оскільки величини g , (g) - розмірні, то вирази (152), (153)

будуть справедливими при заданні даних величин у вигляді безрозвимірних параметрів.

У відповідності до (152) та (153), величини H , H g H ' , H

мають такий смисл:

H - повна ентропія;

H - ентропія, що залишається в об’єкті після експерименту чи

інакше, - це те значення ентропії, нижче якого неможливо опуститися після виконання експерименту над об’єктом.

H g

H H ,

(154)

H g

- значення ентропії,

яке отримується в результаті виконання

експерименту над об’єктом.

- 77 -

Величина H g чисельно дорівнює різниці між повним значенням

ентропії та ентропією, що залишається в об’єкті після виконання експерименту.

Числове значення ентропії залежить від вигляду функції густини

ймовірності (g)

та дискретизуючого множника g ,

 

Приклади:

 

 

 

 

 

 

 

 

1. Нормальний закон розподілу густини ймовірності.

 

(g)

 

 

1

 

 

 

exp(

g 2

 

).

(155)

 

 

 

 

 

 

 

 

2

2

 

2

 

 

 

g

 

 

 

 

 

 

 

 

 

g

 

 

Згідно з (153),

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H log

 

 

 

2e g

,

 

 

 

(156)

2

 

 

 

 

 

 

 

 

 

 

 

g

 

 

 

 

 

 

 

 

 

 

 

 

 

 

де g - дисперсія.

H g log2 2e g ,

H log2 g .

Слід зазначити, що вираз (155) отримується з використанням Г- функції

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Г (Р) exp(x)x P 1dx ,

Г (1/ 2)

, Г (P 1) (Р) ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Г (3/ 2)

1

 

Г (1/ 2)

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

2. Випадкова величина

 

g характеризується постійною густиною

ймовірності в заданому інтервалі.

 

 

 

 

 

 

 

1

 

 

при g g1

та g g2

 

 

(g)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g1

 

 

 

 

 

 

 

 

 

g

2

 

 

 

 

 

 

 

(157)

 

 

 

 

0

 

 

при g g1

та g g2

 

 

 

 

 

 

 

 

 

 

H log

 

 

g2

g1

 

log

 

n,

 

(158)

2

 

 

g

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

- 78 -

 

 

де п – кількість інтервалів дискретизації, що вкладаються в діапазоні можливих значень величини g .

1.5.2. Ентропія процесу, залежного від кількох параметрів

Нехай стан процесу (явища) визначається декількома параметрами, кількість яких т: g1 , g2 , … , gm , а самі параметри

взаємнозалежні.

Тоді загальна ентропія визначається такою сумою:

H (g1, g2 ,..., gm ) H (g1 ) H (g2

/ g1 )

(159)

H (g3 / g1, g2 ) ... H (gm / g1, g2 ,..., gm 1 )

 

де H (g1 ) - умовна ентропія параметра g1 , при відсутності інформації про інші параметри;

H (g2 / g1 ) - умовна ентропія параметра g2 у випадку, коли отримана інформація про g1 ;

H (g3 / g1, g2 ) - умовна ентропія параметра g3 , при умові, що

отримана інформація про параметри g1 та g2 і т.д.

В тому випадку, коли параметри будуть статистично незалежні, то сумарна ентропія визначиться сумою ентропій за окремими параметрами:

 

 

 

 

m

 

 

 

H (g1 , g2 ,..., gm ) H (gi ).

 

(160)

 

 

 

 

i 1

 

 

 

Для т-го неперервного випадкового процесу, що характеризується

т-вимірною густиною ймовірності (g1 , g

 

2 ,..., gm ) (g) ,

 

 

 

 

 

 

 

H (g) (g) log 2

g (g) dg ,

(161)

 

 

 

 

 

 

 

 

 

(m)

 

 

 

 

 

g

 

... g

dg1

dg2 ...dgm .

 

де g g

2

; dg

 

1

 

 

n

 

 

 

 

При умові, що всі параметри статистично незалежні між собою, то

 

 

 

 

 

 

 

 

 

(g) (g1 ), (g2 )... (gm )

 

(162)

і ентропія визначиться відповідно до (161):

- 79 -

 

m

 

gi (gi ) dgi .

 

H (g) (gi ) log 2

(163)

 

i 1

 

 

 

(m)

1.5.3. Кількість інформації, що отримується на заданому інтервалі аргументу параметра досліджуваного процесу.

Нехай випадкова величина g є функцією аргументу х, ( g g(x) )

і

характеризується густиною ймовірності

в

кожній точці xi -

g(xi ) .

 

 

 

 

 

 

Якщо максимальна кількість інформації може бути знайдена при

дослідженні

процесу на всьому

інтервалі

можливих

значень

0 x X , тоді в кожній точці xi

інформація визначиться згідно з

рівністю (153):

 

 

 

 

 

 

 

g (xi ) (g(xi )) dgi ,

 

 

I (xi ) H (xi ) (g(xi )) log 2

(153а)

 

 

 

 

 

 

 

де

H (xi ) -

інформація, отримана

в точці

xi

, g (xi ) -

параметр

дискретизації, що залежить від вибору точок дискретизації.

Відповідь на це питання тісно пов’язана з оптимальним вибором кількості досліджуваних точок xk на інтервалі 0 X , а також із

відповідним вибором параметра дискретизації. На перший погляд може здатися, що величина числа відліків на інтервалі 0 X може привести до значного росту інформації за рахунок підсумовування інформації за всіма точками. Однак таке підсумовування буде справедливим, якщо відліки між собою виявляться статистично незалежними чи нескорельованими. При цьому зі зменшенням відстані x xi 1 xi зростає шум, а це приводить до збільшення

параметра g (xi ) . Приклад із Фур’є-спектроскопії чи спектрометрії:

У Фур’є-спектрометрі крок відліку визначається величиною

1

,

 

2 m

а шум буде визначатись величиною інтервалу 0 X . При цьому з ростом інтервалу сканування відбувається нагромадження шумів.

- 80 -

Тут вы можете оставить комментарий к выбранному абзацу или сообщить об ошибке.

Оставленные комментарии видны всем.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]