Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Сигнали електрозв’язку- навчальний посібник з вивч

.pdf
Скачиваний:
163
Добавлен:
10.02.2016
Размер:
1.2 Mб
Скачать

 

 

 

 

 

 

 

31

1

ejωt

j

при ω > 0,

 

H ( jω) = g(t )ejωt dt =

 

 

dt =

 

.

(2.82)

 

πt

 

−∞

π −∞

 

j

при ω < 0.

 

або

H ( jω) = − j sign(ω).

Нехай Sx(jω) – спектральна густина сигналу x(t).

сигналу ~( ) визначається

х t

S~ ( jω) =

j S x ( jω)

при

ω > 0,

x

 

j S x ( jω)

при

ω < 0.

 

 

(2.83)

Тоді спектральна густина

(2.84)

Знайдемо спектральну густину аналітичного сигналу

S

( jω) = S

( jω) + jS~ ( jω) =

2S x ( jω) при

ω > 0,

xɺ

x

x

0

при

ω < 0.

 

 

 

 

 

 

Ми виявили важливу властивість аналітичного сигналу – від’ємних частотах дорівнює нулю (рис. 2.13).

Зворотне перетворення Гілберта

~(τ)

x(t ) = − 1 x dτ . π −∞t − τ

(2.85)

його спектр на

(2.86)

 

 

 

 

 

Sx(jω)

 

 

 

S ɺ( jω)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

Sx(0)

 

 

 

2Sx(0)

 

 

 

 

 

 

 

 

 

 

 

 

ω

 

 

 

 

ω

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

0

 

 

 

 

 

a

 

 

б

 

 

 

 

Рисунок 2.13 – Спектральні густини: а – сигналу x(t); б – відповідного йому аналітичного сигналу хɺ(t )

Модуль аналітичного сигналу

 

 

 

 

 

 

 

A(t ) =

x

2

~ 2

(t )

(2.87)

 

(t ) + x

є обвідною сигналу x(t), а аргумент

~( )

ϕ(t ) = arctg x(t) (2.88) x t

фазою сигналу x(t).

Звиразів (2.87) і (2.88) випливає, що аналітичний сигнал може бути записаний у вигляді:

ɺ

jϕ(t )

.

(2.89)

x(t ) = A(t )e

 

32

Таким чином, поняття обвідної й фази сигналу можуть застосовувати- ся не тільки до смугових, але й низькочастотним сигналів. Обвідна задовольняє двом умовам: A(t) ³ ½x(t)½– функція A(t) ніде не перетинає функцію x(t) і в точках дотику функцій A(t) і x(t) їхні похідні збігаються: A¢(t) = x¢(t), тобто функції мають загальні дотичні.

2.11 Дискретизація смугових сигналів

Подання смугових сигналів дискретними необхідно, коли їхнє перетворення (фільтрація, детектування тощо) виконуються процесорами цифрових си-

гналів. У випадку смугових сигналів, а особливо вузькосмугових сигналів, час-

тота дискретизації може бути істотно менша за 2fmax.

Спектральна густина дискретного сигналу описується виразами (2.63) і (2.63а). На рис. 2.14, а наведено амплітудний спектр довільної форми S(f) смугового сигналу, що зосереджений на інтервалі (fmin, fmax). На рис. 2.14, б зображено амплітудний спектр дискретного сигналу, що може мати місце при дискретизації сигналу зі спектром, наведеним на рис. 2.14, а.

Заради наочності складові спектра дискретного сигналу, які викликані періодичним повторенням смуг частот (fmin, fmax) і (– fmax, fmin), позначені “ заливкою” різної густини. Щоб складові спектра на рис. 2.14, б не перекривалися, необхідно так вибрати частоту дискретизації fд, щоб задовольнити двом умовам, які випливають з рис. 2.14, б:

f,min + kfд fmin і fmax ≤ − fmax + (k + 1) fд , (2.86)

де k – ціле число.

Нерівності (2.86) перепишемо так, щоб обмежити знизу і зверху значення частоти дискретизації fд:

2 fmax

£ fд £

2 fmin

, k = 0, 1, 2, ..., kmax .

(2.87)

k +1

k

Максимальне значення числа kmax визначається за умови, що складові спектра будуть розміщені максимально близько, з рис. 2.14, б – у формулах (2.86) необхідно знаки нерівностей змінити на знаки рівностей

f,min + kmax fд = fmin

і

fmax = − fmax + (kmax + 1) fд .

(2.88)

За цих рівностей частота дискретизації fд визначається

 

д =

2 fmax

=

2 fmin

 

f

 

 

.

(2.89)

kmax + 1

kmax

Рішення рівняння (2.89) відносно kmax дає (з урахуванням того, що k ціле)

 

fmin

 

kmax

= int

 

.

(2.90)

 

 

DF

 

У випадку, коли k = 0, частота дискретизації fд ³ 2fmax, тобто це умова вибору частоти дискретизації для первинних сигналів, що задовольняє теоремі

33

Котельникова. Коли k > 0, то подання смугового сигналу дискретним стає більш ощадливим (меншим числом відліків). Найбільш ощадливе подання сигналу буде, коли k = kmax.

Відновлення неперервного смугового сигналу за відліками здійснюється смуговим фільтром, у якого нижня гранична частота смуги пропускання не бі- льша fmin, а верхня гранична частота смуги пропускання не менша fmax.

S(f)

F

 

 

 

 

0

 

 

f

 

 

 

 

 

 

 

f

max fmin

a

 

f

min f

max

Sд(f)

 

 

 

 

 

 

 

 

 

 

 

 

f

 

 

 

fд

 

 

0

 

 

 

 

 

 

 

 

 

 

 

fд

 

 

 

 

 

 

 

 

 

fmin+kfд f

 

max fmax+(k+1)fд

fmax fmin

 

 

 

 

б

 

 

 

min f

 

 

 

 

 

 

 

Рисунок 2.14 – Спектри неперервного смугового і дискретного сигналів

Контрольні питання до розділу 2

1.Дайте визначення неперервного, дискретного, квантованого і цифрового сигналів.

2.Дайте визначення первинного і вторинного сигналів

3.Дайте визначення детермінованого і випадкового сигналів.

4.Дайте визначення періодичного і неперіодичного сигналів.

5.Дайте визначення простого і складного сигналу.

6.В чому різниця між сигналом та коливанням?

7.Дайте визначення миттєвої потужності сигналу, яка її розмірність і що вона характеризує?

8.Дайте визначення середньої потужності і енергії сигналу.

9.За яких умов сигнал називають нормованим?

10.Дайте визначення кореляційної функції сигналу.

11.Що називають узагальненим рядом Фур'є? Запишіть його вираз та вираз розрахунку коефіцієнтів розкладання.

12.Поясніть поняття аналіз та синтез сигналу.

13.Запишіть основні співвідношення для N-вимірного лінійного метричного простору.

34

14. Запишіть відомі Вам форми ряду Фур'є при тригонометричному бази-

сі.

15. Дайте визначення амплітудного і фазового спектра періодичного сиг-

налу.

16.Дайте визначення поняттям основна частота і гармоніка сигналу, ширина спектра сигналу.

17.Яким чином здійснюють спектральний аналіз періодичного і неперіодичного сигналів? В чому принципова відмінність їх спектрів?

18.Наведіть відомі Вам властивості перетворення Фур'є.

19.В чому особливість спектра дискретного сигналу? Як здійснюють дискретний спектральний аналіз?

20.Сформулюйте теорему Котельникова та доведіть її в частотній облас-

ті.

21.Що називається рядом Котельникова і що він ілюструє?

22.Дайте визначення смугового і вузькосмугового сигналів. Як їх описують, які їх основні параметри?

23.Запишіть відомі Вам форми подання смугового сигналу.

24.Який сигнал називається аналітичним і що необхідно для його отри-

мання?

25.Поясніть особливості дискретизації смугових сигналів.

35

3 ОПИС ВИПАДКОВИХ ПРОЦЕСІВ

3.1 Визначення випадкових процесів

У попередніх розділах розглянуті засоби опису детермінованих сигналів. Однак багато задач теорії й техніки зв'язку можуть бути вирішені тільки при описі сигналів і завад випадковими функціями. Випадкова функція якого-

небудь аргументу це така функція, що при кожному значенні аргументу є

випадковою величиною. Випадкова функція часу називається випадковим (сто-

хастичним) процесом. Наприклад, напруга завади на виході лінії зв'язку є випадковою функцією часу, тому що ця напруга залежить від безлічі заздалегідь не передбачених і неконтрольованих факторів, які змінюються у часі.

Позначимо випадковий процес, що розглядається, як X(t). Окремі спостереження над процесом, проведені в однакових контрольованих умовах досліду, дають щораз різні функції x(t) – різні реалізації випадкового процесу. Сукупність {xk(t)} всіх можливих реалізацій даного випадкового процесу називається

ансамблем (рис. 3.1). Статистичний підхід до опису випадкового процесу поля-

гає в тому, що визначають деякі усереднені характеристики для ансамблю {xk(t)} у цілому.

x1(t)

x+ x x

t

x2(t)

x+ x

x

t

x3(t) x+ x x

t

x4(t)

x+ x x

t1

t

Рисунок 3.1 – Ансамбль реалізацій

36

3.2 Імовірнісні характеристики випадкових процесів

Найбільш уживаними серед статистичних характеристик випадкових процесів є імовірнісні характеристики. Найпростіша з них – одновимірний роз- поділ імовірностей. Якщо фіксувати деякий момент часу t1, то значення X(t1) – випадкова величина, різні реалізації приймають різні значення. Нехай P{X(t1) ≤

x} – імовірність того, що в момент t1 величина X(t1) не перевищує деяке зна-

чення x (рис. 3.1). Тоді

F1 (x, t1 ) = P{X (t1 ) ≤ x}

(3.1)

називається одновимірною функцією розподілу ймовірностей випадкового процесу X(t).

Часткова похідна

F1 (x, t1 ) = p (x, t ) ,

(3.2)

x

1

1

 

 

 

якщо вона існує, називається одновимірною густиною ймовірності випадко-

вого процесу X(t) для моменту t1.

Якщо з тексту ясно, що мова йде про одновимірний розподіл, то індекс 1

у функцій (3.1) і (3.2) опускають. З визначення функції F (x,t1 )

(3.1) випливає,

що при x1 < x2

 

F (x2 , t1 )− F (x1 , t1 ) = P{x1 < X (t1 ) ≤ x2 } –

(3.3)

різниця значень функції розподілу визначає ймовірність потрапляння значень процесу X(t) у момент t1 в інтервал (x1, x2). Застосовуючи (3.3) до визначення функції p(x, t1), одержимо

p(x, t ) = lim

F (x +

x, t1 ) − F (x, t1 )

= lim

P{x < X (t1 ) ≤ x +

x}

 

 

 

 

 

1

x→0

x

x→0

x

 

 

 

 

 

або

 

 

 

 

 

 

 

 

 

 

p(x, t1 )

x P{x < X (t1 ) ≤ x +

x} –

(3.4)

добуток p(x, t1 ) x дає наближене значення ймовірності потрапляння значень

процесу X(t) у момент t1 в інтервал (x, x + x) (рис. 3.1). Для довільного інтер-

валу (x1, x2)

x2

 

P{x1 < X (t1 ) ≤ x2 } = p(x,t1 )dx .

(3.5)

x1

 

Застосовуючи (3.5) до (3.1), одержимо, що

 

x

 

F (x,t1 ) = p(x,t1 )dx .

(3.6)

−∞

Співвідношення (3.3) і (3.5) виражають одне з основних призначень одновимірних функцій розподілу й густини ймовірності випадкового процесу.

37

Оскільки сумарна ймовірність усіх можливих значень процесу дорівнює одиниці, то

F (∞, t1 ) = p(x, t1 )dx = 1.

−∞

Останній вираз називається умовою нормування. Очевидно, що F(– ∞, t1) = 0, а діапазон можливих значень функції розподілу ймовірностей (0, 1).

Враховуючи, що F(x, t1) за визначенням є ймовірністю потрапляння в інтервал, розмір якого збільшується зі збільшенням аргументу, вона є неспадаючою. Останнє обумовлює невід'ємність густини ймовірності p(x, t1) ≥0.

Функції F1(x, t1) або p1(x, t1) у загальному випадку не можуть бути вичерпними характеристиками випадкового процесу. Адже цей процес, розглянутий у різні моменти часу, являє собою безліч випадкових величин, зв'язаних між собою статистичними залежностями. Зв'язок між двома значеннями випадкового процесу X(t) у моменти часу t1 і t2 ураховується двовимірною функцією розподілу ймовірностей і двовимірною густиною ймовірності.

Двовимірною функцією розподілу ймовірностей F2(x1, x2, t1, t2) випад-

кового процесу X(t) називається ймовірність складної події, що полягає в тому, що в момент t1 функція X(t) не перевищує деякого значення x1, а в момент t2 не

перевищує значення x2

F2 (x1 , x2 , t1 , t2 ) = P{X (t1 ) ≤ x1 ; X (t2 ) ≤ x2 }.

(3.7)

Двовимірною густиною ймовірності випадкового процесу X(t) назива-

ється часткова похідна другого порядку (якщо вона існує)

p (x , x , t , t

 

) =

2 F2 (x1 , x2 , t1 , t2 ) .

(3.8)

2

1

2

1

2

 

x1x2

 

 

 

 

Фіксуючи n = 3, 4,

...

моментів часу, за аналогією з (3.7),

знаходять n-

вимірну функцію розподілу ймовірностей процесу X(t)

Fn (x1 , x2 ,,xn ,t1 ,t2 ,,tn ) = P{X (t1 ) ≤ x1 ;X (t2 ) ≤ x2 ;;X (tn ) ≤ xn }.

(3.9)

Часткова похідна n-го порядку (якщо вона існує)

 

( n ) Fn (x1 , x2 ,,xn ,t1 ,t2 ,,tn ) = p

n

(x , x

,,x

n

,t ,t

2

,,t

n

)

(3.10)

 

 

x1x2 xn

 

1

2

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

є

n-вимірна

густина

імовірності

 

процесу

 

 

X(t).

Величина

pn

(x1 , x2 ,,xn ,t1 ,t2 ,,tn )dx1dx2 dxn визначає

ймовірність

складної

події, яка

полягає в тому, що в момент t1 функція X(t) перебуває в інтервалі між x1 і x1 + dx1, у момент t2 – в інтервалі між x2 і x2 + dx2 і т.д., зрештою, у момент tn функція X(t) перебуває в інтервалі між xn і xn + dxn. Інакше кажучи, n-вимірна густина імовірності, помножена на dx1 , dx2 , , dxn , визначає ймовірність про-

ходження функції X(t) через n “ щілин” ( рис. 3.2), розміри яких dx1 , dx2 , , dxn ,

а ординати x1 , x2 , , xn відповідно.

Чим більше значення n, тим повніше описано випадковий процес. Але одержання n-мірної густини ймовірності або n-мірної функції розподілу вима-

38

гає надзвичайно складної й трудомісткої обробки безлічі реалізацій xk(t) процесу X(t), причому, чим більше n, тим більш складною і трудомісткою є обробка. Відзначимо, що для рішення багатьох задач достатньо знати одновимірний або двовимірний розподіл імовірностей, оскільки доводиться мати справу з так званими стаціонарними процесами.

x(t)

dx1 x1

t1

Рисунок 3.2 –

dx3

dx2 x3

dxn

x2

xn

t2

 

t3

 

tn

t

До розрахунку ймовірності складної події за допомогою n-мірної густини ймовірності

Випадковий процес називається стаціонарним (у вузькому сенсі), якщо

для будь-якого цілого числа n ³ 1 і довільної послідовності t1 , t2 , , tn

справед-

лива рівність

 

pn (x1 , x2 ,,xn ,t1 ,t2 ,,tn ) = pn (x1 , x2 ,,xn ,t1 + t0 ,t2 + t0 ,,tn + t0 ) ,

(3.11)

де t0 – будь-яке значення. Інакше кажучи, розподіл імовірностей не залежить від початку відліку часу. Таким чином, статистичні характеристики стаціо-

нарного процесу залишаються незмінними в часі.

З рівності (3.11) випливає, що

p1 (x1 , t1 ) = p1 (x1 , t1 + t0 ) = p1 (x1 ) –

(3.12)

одновимірна густина ймовірності стаціонарного випадкового процесу не зале-

жить від часу.

Для двовимірної густини ймовірності рівність (3.11) приймає вид p2 (x1 , x2 ,t1 ,t2 ) = p2 (x1 , x2 ,t1 + t0 ,t2 + t0 ) .

Вважаючи, що t0 = −t1, одержимо

p2 (x1 , x2 ,t1 ,t2 ) = p2 (x1 , x2 , τ) ,

(3.13)

де τ = t2 t1. З (3.13) випливає, що у стаціонарних процесів двовимірний розпо-

діл імовірностей залежить не від самих моментів t1 і t2, а від їхньої різниці τ.

Далі будемо вважати, якщо не вказано іншого, то випадковий процес є стаціонарним.

39

3.3 Числові характеристики і кореляційна функція випадкових процесів

Багато практичних задач, пов'язаних з випадковими процесами, можна вирішувати, використовуючи більш “ грубі” характеристики процесів, ніж розподіли ймовірностей. Однієї з таких характеристик є середнє значення процесу

X (t) (аналог математичного очікування випадкової величини). Середнє зна-

чення процесу це рівень, навколо якого процес приймає свої значення. Його можна визначити, знаючи густину ймовірності процесу

 

X (t) = xp(x)dx .

(3.14)

−∞

Аналогічно, інтеграл з нескінченними межами добутку будь-якої характеристики процесу і густини ймовірності дозволяє знайти середнє значення цієї характеристики. Так, середня потужність процесу середнє значення квадрату

процесу

 

PX = X 2 (t) = x 2 p(x)dx .

(3.15)

−∞

Середнє значення квадрату відхилень процесу від середнього значення на-

зивається дисперсією процесу

 

D{X (t)} = [ X (t) − X (t)]2 = [x X (t)]2 p(x)dx .

(3.16)

−∞

Додатний корінь із дисперсії

σ X =

D{X (t)}

(3.17)

називається середнім квадратичним відхиленням процесу.

Як видно із співвідношень для середніх значень (3.14)–(3.17), для стаціонарних процесів вони є постійними величинами.

Уведені середні значення характеризують процес тільки в один довільний момент часу й зовсім не стосуються зв'язку між значеннями випадкового процесу в різні моменти часу. Зв’язок між значеннями X(t) і X(t + τ) (τ – довільний зсув у часі) статистично оцінюється кореляційною функцією(КФ) процесу X(t), що обчислюється як середнє значення добутку

∞ ∞

 

K X (τ) = X (t) X (t + τ) = ∫ ∫ x1 x2 p2 (x1 , x2 , τ)dx1dx2 .

(3.18)

−∞−∞

Можна вказати ряд властивостей КФ довільних стаціонарних процесів. 1. Якщо в співвідношенні (3.18) покласти τ = 0, то воно переходить у

співвідношення (3.15), тому

K X (0) = PX .

(3.19)

2. Оскільки КФ стаціонарного процесу не залежить від часу t, то середнє значення добутку X (t) X (t + τ) = X (t − τ) X (t) , тому

 

40

K X (−τ) = K X (τ) –

(3.20)

КФ випадкового процесу парна.

3. Розглянемо середній квадрат різниці значень процесу, інтервал часу між якими становить τ,

ε2 (τ) = [ X (t) − X (t + τ)]2 = X 2 (t) − 2 X (t) X (t + τ) + X 2 (t + τ) = 2K X (0) − 2K X (τ). (3.21)

Середній квадрат завжди додатний. Тому

K X (0) ³ K X (t) –

(3.22)

значення КФ будь-якого випадкового процесу при аргументі τ = 0 максимальне. 4. Відповімо на запитання: наскільки відрізняються в середньому значення процесу, інтервал часу між якими становить τ? Відповідь знаходиться у спів-

відношенні (3.21):

e2 (t)

= 2[K X (0) - K X (t)] –

(3.23)

чим більше відрізняється KX(t) від KX(0), тим більше в середньому відрізняються значення процесу, інтервал часу між якими становить t. Оскільки швидкість зміни значень будь-якого процесу з обмеженою шириною спектра кінцева, то існує деяка залежність між цими значеннями процесу. Чим більше ця залежність, тим більшою мірою значення повторюють одне одного й тим менше

e2 (t) . Таким чином, кореляційна функція KX(t) випадкового процесу X(t) ха- рактеризує ступінь статистичного зв'язку між значеннями процесу, час між

якими t.

Очевидно, що з ростом статистичний зв'язок між значеннями X(t) і X(t + t) зменшується й при досить великих взаємозв'язок зникає. При цьому якщо середнє значення процесу дорівнює нулю, то X (t) X (t + t) = 0 , оскільки добутки мають рівні ймовірності бути додатними або від’ємними. Отже, якщо X (t) = 0 , то при t½ ® ¥ функція KX(t) прямує до нуля, убуваючи монотонно

або коливаючись навколо нуля, як показано на рис. 3.3, а. Якщо ж X (t) ¹ 0 , то легко показати, що при t½ ® ¥ функція KX(t) прямує до X (t)2 (рис. 3.3, б).

KX(t)

 

KX(t)

 

 

 

2

 

 

 

 

 

 

 

 

 

X (t)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

a

 

 

 

 

t

 

 

 

 

б

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рисунок 3.3 –

Кореляційні функції випадкових процесів:

 

 

 

а

 

при

 

= 0; б

при

 

¹ 0

 

 

 

X (t)

X (t)