Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Прокопенко Гл1_10с.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
273.92 Кб
Скачать

1. Основні положення теорії випадкових процесів випадкові процеси

Теорія і практика оцінювання, виявлення та фільтрації сигналів у завадах є одним з найважливіших розділів в теорії і техніці інформаційних систем, радіосистем, систем технічної діагностики тощо.

Сигнали

Загальною властивістю сигналів є принципово випадковий характер тому, що сигнал несе інформацію, яка в точці прийому відсутня і невідома для спостерігача до моменту його отримання.

Сигнали, що переносять інформацію в системах зв’язку, в радіолокаційних та радіонавігаційних системах, являють собою певну фізичну величину, що є функцією часу t:

, (1.1)

де  – інформаційний параметр, значення якого містить потрібну інформацію;  – параметр, значення якого не містить корисної інформації, а залежить від тих чи інших технічних умов або від завад.

Як крайній випадок, коли значення параметрів  і  відомі вже до початку спостереження, то значенння функції (1.1) завжди можна обчислити, відповідно така функція є детермінованою і не містить нової інформації. Якщо з функцією пов’язуємо одну або декілька випадкових величин, тобто робимо один або декілька параметрів випадковими на інтервалі спостереження, то функція стає випадковою.

Прикладом аналогового сигналу (випадкового) є одночасно частотно- та амплітудно-модульований гармонічний сигнал

,

де Е(t) – обвідна; 0 – частота та  фаза сигналу, Т  тривалість спостереження. У даному випадку інформаційними параметрами є амплітуда та фаза, неінформаційним – частота. Найпростішим цифровим сигналом вважається бінарний телеграфний сигнал, у якого амплітуда може приймати лише два значення , а інформація визначається моментами її зміни.

Випадкова функція

Випадковою називають функцію, яка в досліді може набути того або іншого вигляду X(t,), заздалегідь невідомого. Отриманий в результаті одного досліду її конкретний вигляд називають реалізацією. Принциповим для задач обробки сигналів є той факт, що зазвичай сигнал спотворюється шумами та завадами , тобто спостерігаємо (адитивна суміш)

(1.2) .

Випадкові функції, де t  час, а   випадкова величина, називаються випадковими процесами. Для фіксованого значення аргументу процес вироджується у випадкову величину, яка називається перетином. Внаслідок серії дослідів над процесом отримаємо групу його реалізацій.

Теорія, що вивчає випадкові функції часу, називається теорією випадкових процесів.

У багатьох радіотехнічних задачах під час розгляду моделей сигналів є можливість обмежитись випадковими функціями виду X(t,), де X  детермінована функція часу і певної векторної випадкової величини =(1, 2,..., k), k>1. Такі процеси називаються квазідетермінованими. Як приклад квазідетермінованого процесу можна навести гармонічний сигнал з випадковими амплітудою Е, частотою  і фазою . Вважають, що параметри квазідетермінованого сигналу є незмінними на інтервалі спостереження t0,...,T і змінюються за випадковим законом в разі переходу від одного інтервалу спостереження (реалізації) до іншого.

Подання випадкового процесу системою випадкових величин

В цифрових системах обробки сигналів процеси реєструються через певні часові інтервали дискретизації, зазвичай однакові t, внаслідок чого реалізація перетворюється у систему (множину) m випадкових величин (відіків):

. (1.3)

Із зменшенням інтервалу дискретизації t і, відповідно із збільшенням розмірності системи m, така заміна стає все більш точною. На практиці обмежуються певними значеннями інтервалу дискретизації, виходячи з характеристик сигналів і завад та потрібної точності їхнього представлення.

Повною статистичною характеристикою кожного випадковою значення X(tі) процесу є відповідна функція розподілу ймовірностей

, (1.4) (

яка визначає ймовірність того, що випадковий процес у момент часу ti набуває значення, меншого ніж x.

Визначивши ймовірності (1.4) для усіх значень ti0...Т, можна розглядати розподіл F(x,t) як функцію часу й інтерпретувати як одновимірну функцію розподілу ймовірностей випадкового процесу X(t).

Більш повний опис процесу X(t) як системи (1.3) випадкових величин дає його m-вимірна функція розподілу імовірностей

,

яка статистично пов’язує всі m відліків. Якщо ця функція диференційована по х1,...,хm, то можна визначити m-вимірну щільність розподілу імовірностей (ЩРІ) випадкового процесу як

. (1.4)

ЩРІ є невід’ємною функцією та відповідає умові нормування

.

Багатовимірний розподіл дозволяє визначити широкий клас випадкових процесів, що мають назву стаціонарних. Випадковий процес називається стаціонарним у вузькому розумінні, якщо його кінцево-вимірний закон розподілу будь-якого порядку m не змінюється при довільному зсуві у часі, тобто для будь-яких m і  має місце рівність:

.

Надалі розглядаємо тільки стаціонарні випадкові процеси.

Окремо зазначимо, що процеси з неперервним часом можна описати кінцево-вимірними розподілами (1.4) лише наближено. Однак, беручи моменти часу t1,...,tn досить близько один до одного, за великих m можна з достатньою для багатьох практичних задач точністю апроксимувати процес X(t) послідовністю випадкових величин X(t1),...,X(tn). Тоді при статистичному описанні процесу можна обмежитись кінцево-вимірними розподілами.

Моментні й кореляційні функції

У багатьох випадках для характеристики випадкових процесів замість ЩРІ використовують більш прості (інтегральніі) характеристики  моментні й кореляційні функції.

Перша моментна функція – математичне сподівання – відповідає середньому значенню процеса X(t), тобто це така функція a(t), навколо якої групуються всі його реалізації:

(1.5)

Друга моментна функція називається дисперсією випадкового процесу

. (1.6)

При кожному фіксованому значенні аргументу функції (1.5) та (1.6) вироджуються у числа, що дорівнюють математичному сподіванню та дисперсії випадкової величини X(ti).

Третя моментна функція являє собою змішаний момент другого порядку m11{t1,t2}, який називається функцією коваріації B(t1,t2) випадкового процесу

.

Четверта моментна функція  це центральний змішаний момент другого порядку, що називається функцією автокореляції R(t1,t2) процесу

Між функціями B(t1,t2) і R(t1,t2) існує залежність

Моментні функції високих порядків використовують в практиці обробки сигналів рідко і далі не розглядаються.

Моментні функції дозволяють визначати клас стаціонарних процесів в широкому розумінні, якщо математичне сподівання постійне, а автокореляційна функція залежить тільки від різниці аргументів

,

За певних умов стаціонарний випадковий процес стає ергодичним, якщо усереднення за множиною його реалізацій, збігаються з результатами усереднення за часом. Це дозволяє множину реалізацій замінити однією протяхною за часом реалізацією. Тоді математичне сподівання та кореляційна функція випадкового процесу визначаються виразами:

, .

В технічних розрахунках інтервал усереднення Т вважають скінченим, але достатньо великим, і якщо реалізація випадкового процесу представлена послідовністю значень (x1,...,xn) в моменти t1,...,tn, то оцінки (позначається зірочкою) можна обчислити за формулами

, .