- •1. Основні положення теорії випадкових процесів випадкові процеси
- •Випадкова функція
- •Нормальний випадковий процес і його використання для моделюванні випадкових сигналів і завад
- •Марковські процеси
- •Марковський ланцюг
- •Марковська послідовність
- •Процеси із “забрудненим” розподілом типу Тьюкі
- •Процеси з полігаусівським розподілом
1. Основні положення теорії випадкових процесів випадкові процеси
Теорія і практика оцінювання, виявлення та фільтрації сигналів у завадах є одним з найважливіших розділів в теорії і техніці інформаційних систем, радіосистем, систем технічної діагностики тощо.
Сигнали
Загальною властивістю сигналів є принципово випадковий характер тому, що сигнал несе інформацію, яка в точці прийому відсутня і невідома для спостерігача до моменту його отримання.
Сигнали, що переносять інформацію в системах зв’язку, в радіолокаційних та радіонавігаційних системах, являють собою певну фізичну величину, що є функцією часу t:
,
(1.1)
де – інформаційний параметр, значення якого містить потрібну інформацію; – параметр, значення якого не містить корисної інформації, а залежить від тих чи інших технічних умов або від завад.
Як крайній випадок, коли значення параметрів і відомі вже до початку спостереження, то значенння функції (1.1) завжди можна обчислити, відповідно така функція є детермінованою і не містить нової інформації. Якщо з функцією пов’язуємо одну або декілька випадкових величин, тобто робимо один або декілька параметрів випадковими на інтервалі спостереження, то функція стає випадковою.
Прикладом аналогового сигналу (випадкового) є одночасно частотно- та амплітудно-модульований гармонічний сигнал
,
де
Е(t)
– обвідна; 0
–
частота та
фаза сигналу, Т
тривалість спостереження. У даному
випадку інформаційними параметрами є
амплітуда та фаза, неінформаційним –
частота. Найпростішим цифровим сигналом
вважається бінарний телеграфний сигнал,
у якого амплітуда може приймати лише
два значення
,
а інформація визначається моментами
її зміни.
Випадкова функція
Випадковою
називають функцію, яка в досліді може
набути того або іншого вигляду X(t,),
заздалегідь невідомого. Отриманий в
результаті одного досліду її конкретний
вигляд називають реалізацією. Принциповим
для задач обробки сигналів є той факт,
що зазвичай сигнал спотворюється шумами
та
завадами
,
тобто спостерігаємо (адитивна
суміш)
(1.2)
.
Випадкові
функції, де t
час, а
випадкова величина, називаються
випадковими процесами. Для фіксованого
значення аргументу процес
вироджується
у випадкову величину, яка називається
перетином. Внаслідок серії дослідів
над процесом отримаємо групу його
реалізацій.
Теорія, що вивчає випадкові функції часу, називається теорією випадкових процесів.
У багатьох радіотехнічних задачах під час розгляду моделей сигналів є можливість обмежитись випадковими функціями виду X(t,), де X детермінована функція часу і певної векторної випадкової величини =(1, 2,..., k), k>1. Такі процеси називаються квазідетермінованими. Як приклад квазідетермінованого процесу можна навести гармонічний сигнал з випадковими амплітудою Е, частотою і фазою . Вважають, що параметри квазідетермінованого сигналу є незмінними на інтервалі спостереження t0,...,T і змінюються за випадковим законом в разі переходу від одного інтервалу спостереження (реалізації) до іншого.
Подання випадкового процесу системою випадкових величин
В цифрових системах обробки сигналів процеси реєструються через певні часові інтервали дискретизації, зазвичай однакові t, внаслідок чого реалізація перетворюється у систему (множину) m випадкових величин (відіків):
.
(1.3)
Із зменшенням інтервалу дискретизації t і, відповідно із збільшенням розмірності системи m, така заміна стає все більш точною. На практиці обмежуються певними значеннями інтервалу дискретизації, виходячи з характеристик сигналів і завад та потрібної точності їхнього представлення.
Повною статистичною характеристикою кожного випадковою значення X(tі) процесу є відповідна функція розподілу ймовірностей
,
(1.4) (
яка визначає ймовірність того, що випадковий процес у момент часу ti набуває значення, меншого ніж x.
Визначивши ймовірності (1.4) для усіх значень ti0...Т, можна розглядати розподіл F(x,t) як функцію часу й інтерпретувати як одновимірну функцію розподілу ймовірностей випадкового процесу X(t).
Більш повний опис процесу X(t) як системи (1.3) випадкових величин дає його m-вимірна функція розподілу імовірностей
,
яка статистично пов’язує всі m відліків. Якщо ця функція диференційована по х1,...,хm, то можна визначити m-вимірну щільність розподілу імовірностей (ЩРІ) випадкового процесу як
.
(1.4)
ЩРІ є невід’ємною функцією та відповідає умові нормування
.
Багатовимірний розподіл дозволяє визначити широкий клас випадкових процесів, що мають назву стаціонарних. Випадковий процес називається стаціонарним у вузькому розумінні, якщо його кінцево-вимірний закон розподілу будь-якого порядку m не змінюється при довільному зсуві у часі, тобто для будь-яких m і має місце рівність:
.
Надалі розглядаємо тільки стаціонарні випадкові процеси.
Окремо зазначимо, що процеси з неперервним часом можна описати кінцево-вимірними розподілами (1.4) лише наближено. Однак, беручи моменти часу t1,...,tn досить близько один до одного, за великих m можна з достатньою для багатьох практичних задач точністю апроксимувати процес X(t) послідовністю випадкових величин X(t1),...,X(tn). Тоді при статистичному описанні процесу можна обмежитись кінцево-вимірними розподілами.
Моментні й кореляційні функції
У багатьох випадках для характеристики випадкових процесів замість ЩРІ використовують більш прості (інтегральніі) характеристики моментні й кореляційні функції.
Перша моментна функція – математичне сподівання – відповідає середньому значенню процеса X(t), тобто це така функція a(t), навколо якої групуються всі його реалізації:
(1.5)
Друга моментна функція називається дисперсією випадкового процесу
.
(1.6)
При
кожному фіксованому значенні аргументу
функції
(1.5)
та (1.6) вироджуються у числа, що дорівнюють
математичному сподіванню
та
дисперсії
випадкової
величини X(ti).
Третя моментна функція являє собою змішаний момент другого порядку m11{t1,t2}, який називається функцією коваріації B(t1,t2) випадкового процесу
.
Четверта моментна функція це центральний змішаний момент другого порядку, що називається функцією автокореляції R(t1,t2) процесу
Між функціями B(t1,t2) і R(t1,t2) існує залежність
Моментні функції високих порядків використовують в практиці обробки сигналів рідко і далі не розглядаються.
Моментні функції дозволяють визначати клас стаціонарних процесів в широкому розумінні, якщо математичне сподівання постійне, а автокореляційна функція залежить тільки від різниці аргументів
,
За певних умов стаціонарний випадковий процес стає ергодичним, якщо усереднення за множиною його реалізацій, збігаються з результатами усереднення за часом. Це дозволяє множину реалізацій замінити однією протяхною за часом реалізацією. Тоді математичне сподівання та кореляційна функція випадкового процесу визначаються виразами:
,
.
В технічних розрахунках інтервал усереднення Т вважають скінченим, але достатньо великим, і якщо реалізація випадкового процесу представлена послідовністю значень (x1,...,xn) в моменти t1,...,tn, то оцінки (позначається зірочкою) можна обчислити за формулами
,
.
