Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Прокопенко Гл1_10с.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
273.92 Кб
Скачать

Марковські процеси

Часто розподіли сигналів і завад є суттєво негаусівськими. Атмосферні, промислові, активні завади, які виникають внаслідок випадкової модуляції високочастотного коливання шумом, імпульсні та інші види завад потребують розробки негаусівських моделей. З розвитком техніки негаусівські моделі набувають все більшого значення i в багатьох задачах обробки сигналів стають основними.

Великі можливості моделювання випадкових процесів з негаусівським розподілом надає використання марківськіх процесів. До класу марківських моделей входять гаусівські (марківські) і негаусівські, корельовані і, як окремий випадок, некорельовані неперервні та імпульсні сигнали і завади.

Як вироджені випадки сюди входять також квазідетерміновані процеси. Важливою обставиною є збіжність за певних умов немарковського процесу з марковським і можливість апроксимації реальних процесів марківськими. Марківські моделі широко використовують в задачах виявлення сигналів.

Марковський ланцюг

Розглянемо процес X(ti) , що зветься дискретною випадковою послідовністю. У кожний момент часу t=ti він набуває одного з дискретних значень 1,...,k і зберігає його до майбутнього моменту. Якщо в попередній момент t=ti-1 процес мав значення l, то в момент t=ti він може лишитися в тому ж значенні чи набути будь-якого іншого, що зображена на рис.1.1.

Рис.1.1.Реалізація марковського ланцюга

Повне імовірнісне описання процесу дає скінченно-вимірна ймовірність

Pm = P{X(t1)=k1, X(t2)=k2,..., X(tm)=km},

визначена для різних значень m, k. На основі теореми добутку імовірностей можна записати

. (1.9)

Тобто безумовну ймовірність реалізації m значень дискретної випадкової послідовності записано у вигляді добутку безумовної ймовірності послідовності m-1 значень на умовну ймовірність m-го значення m, що має назву ймовірності переходу на m  1-му кроці.

Якщо таким же способом запиcати безумовну ймовірність

,

і так далі до P2 включно, то отримаємо:

(1.10)

Формула (1.10) справедлива для будь-якої дискретної випадкової послідовності. Для обчислення сумісних імовірностей Pm треба задати ймовірність початкового стану P1(k1) і вказати фізичний механізм переходу процесу від одного стану до іншого, що дозволить обчислити ймовірності переходу {}. Можна вказати такі окремі випадки дискретних послідовностей.

1. Імовірність переходу між станами на -у кроці (-й момент часу) не залежить від того, яких значень набував процес у попередні моменти часу:

,

то формула (1.10) набуває виду:

Як відомо, такою формулою описується послідовність незалежних подій або послідовність незалежних значень випадкового процесу, яка утворює окремий (вироджений) випадок ланцюга Маркова.

2. Імовірність переходу від одного стану до іншого на -му кроці залежить лише від того, яке значення мав процес на (-1)-му кроці, і не залежить від значень, яких набував процес у попередні -2 моменти часу:

Процеси, які мають таку властивість, називаються простими ланцюгами Маркова або процесами без післядії, а формула (1.10) змінюється до:

. (1.11)

Визначено, що для двох кроків (m=2) співвідношення (1.11) витікає з теореми добутку ймовірностей і може бути записане завжди. Але вже для трьох кроків марковська властивість накладає суттєві обмеження на вид можливих сумісних імовірностей.

У тому випадку, коли перехідні ймовірності не залежать від моменту часу, марковський ланцюг називається однорідним. Для однорідного марковського ланцюга введемо такі позначення ймовірностей переходу:

,

що прийнято записувати як квадратну матрицю з невід’ємними елементами

(1.12)

яка має назву матриці переходу. Її особливістю є те, що в кожному рядку записані ймовірності всіх можливих переходів із вибраного стану в усі інші можливі стани. Ці переходи утворюють повну групу подій так, що сума ймовірностей у кожному рядку дорівнює одиниці. Матриці такого роду в літературі називаються стохастичними.

Матриця переходу (1.12) дає повну інформацію про ймовірності переходу за один крок. Якщо треба обчислити ймовірність переходу однорідного марковського ланцюга з і-го стану в j-й стан за два кроки, то це можна зробити скориставшись формулою:

. (1.13)

Сукупність ймовірностей переходу за два кроки утворює матрицю переходу за два кроки

У загальному випадку матриця переходу за n кроків обчислюється як n-й ступінь матриці переходу за один крок

Для обчислення розподілу ймовірностей станів марковського ланцюга на n-му кроці треба знати матрицю-рядок ймовірностей початкових станів

де Pi(0)=P{X(0)=i}, i=1,...,k  імовірність того, що процес почнеться з i-го стану. Тоді розподіл імовірностей на n-му кроці обчислюється за формулою

.

Перехід процесу із стану i в стан j за кілька кроків може відбуватися кількома шляхами. Якщо розглядати перехід за n кроків і визначити будь-який S-й момент (1Sn), то для обчислення імовірностей ij(n) необхідно знати матриці переходу П(S) і П(nS). Тоді

або у матричному вигляді

. (1.14)

Співвідношення (1.14) виконується для будь-якого S (1Sn), воно має фундаментальний характер в теорії марківських ланцюгів і виражає зв’язок між ймовірностями переходу для будь-яких трьох послідовних моментів часу. Його називають рівнянням Колмогорова Чепмена.