
- •22. Класифікація сігналів и Завада. Детерміновані та випадкові сигнали.
- •23. Дискретизація аналогових сигналів. Теорема відліків.
- •24. Спектральне представлення детермінованих сигналів.
- •25. Випадкові сигнали та завади. Класифікація, основні характеристики.
- •26. Функції розподілу та числові характеристики випадкових сигналів.
- •27. Потенціальна завадостійкість. Розрахунок імовірності помилки для різних сигналів.
- •28. Оптимальний некогерентний прийом цифрових сигналів у гауссовому каналі.
- •29. Оптимальний когерентний прийом цифрових сигналів.
- •30. Інформаційні параметри повідомлень та сигналів. Поняття ентропії.
- •Ентропія. Властивості ентропії
- •Залежність h(X) від величини р
- •31. Інформаційні характеристики неперервних повідомлень. Епсілон- ентропія.
26. Функції розподілу та числові характеристики випадкових сигналів.
Математична модель змінюється в часі випадкового сигналу називається випадковим процесом. За визначенням, випадковий процес X (t) це функція особливого виду, що характеризується тим, що значення, що приймаються нею в будь-який момент часу t, є випадковими величинами. Характеристики таких сигналів є статистичними, тобто мають імовірнісний вигляд.
Одновимірна функція розподілу ймовірностей (x, tn) визначає ймовірність того, що в момент часу tn значення випадкової величини X (tn) не перевищить значення x: F(x, tn) = P{X(tn) ≤ x}.
Одновимірна щільність ймовірностей p (x, t) випадкового процесу Х (t) характеризує розподіл ймовірностей реалізації випадкової величини Х (tn) в довільний момент часу tn:
p (x, tn) = dF (x, tn) / dx.
Моменти розподілу випадкових сигналів дозволяють охарактеризувати випадкові процеси стійкими і невипадковими інтегральними оцінками.
Математичне сподівання або перший момент розподілу, являє собою статистичне усереднення випадкової величини X (tn) - залежність середнього зваженого значення випадкового процесу від незалежної змінної (часу):
mx(t)
º
M{Х(t)}º
=
x
p(x; t) dx
Середній квадрат випадкового процесу (функція другого моменту) - залежність середнього зваженого значення (математичного очікування) квадрата значень випадкового процесу від незалежної змінної, тобто потужність процесу:
M{Х2(t)}º
=
x2
p(x; t) dx.
Функція дисперсії - другого центрального моменту випадкового процесу, визначає функцію середнього зваженого значення (математичного очікування) квадрата різниці Х (t)-mx (t), яка називається флюктуаціонной частиною процесу:
Dx(t) = M{[Х(t)-mx(t)]2} = [x(t)-mx(t)]2 p(x; t) dx.
Функція середнього квадратичного відхилення (standard deviation) служить амплітудної мірою розкиду (флуктуацій) значень випадкового процесу з тимчасової осі щодо математичного очікування процесу:
x(t)
=
.
Двовимірна щільність ймовірностей. Двовимірна щільність ймовірностей p (x1, x2; t1, t2) визначає ймовірність спільної реалізації значень випадкових величин Х (t1) і Х (t2) в довільні моменти часу t1 і t2 і в якійсь мірі вже дозволяє оцінювати динаміку розвитку процесу:
mx(t)
º
=
x1(t1)
p(x1,t1;
x2,t2)
dx1
dx2.
Dx(t) = x2(t)= [x1(t1)- ]2 p(x1,t1; x2,t2) dx1 dx2.
Кореляційні функції випадкових процесів. Характеристикою динаміки зміни двовимірної випадкової величини {X (tn), X (tm)} є кореляційна функція, яка описує випадковий процес в цілому:
RX(tn, tm) = x(tn)x(tm) p(xn,tm; xn,tm) dxn dxm.
Випадкові процеси розрізняють за ступенем однорідності їх перебігу в часі (по аргументу).
Нестаціонарні процеси. У загальному випадку значення функцій математичного сподівання, дисперсії і кореляції можуть бути залежними від моменту часу t, тобто змінюватися в часі. Такі процеси становлять клас нестаціонарних процесів.
Стаціонарні процеси. Процес називають стаціонарним, якщо щільність ймовірностей процесу не залежить від початку відліку часу, і якщо на інтервалі його існування виконуються умови сталості математичного сподівання і дисперсії, а кореляційна функція є функцією тільки різниці аргументів t = t2-t1.