Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
К_зкзамену_ТПИ / Курс ТПИ Душин / Глава 2_Математическое описание сигналов, сообщений и помех.doc
Скачиваний:
271
Добавлен:
10.05.2015
Размер:
1.01 Mб
Скачать

2. Многомерный закон распределения мгновенных значений случайной величины и связанные с ним основные характеристики

Одномерная плотность вероятности недостаточна для полного описания процесса, так как она дает вероятностное представление о случайном процессе X(t1) только в отдельные фиксированные моменты времени. Более полной характеристикой является двумерная плотность вероятности p(x1, x2; t1, t2), позволяющая учитывать связь значений x1 и x2, принимаемых случайной функцией в произвольно выбранные моменты времени t1 и t2.

Исчерпывающей вероятностной характеристикой случайного процесса является n-мерная плотность вероятности при достаточно больших n. Однако большое число задач, связанных с описанием процессов, удается решать на основе двумерной плотности вероятности.

Задание двумерной плотности вероятности p(x1, x2; t1, t2) позволяет, в частности, определить важную характеристику случайного процесса – ковариационную функцию:

Kx(t1, t2) = M[X(t1)X(t2)]. (2.84)

Согласно этому определению ковариационная функция случайного процесса X(t) представляет собой статистически усредненное произведение значений случайной функции X(t) в моменты времени t1 и t2.

Для каждой реализации случайного процесса произведение x(t1)x(t2) является некоторым числом. Совокупность реализаций образует множество случайных чисел, распределение которых характеризуется двумерной плотностью вероятности p(x1, x2; t1, t2). При заданной функции p(x1, x2; t1, t2) операция усреднения по множеству осуществляется по формуле:

∞ ∞

Kx(t1, t2) = x1x2 p(x1, x2; t1, t2)dx1x2. (2.85)

-∞ -∞

При t1=t2 двумерная случайная величина x1x2 вырождается в одномерную величину x12=x22. Можно поэтому записать:

Kx(t1,t2) = x12 p(x1; t1)dx1 = M[X2(t)]. (2.85а)

-∞

Таким образом, при нулевом интервале между моментами t1 и t2 ковариационная функция определяет величину среднего квадрата случайного процесса в момент t=t1.

Как уже говорилось, частичное описание свойств случайного процесса может быть дано при помощи неслучайных функций времени M1(t) и 2(t). Недостаточность только таких характеристик хорошо видна из сопоставления двух процессов, заданных ансамблями их реализаций и представленных на рис. 2.23.

Рис. 2.23.Нестационарные случайные процессы с одинаковыми среднимM1(t)и дисперсией2(t)

Из рис. 2.23 а и б видно, что процессы имеют приблизительно одинаковые средние значения M1(t)и дисперсии2(t). Однако характеры протекания этих процессов во времени и их внутренние структуры различны. В первом преобладают медленные изменения во времени, а во втором – более быстрые. Таким образом, среднее значение и дисперсия не отражают структуры случайного процесса, быстроты его протекания. Быстрота изменения случайной функции может характеризоваться степенью статистической связи мгновенных значений, взятых в различные моменты времени.

Количественно эта связь устанавливается корреляционным моментом:

Rx(t1, t2) = M{[X(t1) – X(t1)][X(t2) – X(t2)]} (2.86)

для случайных величин X(t2) = X2.

Подробнее символическая запись (2.86) может быть представлена в виде:

∞ ∞ __ __

Rx(t1, t2) = (x1 – X1)(x2 – X2)p2(x1x2)dx1x2. (2.87)

-∞ -∞

Выражения (2.86) и (2.87) являются функциями двух переменных t1иt2и поэтому называютсякорреляционными или автокорреляционными функциями.

В теории вероятностей доказывается, что величина корреляционного момента двух случайных величин не зависит от последовательности, в которой эти величины рассматриваются. Вследствие этого корреляционная функция симметрична относительно t1иt2, т.е.:

Rx(t1, t2) = Rx(t2, t1).

Это же свойство вытекает из определения корреляционной функции по формуле (2.86).

Поскольку корреляционная функция отражает статистическую связь между значениями одной и той же случайной функции, взятыми в моменты t1иt2, она убывает с ростом интервала = t1t2. Корреляционная функция является более полной характеристикой случайного процесса, чем дисперсия, включающая ее как частный случай.

При анализе случайных процессов часто вводится понятие нормированной функции автокорреляции:

(2.88)

Из (2.88) следует, что приt1 = t2

x(t1, t2) = 1.

Функция корреляции позволяет ввести понятие интервала корреляции. Под интервалом корреляции понимают такое значениеk = t1t2, при котором

x(t1, t2) = ,

где <1– некоторая заданная величина. Величина может зависеть от конкретно поставленной задачи. Введение этого понятия позволяет приближенно считать мгновенные значения случайного процессаX(t1)иX(t2)приt1t2>kнекоррелированными.

В приложении к многомерным законам распределения можно сказать, что случайный процесс называется строго стационарным, если его плотность вероятностиp(x1, x2, …, xn; t1, t2, …, tn)произвольного порядкаnзависит только от интерваловt2t1, t3t1, …, tnt1и не зависит от положения этих интервалов в области изменения аргументаt.

В теории сигналов условие стационарности обычно ограничивается требованием независимости от времени только одномерной и двумерной плотностей вероятности. Выполнение этого условия позволяет считать, что математическое ожидание, средний квадрат и дисперсия случайного процесса не зависят от времени, а корреляционная функция зависит не от самих моментов времени t1иt2, а только от интервала между ними=t1t2.

Дальнейшее упрощение анализа случайных сигналов достигается при использовании условия эргодичностислучайного процесса.Стационарный случайный процесс называется эргодическим, если при определении любых статистических характеристик усреднение по множеству реализаций эквивалентно усреднению по времени одной теоретически бесконечно длинной реализации.

Определение статистической связи между мгновенными значениями случайного сигнала (корреляционный анализ) и свойство эргодичности широко используются в современных системах приема и обработки сигналов.