Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТПС / Лекции / Лекция 6.doc
Скачиваний:
17
Добавлен:
15.03.2016
Размер:
316.93 Кб
Скачать

Лекция 6 Случайные сигналы

Представление сигнала случайным в задачах связи произошло несколько позднее. Чем это случилось в классической физике и механики. Там этот поворот в оценки явлении произошел в конце 19-ого века, а в связи первые работы появились в двадцатых годах двадцатого века (Н. Винер, Р.Райс, Гоноровский и др. ). Причин тому несколько. Во-первых, как следует из теории информации, передаваемые сообщения всегда случайны и, следовательно, случайны и сигналы с помощью которых идет передача. Во-вторых случайны помехи воздействующие на связь. Из этого следует, что необходимы математические модели для описания этих факторов при оценке и анализе. Рассмотрим различные представления случайных сигналов.

В простейшем варианте допустимо считать сигнал случайным событием; например, в радиолокации такими событиями будут наличие либо отсутствие отраженного от самолета сигнала. Для оценки можно ввести соответствующие вероятности p(1) и p(0), которые образуют полную группу событий, p(1)+ p(0)=1.

Гораздо полнее представление сигнала случайной величиной, принимающей множество состояний. Если он дискретный {xi} и принимает конечное число состояний, то каждое из них характеризуется вероятностью p(xi). Как и прежде, все множество образует полную группу событий и p(x1) + p(x2) + … + p(xm) = 1.

Далее предположим, что сигнал непрерывная функция времени x(t) (рис.1)

x(t)

t

Рис. 1. Непрерывный случайный сигнал.

Поступим с ним следующим образом. Подадим его на аналого-цифровой преобразователь (АЦП) и будем фиксировать его значения через определенные промежутки времени с помощью регистратора. Таким образом, мы получим выборку сигнала с определенной точностью (рис. 2).

запуск

Генераторы случайных сигналов

АЦП

Регистратор

{xi}

x(t)

Рис. 2. Получение выборки непрерывного сигнала.

В полученном множестве уже дискретного сигнала {xi} будут максимальное и минимальное значения, которые определяют его диапазон.

Всю совокупность измерений в диапазоне [xmin;xmax] делим на интервалы с шагом x, определяем число попаданий значений сигнала в каждый интервал ni и определяем частоту повторения (вероятность попадания в каждый интервал), которая равна . Все эти данные сводим в таблицу 1.

Таблица 1. Статистические данные сигнала.

интервалы

xmin – x2

x2 – x3

x3 – x4

и т.д.

число попаданий

n1

n2

n3

Строим график (рис.3), который называется гистограммой.

Xmin x2 x3 x4 x5 X

Рис.3. Гистограмма сигнала

Уменьшим интервал x  dx, тогда преобразуется в вероятность попадания сигналом в бесконечно малый интервал значений сигнала,

 dp.

,

Отношение принимает вид и называется плотностью вероятности случайного сигнала. Она показывает вероятность попадания случайным сигналом в бесконечно малый интервал значений, делённой на этот интервал. Это важнейшая характеристика сигнала.

При уменьшении интервала x до dx гистограмма переходит в непрерывную функцию, ее вид показан на рис.4.

W(x)

x

Рис.4. Закон распределения плотности (дифференциальный закон)

Интегральный закон распределения.

, (1)

где F(x) – вероятность того, что величина x меньше заданного порога X.

. (2)

С помощью дифференциального закона можно найти вероятность попадания случайного сигнала в интервал значений [x1;x2].

. (3)

Существует много законов распределения: экспоненциальный, нормальный, логарифмический, Пуассона и т.д.

На основании законов распределения вводятся числовые характеристики сигналов – моменты.

Момент – усреднённое число. Усреднение – суммирование усредняемой величины со своим весовым коэффициентом.

, (4)

где - математическое ожидание.

Для непрерывного сигнала p(x) = W(x)dx и та же операция усреднения запишется:

. (5)

В дальнейшем будет доказано, что математическое ожидание имеет смысл постоянной составляющей сигнала.

Существуют также константы характеризующие центрированную усреднённую величину. Центрированная величина это - для дискретного сигнала и - для непрерывного сигнала. Здесь S –порядок величины. Операции усреднения запишутся в этом случае как

(6)

- для дискретного сигнала;

(7)

- для непрерывного сигнала.

Наиболее применяема константа при S = 2. Это дисперсия, - центральный момент второго порядка. Она характеризует разброс случайного сигнала относительно его математического ожидания. Ее величина

(8)

- для дискретного сигнала и

(9)

- для непрерывного сигнала.

Дисперсия имеет размерность вольты в квадрате и в дальнейшем будет доказано, что это мощность переменной составляющей сигнала.

Центральные моменты, порядка S большего чем два, мы рассматривать не будем. Введенные нами константы дают достаточно полное представление для практике о том, как расположен закон плотности сигнала на его оси и о его форме. Это положение показано на рис. 5. Здесь изображены законы распределения сигналов x и y. Из их положения очевидно, что mymx и DyDx.

W(x),

W(y)

W(x)

W(y)

my

x,y

mx

x

y

Рис. 5. Законы распределения сигналов

Часто для оценки разброса используется производная величина , которая называется среднеквадратичным отклонением. Через нее приводится размерность разброса к размерности самого сигнала.

Система случайных сигналов.

Допустим, имеется приемник канала на вход которого одновременно поступает сигнал, несущий информацию, и помеха (рис. 6). Сигнал случает так как несет сообщение, а помеха случайна по своей природе. Необходимо иметь характеристики такого «содружества» - системы случайных сигналов.

Рис. 6 Происхождение системы случайных сигналов.

П

режде всего для системы случайных сигналов можно ввести многомерные законы распределения:

- дифференциальный закон (плотности);

- интегральный закон.

- многомерный дифференциальный закон распределения, как и прежде показывает вероятность попадания [dp(x1), dp(x2), …] в бесконечно малые интервалы dx1, dx2, … отнесённые к величине этого интервала. Интегральный закон связан с дифференциальным и показывает вероятности не превышения пороговых значений :

. (10)

В свою очередь дифференциальный закон равен производной n-ой степени от :

. (11)

Далее будем считать, что имеется система двух случайных сигналов x и y, им соответствуют законы W(x,y), F(x,y). Степени усредняемых величин s и ; сумма (s + )- это порядок момента.

Найдем первую числовую константу, момент первого порядка при s = 1,  = 0 или s = 0,  = 1. Многомерный закон в общем случае можно определить через произведение одномерных, W(x,y)=W(x)W(y/x)=W(y)W(x/y) в случае статистической зависимости сигналов и W(x,y)=W(x)W(y) в случае независимости. Тогда

. (12)

Таким образом мы получили среднее значение сигнала x. Аналогично вычисляется среднее значение сигнала y, .

Если усредняется центрированный момент второго порядка при s=0, и =1 или s=1, =1, то его величина равна:

. (13)

Это дисперсия и она характеризует разброс сигналов x или y вокруг математического ожидания. На рис. 7 показан двумерный закон сигналов и его числовые константы.

Рис. 7. Двумерный закон системы сигналов

Особое место занимает центральный момент второго порядка при s=1, =1. Он получил название корреляционного момента Kxy:

(14)

- для непрерывного сигнала;

(15)

  • для дискретного сигнала. Остановимся на его роли.

Предположим, что сигналы в системе независимы. Тогда W(x,y) = W(x)W(y) и

. (16)

Любой из этих интегралов равен нулю и следует такой вывод. Если сигналы в системе независимы, то числовая константа, которая называется корреляционным моментом, будет равна нулю.

Если сигналы имеют предельную статистическую связь, это будет функциональная связь, когда один сигнал с вероятностью 1 определяет другой, корреляционный момент принимает максимальное значение равное дисперсии:

. (17)

Чтобы исключить влияние разброса на величину корреляционного момента, имеет смысл перейти к его нормированной величине

, (18)

которая называется коэффициентом корреляции. Его величина лежит в пределах . Значение свидетельствует об отсутствии статистической связи между сигналами. Если , то это предельный случай статистической связи – функциональная связь.

- положительная статистическая связь (увеличение одного сигнала вызывает увеличение другого сигнала.)

- отрицательная статистическая связь (увеличение одного сигнала вызывает уменьшение другого сигнала).

Допустим , одновременно измеряются пары сигналов в системе один из которых помеха контактной сети частотой 150 Гц а другой помеха с частотой 200 Гц и эти значения фиксируются на графике (рис. 8). Здесь наглядно показано как отражается статистическая связь на расположении точек, а коэффициент корреляции – числовая характеристика этой связи.

x

50 Гц

- статистическая связь есть

150 Гц

y

x

50 Гц

- статистической связи нет

200 Гц

y

Рис. 8. Статистические связи между сигналами

Сигнал как случайный процесс.

Наиболее полное представление сигнала должно отражать его временные характеристики. Случайный процесс это функция времени определённого вида, но этот вид заранее никогда не известен. Вид сигнала при этом отражается набором таких функций (рис. 9).

Рис. 9. Случайные функции сигнала

Для каждого сечения времени t1 имеем множество значений {xi} и, следовательно, можем ввести закон плотности W(x,t1), интегральный закон F(x,t1) и числовые константы mx(t1), Dx(t1). Например, математическое ожидание

, (19)

как и прежде отражает наиболее вероятное появление величины x при времени t1;

, (20)

характеризует разброс сигнала относительно его . Отличие этих характеристик от ранее введенных в том, что они являются функциями времени. Но их явно недостаточно для отражения временных свойств сигналов. На рис. 10 показаны временные функции сигналов x и y, у которых

x

y

t

t

t1

t1

t2

t2

Рис. 10. Временные функции сигналов

в любой момент времени t и , а скорость изменения различна. Следовательно, нужна характеристика этого. Поступим следующим образом; для каждого момента времени t1 и t2 есть множество {xi} и {yj}. Введём первоначально двумерный закон плотности для сигнала x: W(x1,x2; t1,t2).

Найдём корреляционный момент :

. (21)

Корреляционный момент является функцией времени и называется функцией корреляции или функцией автокорреляции (АКФ). Аналогично он может быть записан для сигнала y:

. (22)

Введенные моменты, как было показано ранее, отражают статистическую связь в моменты t1 и t2 как одного, так и другого сигнала. Очевидно, что большая статистическая связь будет для сигнала x, так как его значения от момента t1 до момента t2 будут меняться меньше чем у сигнала y и тем самым он более “прогнозируем”. Таким образом,

< ,

и мы получили характеристику не только корреляционных связей, но и скорости изменения сигнала а, следовательно, и его частотных свойств.

Ввиду ее особой важности остановимся на свойствах автокорреляционной функции (АКФ).

Допустим t1 = t2, тогда:

. (23)

При t1 = t2 АКФ принимает максимальное значение, равное дисперсии сигнала.

Функция АКФ носит чаще всего убывающий характер, так как статистическая связь с увеличением временного интервала разрушается.

Введём нормированную функцию АКФ:

, (24)

ее значение .

Далее остановимся на некоторых свойствах сигналов. Если сигнал не стационарный, то временные функции этого сигнала отражают его развитие или затухание (рис.11). Например, напряжение на входе коротковолнового приемника имеет такой характер из за непостоянства параметров среды распространения

x

t

t

Рис. 11. Реализации нестационарного сигнала.

Для него характерна зависимость параметров от времени: M(t), D(t), . Для стационарного сигнала такой зависимости не будет, он как бы не имеет ни начала, ни конца и идет однородно во времени (рис. 12).

x

x1

x3

x2

Рис. 12. Реализации стационарного случайного сигнала

Его характеристики mx и Dx не зависят от времени, например,

, (25)

а АКФ является функцией разности  = t2 - t1 , Kx():

. (26)

Исходя из свойства при  = 0, получаем, что дисперсия лишается своей самостоятельности. Строго говоря, реальные сигналы всегда нестационарные, так как имеют начало и конец. Однако, модель стационарного сигнала проще и потому более предпочтительнее при анализе.

Важным для практике является и свойство эргодичности. Допустим, необходимо исследовать статистические свойства помехи в каналах связи (рис. 13). Для того, чтобы получить закон распределения плотности, необходимо иметь множество источников сигналов, то - есть множество каналов связи. Это сопряжено с трудностями материального порядка, так как эксплуатация канала стоит определенных денег. Если сигнал обладает свойством эргодичности, это затруднение может быть устранено, так как отдельно взятый сигнал несёт в себе свойства всего множества, и для статистики не нужно множества каналов, достаточно одного.

x1(t)

K1

K2

Kn

x2(t)

помехи

xn(t)

каналы

Рис. 13. Каналы связи, источники помех

На рис.14 приведены эпюры сигналов иллюстрирующие свойство эргодичности.

x

x1

x3

x2

а)

t

Тут вы можете оставить комментарий к выбранному абзацу или сообщить об ошибке.

Оставленные комментарии видны всем.

Соседние файлы в папке Лекции