Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория информации..pdf
Скачиваний:
22
Добавлен:
15.11.2022
Размер:
10.05 Mб
Скачать

3. МАТЕМАТИЧЕСКИЕ МОДЕЛИ СИГНАЛОВ И ПОМЕХ

3.1. М атематическое описание сообщений, сигналов и помех

Воснове математического описания сообщений, сигналов и по­ мех лежат методы теории вероятностей, теории случайных функций

иматематической статистики. Целью математического описания

является разработка математических моделей сообщений, сигналов

ипомех, необходимых для анализа, синтеза и оптимизации объектов информационной техники. Математические модели позволяют анали­ зировать свойства сообщений, сигналов и помех, а также синтезиро­ вать сигналы с требуемыми свойствами.

Понятие «сигнал» имеет неоднозначное толкование. В широком смысле слова под сигналом понимают материальный носитель инфор­ мации. При этом к сигналам относят как естественные сигналы, так и сигналы, специально создаваемые с определенной целью. Естествен­ ными являются, например, световые сигналы, позволяющие видеть окружающий мир, космические сигналы. Примером специально созда­ ваемых могут служить сигналы, генерируемые с целью извлечения ин­ формации об изменениях в объекте или процессе (эталонные сигналы).

Вдальнейшем понятие «сигнал», если это не оговорено специ­ ально, будет использоваться в узком смысле как сигнал, специально создаваемый для передачи сообщения в информационной системе. Материальную основу сигнала составляет какой-либо физический объект или процесс, называемый носителем (переносчиком) инфор­ мации (сообщения). Носитель становится сигналом в процессе моду­ ляции. Параметры носителя, изменяемые во времени в соответствии

спередаваемым сообщением, называют информативными.

Вкачестве носителей информации используются колебания раз­ личной природы, чаще всего гармонические, включая частный слу­ чай - постоянное состояние (ш = 0). В технических информационных

системах наиболее широкое распространение получили носители

ввиде электрического напряжения или тока. Поэтому, рассматривая

вдальнейшем модели сигналов, для конкретности, будем соотносить

их с электрическими сигналами.

В носителе u{t) = const имеется только один информативный па­ раметр - уровень (например, уровень напряжения). При использоваг нии гармонических электрических колебаний информативными могут стать такие параметры, как амплитуда, частота, фаза. Колебания при­ нято подразделять на детерминированные и случайные.

Детерминированными называют колебания, которые точно опре­ делены в любые моменты времени.

Случайные колебания отличаются тем, что значения их некоторых параметров предсказать невозможно. Они могут рассматриваться как сигналы, когда несут интересующую нас информацию (случайные сигналы), или как помехи, когда мешают наблюдению интересующих нас сигналов.

При изучении общих свойств каналов связи, сигналов и помех мы отвлекаемся от их конкретной физической природы, содержания и назначения, заменяя моделями. Модель - это выбранный способ описания объекта, процесса или явления, отражающий существенные с точки зрения решаемой задачи факторы.

Задачи повышения эффективности функционирования информа­ ционных систем связаны с установлением количественных соотно­ шений между основными параметрами, характеризующими источник информации и канал связи. Поэтому при исследовании используют математические модели. Математическое моделирование может быть реализовано различными методами в зависимости от способа, кото­ рым определяются интересующие нас показатели.

Фундаментальные исследования базируются на методе аналити­ ческого моделирования, заключающемся в создании совокупности математических соотношений, позволяющих выявить зависимости между параметрами модели в общем виде. При этом широко исполь­ зуются модели, параметры которых противоречат физическим свойс­ твам реальных объектов. Например, модель сигнала часто представля­ ется суммой бесконечного числа функций, имеющих неограниченную продолжительность (синусоид). Поэтому важно обращать внимание на условия, при которых это не мешает получать результаты, соответс­ твующие наблюдаемым в действительности.

Так как источник сообщений выдает каждое сообщение с некото­ рой вероятностью, то точно предсказать изменения значения инфор­ мативного параметра невозможно. Следовательно, сигнал принципи­

ально представляет собой случайное колебание и его аналитической моделью может быть только случайный процесс, определяемый веро­ ятностными характеристиками.

Тем не менее в случае детерминированного колебания условно также говорят о детерминированном сигнале. Такой сигнал отображает известное сообщение, которое нет смысла передавать. Ему соответс­ твует модель в виде функции, полностью определенной во времени.

Изучение моделей детерминированных сигналов необходимо по многим причинам. Важнейшая из них заключается в том, что результа­ ты анализа детерминированных сигналов являются основой для изучения более сложных случайных сигналов. Это обусловлено тем, что детерми­ нированный сигнал может рассматриваться как элемент множества детер­ минированных функций, составляющих в совокупности случайный про­ цесс. Детерминированное колебание, таким образом, представляет собой вырожденную форму случайного процесса со значениями параметров, известны в любой момент времени с вероятностью, равной единице. Де­ терминированные сигналы имеют и самостоятельное значение. Они спе­ циально создаются для целей измерения, наладки и регулирования объек­ тов информационной техники, выполняя роль эталонов.

Сущность большинства задач анализа реальных сигналов состоит в том, чтобы эти сигналы представить в виде совокупности простых элементарных сигналов, удобном для последующего анализа их про­ хождения через те или иные цепи. Например, реальный сигнал может быть представлен в виде суммы ортогональных составляющих (эле­ ментарных сигналов)

<У(0 = Х )в * У * (0 ^ е 1/1>/2]

(3.1)

/ыо

 

многими способами. Интервал [*,, f2] показывает время действия сигнала. Так как система ортогональных функций (уД )}, применяемая для разложе­ ния, заранее известна, то сигнал полностью определяется набором весовых коэффициентов ак,к= 1,2,..., для этих функций. При приближенном пред­ ставлении сигналов, что всегда имеет место в инженерной практике, набор чисел {ак} конечен. Такие наборы чисел называют спектрами сигналов.

Спектры, как известно из теории связи, являются удобной аналитической формой представления сигналов в рамках линей­ ной теории. Основная задача - правильный выбор системы орто­

тональных функций (базиса), удобной для последующего анализа прохождения сигнала через те или иные цепи и каналы связи.

Совокупность методов представления сигналов в виде (3.1) назы­ вают обобщенной спектральной теорией сигналов.

Представление (3.1) является разложением сигнала по системе ба­ зисных функций. К системе базисных функций предъявляют следую­ щие основные требования: для любого сигнала ряд должен сходиться, функции \)/А(/) должны иметь простую аналитическую форму; коэф­ фициенты ак должны вычисляться относительно просто. Этим трем условиям удовлетворяют системы ортогональных функций.

Условие ортогональности нормированной базисной функции име­ ет вид

(3.2)

где

5Йсимвол Кронекера. Систему {(р(/)} называют ортонормированной. Для детерминированных сигналов наибольшее распространение

получили методы спектрального анализа, использующие преобразо­ вания Фурье. В этих методах в роли \|fk(t) выступают гармонические функции, а роль коэффициентов акиграют амплитуды гармоник.

Важное значение гармонических сигналов для техники связи обусловлено рядом причин. В частности:

1.Гармонические сигналы инвариантны относительно пре­ образований, осуществляемых стационарными линейными элек­ трическими цепями. Если такая цепь возбуждена источником гармонических колебаний, то сигнал на выходе цепи остается гармоническим с той же частотой, отличаясь от входного сигнала лишь амплитудой и начальной фазой.

2.Техника генерирования гармонических сигналов относительно

проста.

Кроме гармонического сигнала для анализа характеристик цепей в технике связи используют еще две очень важные функции: дельта­ функцию и функцию единичного скачка.

Дельта-функция 5(f), или функция Дирака, представляющая собой бесконечно узкий импульс с бесконечной амплитудой, расположен­ ный при нулевом значении аргумента функции. «Площадь» импульса тем не менее равна единице:

Оо

II

^ о

 

 

и О

 

00J5 (t)d t

= 1.

(3.3)

(3.4)

Разумеется, сигнал в виде дельта-функции невозможно реализо­ вать физически, однако эта функция очень важна для теоретического анализа сигналов и систем. На графиках дельта-функция обычно изоб­ ражается жирной стрелкой, высота которой пропорциональна множи­ телю, стоящему перед дельта-функцией (рис. 3.1).

s(t)

2 5 (М )

8(0

1

 

-►

0

1

t

Рис. 3.1. График сигнала S(t) = 8(t) + 28(t - 1)

Одно из важных свойств дельта-функции - так называемое филь­ трующее свойство. Оно состоит в том, что если дельта-функция присутствует под интегралом в качестве множителя, то результат ин­ тегрирования будет равен значению остального подынтегрального вы­ ражения в той точке, где сосредоточен дельта-импульс:

(3 -5>

Из того факта, что интеграл от дельта-функции дает безразмер­ ную единицу, следует, что размерность самой дельта-функции обратна размерности ее аргумента. Например, дельта-функция времени имеет размерность 1/с, то есть размерность частоты.

Функция единичного скачка o{t), она же функция Хевисайда, она же функция включения, равна нулю для отрицательных значений ар­ гумента и единице - для положительных. При нулевом значении аргу­ мента функцию считают либо неопределенной, либо равной 1/2:

0, / < О,

а ( 0 = <1 / 2 ,/ = О,

(3.6)

1, / > 0 .

График функции единичного скачка приведен на рис. 3.2. Функцию единичного скачка удобно использовать при создании

математических выражений для сигналов конечной длительности. Простейшим примером является формирование прямоугольного им­ пульса с амплитудой А и длительностью Т:

s(t)= A (a (t)-o (t-T )).

Вообще, любую кусочно-заданную зависимость можно записать в виде единого математического выражения с помощью функции еди­ ничного скачка.

Для случайных

сигна­

а ( / )

лов наибольшее

распро­

 

странение получили методы

1

корреляционного

и

спек­

 

трального

анализа,

осно­

 

ванные на

преобразовании

 

Хинчина - Винера. Эти пре­

 

образования

являются ре-

Рис- 3.2. Функция единичного скачка

r ^ o ^ w

 

 

 

зультатом распространения

J

метода Фурье на случайные процессы. При разложении случайных процессов коэффициенты ак являются случайными величинами, а оп­ тимальные базисы определяются через корреляционные функции этих процессов.

К задачам синтеза сигналов относят задачи определения формы сигналов (структурный синтез) и задачи определения параметров сиг­ налов известной формы (параметрический синтез).

3.2. Частотная форма представления сигнала

Рассмотрим, какие функции целесообразно выбирать в качестве базисных при анализе инвариантных во времени линейных систем. При исследовании таких систем решения всегда содержат комплекс­ ные экспоненциальные функции времени. Детерминированные сиг­ налы, описываемые экспоненциальными функциями времени, при прохождении через инвариантные во времени линейные системы не изменяются по своему характеру, что является следствием инвари­ антности класса экспоненциальных функций относительно операций дифференцирования и интегрирования.

Широко используются представления детерминированных сигна­ лов с применением базисных функций еР' как при р = ± ую (преобра­ зование Фурье), так и при р = s + у'со (обобщенное преобразование Фурье, известное как преобразование Лапласа).

До сих пор мы не касались физической интерпретации базисных функций. Для чисто математических преобразований она не обязатель­ на. Однако такая интерпретация имеет безусловные преимущества, так как позволяет глубже вникнуть в физический смысл явлений, про­ текающих в системах при прохождении сигналов.

Использование экспоненциальных базисных функций в преобра­ зовании Фурье комплексно-сопряженными парами (с положительным и отрицательным параметром со) позволяет в соответствии с формулой Эйлера е1ш/2 + е~у“ / 2 - cos со/ представить сложный детерминирован­ ный сигнал в виде суммы гармонических составляющих. Поскольку параметр со в этом случае имеет смысл круговой частоты, результат такого преобразования называют частотной формой представления сигнала.

Всилу указанных преимуществ разложение сигналов по системе гармонических базисных функций подверглось всестороннему иссле­ дованию, на основе которого была создана широко известная класси­ ческая спектральная теория сигналов.

Вчастотном виде могут представляться как периодические, так и непериодические детерминированные сигналы.

Строго говоря, в реальных условиях периодические сигналы не существуют, так как идеальный периодический сигнал бесконечен во времени, а всякий реальный сигнал имеет начало и конец. Однако во

многих случаях конечностью времени действия сигнала можно пре­ небречь и для анализа допустимо использовать аппарат, пригодный для идеальных периодических сигналов.

С пектры периодических сигналов. Простейшим периодичес­ ким сигналом является гармоническое колебание (тока, напряжения, заряда, напряженности поля), определяемое законом

'2 я ,

s(t)= A cos — t -\|/ = -4cos(c0|/ - у ), (3.7)

Т

при - оо < t < + оо. Здесь А, Т, со,, \\i - постоянные амплитуда, период, частота и фаза.

Указание этих параметров, образующих спектр гармонической функции, и будет ее частотным представлением.

Обычно прибегают к графическому изображению спектра. По оси абсцисс наносятся частоты, по оси ординат - амплитуды и фазы. Для удобства вычерчиваются два графика, представляющих амплитудный и фазовый спектры соответственно. Очевидно, для гармонического сигнала каждый из этих спектров изобразится единственной точкой. График становится более наглядным, если из указанной точки опус­ тить на ось частот перпендикуляр, который будет изображать так на­ зываемую спектральную линию.

Гармонический сигнал находит широкое применение на практике,

вчастности, при регулировке устройств обработки информации и сня­ тии их амплитудных и частотных характеристик.

Произвольный детерминированный сигнал определяется как неко­ торая заданная функция времени jt(f). В настоящее время в большинс­ тве случаев произвольный детерминированный сигнал представляется

ввиде надлежащим образом выбранной совокупности элементарных сигналов. Основой для такого рассмотрения являются ряды Фурье.

Итак, любой сложный периодический сигнал может быть пред­ ставлен в виде суммы элементарных гармонических сигналов, дейс­ твующих при - со< t < +00.

Пусть заданная на интервале t}< t< t2функция s(t) периодически

повторяется с частотой со, = — , где Т - период повторения, причем

выполняются следующие условия (условия Дирихле):

1) в любом конечном интервале функция s(() должна быть непре­ рывна или иметь конечное число разрывов первого рода;

2) в пределах одного периода функция s(t) должна иметь конечное число экстремальных значений.

Известны две формы разложения в ряд Фурье: тригонометрическая и комплексная. Тригонометрическая форма разложения выражается в виде

 

s(t) = ^ r + Z ( fl" cos«<V + К sin >т А

(3.8)

п = 1,2,...,

 

 

 

или, что равносильно,

 

 

 

*(0 = %

+ iAcos(«<V - V, )>

(3.9)

й

^

”=l

 

здесь у - постоянная составляющая (действующее значение);

а и Ьп-

амплитуды косинусоидальных и синусоидальных членов

разложения s(t).

 

 

Эти величины определяются выражениями:

 

1

2 %

ап = — js (/)c o s /jo y d /, 1 'l

212

К= — J j ( f ) s i n w o y d / .

1

(3 .1 0 )

(3 .1 1 )

(3 .1 2 )

Амплитуда (модуль) и фаза (аргумент) и-й гармоники выражают­ ся через апи Ьаследующим образом:

Ап = J a 2„ + b2„,

(313)

i|/„=arctg— . (3.14)

Ряд Ф урье в комплексной форме обычно записы вается как:

s ( 0 = i c / <

(3.15)

к - - о о

 

Ск

Js(/)e_2^ d A

(3-16)

1

о

 

Таким образом, если функция x(t) имеет конечную длительность (т.е. ограничена по времени) и удовлетворяет указанным выше усло­ виям, она может быть сколь угодно точно представлена суммой эле­ ментарных детерминированных сигналов типа синусоиды. При этом каждый элементарный сигнал характеризуется своей амплитудой,

определяемой формулой (3.13), и частотой - щ . Графически это

можно изобразить так, как показано на рис. 3.3. Расстояние между со- 2

седними частотами гармоник по оси частот равно

Следует отметить, что приведенным выше условиям Дирихле удовлетворяют все физически осуществимые сигналы. Поэтому при представлении периодических сигналов в виде рядов Фурье эти усло­

вия в практике не приходится специально оговаривать.

 

В тех случаях, когда сиг­

Амплитуда

 

 

нал представляет собой фун­

Сэ

С.

с»

кцию, четную относительно

t, т.е. s{t) = .?(-/), в тригоно­

с,

 

 

метрической записи остают­

 

 

 

ся только косинусоидальные

 

 

 

члены, так как коэффициенты

0)1 Ш2 Шз

0)4

0)*

Ьп в соответствии с (3.12) об­

Рис. 3.3. Коэффициенты ряда Ф урье

 

ращаются в нуль. Для нечет-

ной относительно / функции s(t), наоборот, в нуль обращаются коэф­ фициенты ап(3.11), и ряд состоит только из синусоидальных членов.

Таким образом, структура частотного спектра периодического сигнала полностью определяется двумя характеристиками - амплитудной и фазо­ вой, т.е. модулем и аргументом комплексной амплитуды [(3.13) и (3.14)].

Наглядное представление о «ширине» спектра и относительной величине отдельных его составляющих дает графическое изображе­ ние спектра (см. рис. 3.3). Здесь по оси ординат отложены модули ам­ плитуд, по оси абсцисс - частоты гармоник.

Спектр периодической функции состоит из отдельных «линий», соответствующих дискретным частотам: 0, со,, 2оо,, ..., жо,. Отсюда и название - линейчатый, или дискретный, спектр.

Существует очень важное понятие —практическая ширина спектра сигнала. Интуитивно ясно, что если полоса пропускания какого-либо уст­ ройства недостаточно широкая, чтобы пропустить все гармоники, сущест­

венно влияющие на форму сигнала, то сигнал на выходе этого устройства исказится. Таким образом, можно сказать, что ширина полосы пропуска­ ния устройства не должна быть уже ширины спектра сигнала.

Существует несколько критериев для определения практической ширины спектра сигнала. Например, ширину спектра можно опреде­ лять как область частот, в пределах которой сосредоточена основная энергия сигнала (например, 95 %). Можно отбрасывать все гармоники с амплитудами, меньшими 1 % максимальной амплитуды в спектре, тогда частоты оставшихся гармоник и определят ширину спектра сигнала.

Однако независимо от критерия, по которому определяют ширину спектра сигнала, можно выделить такие общие для всех сигналов законо­ мерности: чем круче фронт сигнала, чей короче импульсы и че,ч больше пауза между импульсами, тем шире во всех этих случаях спектр сигнала, т.е. тем медленнееубывают амплитуды гармоник с ростом их номера.

Хотя условия одновременного ограничения длительности и полосы частот не могут быть выполнены в точности, однако можно ограничить спектр полосой F и иметь малые значения сигнала вне интервала Т.

Значение рядов Фурье в современной технике очень велико. Ос­ нованный на формулах (3.11 и (3.12) гармонический анализ сложных периодических сигналов в сочетании с принципом наложения (супер­ позиции) представляет собой эффективное средство для изучения вли­ яния линейных систем на прохождение сигналов.

Если на входе линейной системы, характеристики которой извест­ ны, существует сигнал e(t) (электродвижущая сила), то для нахождения выходного сигнала достаточно учесть амплитудные и фазовые измене­ ния, претерпеваемые каждой из гармонических составляющих сигнала при прохождении через рассматриваемую систему. Условие линейнос­ ти системы позволяет рассматривать прохождение каждой из гармоник сигнала независимо от всех остальных гармоник.

С пектры непериодических сигналов. В реальных системах пе­ редачи всегда действуют непериодические сигналы, так как все сигна­ лы имеют конечную длительность.

Непериодический сигнал можно рассматривать как периодический с периодом Т —*оо. При этом разность частот между соседними гармоника­ ми стремится к нулю. Спектр становится сплошным, амплитуды - беско­ нечно малыми. При Т -* со частота со, превращается в dco, «со, - в текущую частоту со, а операция суммирования - в операцию интегрирования.

Если функция x(t) не ограничена во времени, удовлетворяет условиям Дирихле на любом конечном интервале и дополнительно удовлетворяет условию

то

1 К Ф < °°>

(3.17)

—оо

т.е. интеграл (3.19) сходится, то ее можно представить следующим ин­ тегральным выражением:

s (г) = — Jeym'd(o J s (/)е '“'d/,

(3.18)

называемым интегралом Фурье.

Внутренний интеграл, являющийся функцией ю, обозначим

Sifsi) = | s (t)s rJa'& t

( 3 1 9 )

-СО

После подстановки (3.19) в выражение (3.18) получаем

s(t) = j - J 5,(co)e-/“'dco

(3.20)

—00

Выражения (3.19) и (3.20) представляют собой прямое и обратное преобразования Фурье. S(со) называется спектральной плотностью или спектральной характеристикой функции s(f). Выражение (3.20) пред­ ставляет собой непериодическую функцию в виде суммы (интеграла) гармонических колебаний с бесконечно малыми амплитудами.

Из анализа преобразований Фурье вытекает следующее важное поло­ жение: огибающая сплошного спектра (модуль спектральной плотности) непериодической функции и огибающая линейчатого спектра периодичес­ кой функции (полученной из непериодической nytneM продолжения ее с пе­ риодом Т) совпадают по форме и отличаются только масштабом.

Поскольку спектральная характеристика - комплексная величина, то ее можно представить в виде

S(a>) = Л(со) - /8(со) = 5(со)е-у><м)

(3.21)

где Л(со) и В(а>) - соответственно действительная и мнимая части спектральной плотности; 5(ю) и \|/(оо) - амплитудно-частотная (АЧХ) и фазо-частотная (ФЧХ) характеристики спектральной плотности.

Непосредственно из формулы (3.19) вытекают следующие выра­ жения для Л(со) и 5(ш):

Л(ю) =

Js(/) cos со/d/,

(3.22)

B(<£>) =

со*

 

Ji(0 sin co/d/.

(3.23)

Очевидно также, что модуль и фаза спектральной плотности опре­

деляются выражениями:

 

 

S(co) = 7И(со»2 + [Д(ш)]2,

(3.24)

vp(co) = arctg-В((й)

(3.25)

 

Л(со)

Как и в случае ряда Фурье, модуль спектральной плотности есть функция четная, а фаза - нечетная относительно частоты со.

Итак, структура спектра непериодического сигнала полностью определяется функциями частоты S(co) (спектром амплитуд) и <р(со) (спектром фаз).

3.3. Случайный процесс как модель реального сигнала

Рассмотренные математические модели детерминированных сиг­ налов являлись известными функциями времени. Их использование позволяет успешно решать задачи, связанные с определением реакций конкретных систем на заданные входные сигналы. Случайные состав­ ляющие, всегда имеющие место в реальном входном сигнале, считают при этом пренебрежимо малыми и не принимают во внимание.

Однако единственная точно определенная во времени функция не может служить математической моделью сигнала при передаче и пре­ образовании информации. Поскольку получение информации связано с устранением априорной неопределенности исходных состояний, од­ нозначная функция времени только тогда будет нести информацию, когда она с определенной вероятностью выбрана из множества воз­ можных функций. Поэтому в качестве моделей сигнала используется случайный процесс. Каждая выбранная детерминированная функция рассматривается как реализация этого случайного процесса.

Необходимость применения статистических методов исследова­ ния диктуется и тем, что в большинстве практически важных случаев пренебрежение воздействием помехи в процессах передачи и преоб­ разования информации недопустимо. Считается, что воздействие по­

мехи на полезный сигнал проявляется в непредсказуемых искажениях его формы. Математическая модель помехи представляется также в виде случайного процесса, характеризующегося параметрами, опре­ деленными на основе экспериментального исследования. Вероятност­ ные свойства помехи, как правило, отличны от свойств полезного сиг­ нала, что и лежит в основе методов их разделения.

Учитывая, что все фундаментальные выводы теории информации базируются на указанном статистическом подходе при описании сиг­ налов (и помех), уточним основные характеристики случайного про­ цесса как модели сигнала.

Под случайньш (стохастическим) процессом подразумевают та­ кую случайную функцию времени U (/), значения которой в каждый момент времени случайны. Конкретный вид случайного процесса, зарегистрированный в определенном опыте, называют реализаци­ ей случайного процесса. Точно предсказать, какой будет реализация в очередном опыте, принципиально невозможно. Могут быть опреде­ лены лишь статистические данные, характеризующие все множество возможных реализаций, называемое ансамблем. Ценность таких мо­ делей сигналов в том, что появляется возможность судить о поведении информационной системы не по отношению к конкретной реализации, а по отношению ко всему ансамблю возможных реализаций.

Основными признаками, по которым классифицируются случай­ ные процессы, являются: пространство состояний, временной пара­ метр и статистические зависимости между случайными величинами U (f) в разные моменты времени

Пространством состояний называют множество возможных зна­ чений случайной величины U (t.). Случайный процесс, у которого множество состояний составляет континуум, а изменения состояний возможны в любые моменты времени, называют непрерывным слу­ чайным процессом. Если же изменения состояний допускаются лишь в конечном или счетном числе моментов времени, то говорят о непре­ рывной случайной последовательности.

Случайный процесс с конечным множеством состояний, кото­ рые могут изменяться в произвольные моменты времени, называют дискретным случайным процессом. Если же изменения состояний возможны только в конечном или счетном числе моментов време­ ни, то говорят о дискретных случайных последовательностях.

Так как в современных информационных системах предпочтение отдается цифровым методам передачи и преобразования информа­ ции, то непрерывные сигналы с датчиков, как правило, преобразуются в дискретные, описываемые дискретными случайными последова­ тельностями. Вопросы такого преобразования рассмотрены в гл. 4

Среди случайных процессов с дискрегным множеством состояний нас будут интересовать такие, у которых статистические зависимости распро­ страняются на ограниченное число к следующих друг за другом значений. Они называются обобщенными марковскими процессами к-го порядка.

В ряде практически важных задач случайный процесс наряду с веро­ ятностным описанием можно описать совокупностью неслучайных чис­ ловых характеристик, постоянных или меняющихся во времени. От этих характеристик требуется, чтобы в условиях конкретно поставленной зада­ чи они отражали самое существенное случайного процесса. Вероятнос­ тными характеристиками совокупности большого числа реализаций (ан­ самбля реализаций) являются законы распределения, которые могут быть получены теоретически или на основе экспериментальных данных.

Законы распределения являются достаточно полными характе­ ристиками случайного процесса. Однако они сложны и требуют для своего определения обработки большого экспериментального матери­ ала. Кроме того, такое подробное описание процесса не всегда бывает нужным. Для решения многих практических задач достаточно знать более простые (хотя и менее полные) характеристики случайного про­ цесса. Такими характеристиками являются средние значения и функ­ ция корреляции случайного процесса.

Имеется несколько различных подходов к тому, как вводить вероятностную меру на множестве реализаций. Для инженерных приложений оказывается удобным определение случайного про­ цесса как такой функции времени х(/), значение которой в каждый данный момент является случайной величиной. Случайная вели­ чина полностью характеризуется распределением вероятностей, например плотностью P ^ x J/,); однако, чтобы охарактеризовать случайный процесс, нужно описать, связаны ли (и если да, то как) значения реализации, разделенные некоторыми интервалами времени. Так как связь только двух таких значений, описываемая распределением второго порядка Р 2(х,, х2|tv t7), может неполно ха­ рактеризовать процесс в целом, вводят распределения третьего,

четвертого, л-го порядков: Рп (*,, хп \ t{, tn). В конкретных задачах обычно ясно, до какого порядка следует доходить в описа­ ний процесса.

В ряде практически важных задач случайный процесс наряду с ве­ роятностным описанием можно описать совокупностью неслучайных числовых характеристик, постоянных или меняющихся во времени. От эти* характеристик требуется, чтобы в условиях конкретно поставлен­ ной задачи они отражали самое существенное случайного процесса.

Вероятностные характеристики случайного процесса. В соот­ ветствии с определением случайный процесс U (t) может быть описан системой N обычно зависимых случайных величин U. = U (t,) ,..., U. = U (/.), •••> UN= U (/w), взятых в различные моменты времени t1... t. ... При неограниченном увеличении числа N такая система эквивалентна рассмат­ риваемому случайному процессу U (/). Исчерпывающей характеристикой указанной системы является TV-мерная плотность вероятности pN(С/,,...

ТУ,..., tr ). Она позволяет вычислить вероятность PN реализации, значения которой в моменты времени l2,...,tHбудут находиться соответс­ твенно в интервалах (м,, м, +Ди|}, ..., (ирм.+Ды.),.... (и^ uN+AuN) , где и. (1< i <п) - значение, принимаемое случайной величиной Uf

Если Ди. выбраны достаточно малыми, то справедливо соотношение

p N ~Рп (“ р tN) Д « ,,..., Дм, ..., Дик Получение TV-мерной плотности вероятности на основе экспери­

мента предполагает статистическую обработку реализаций, получен­ ных одновременно от большого числа идентичных источников данного случайного процесса. При больших N это является чрезвычайно трудо­ емким и дорогостоящим делом, а последующее использование резуль­ татов наталкивается на существенные математические трудности.

На практике в таком подробном описании нет необходимости. Обыч­ но ограничиваются одноили двумерной плотностью вероятности.

Одномерная плотность вероятности/?, (С/,; ?,) случайного процесса U(t) характеризует распределение одной случайной величины £/,, взятой в произвольный момент времени tv В ней не находит отражения зависи­ мость случайных величин в различные моменты времени.

Двумерная плотность вероятности р 2 = р 2 ({У,, U2; f,, /2) позво­ ляет определить вероятность совместной реализации любых двух значений случайных величин J7, и U2 в произвольные моменты времени f, и t2 и, следовательно, оценить динамику развития про­

цесса. Одномерную плотность вероятности случайного процесса U(t) можно получить из двумерной плотности, воспользовавшись соотношением

J Pi(U\,U2',ti,t2)dU2

(3.26)

-00

 

Использование плотности вероятности даже

низших порядков

в практических приложениях часто приводит к неоправданным услож­ нениям. В большинстве случаев оказывается достаточно знания про­ стейших характеристик случайного процесса, аналогичных числовым характеристикам случайных величин. Наиболее распространенными из них являются моментные функции первых двух порядков: матема­ тическое ожидание и дисперсия, а также корреляционная функция.

Математическим ожиданием случайного процесса U(t) на­ зывают неслучайную функцию времени mu(tj), которая при лю­ бом аргументе tt равна среднему значению случайной величины {/(/,) по всему множеству возможных реализаций:

 

«„('.) = М т О ) = ] UlPl(Ui',tl)dUl

(3i27)

Степень разброса случайных значений процесса £/(^) от своего сред­

него значения »»(/,)

для каждого /, характеризуется дисперсией £>ц (/,):

а

д = М{[и(0-/»„(Л)]2} = Л/{[<7(/,)]2}

(3.28)

О

где U(tt) - /я (^) - центрированная случайная величина.

Дисперсия DK(^) в каждый момент времени

равна квадрату

среднеквадратического отклонения ом(/,):

 

=

(3.29)

Случайные процессы могут иметь одинаковые математические ожидания и дисперсии, однако резко различаться по быстроте измене­ ний своих значений во времени.

Для оценки степени статистической зависимости мгновенных значений процесса U(t) в произвольные моменты времени /, и t2 ис­ пользуется неслучайная функция аргументов Ru (t] t2), называемая ав­ токорреляционной или просто корреляционной функцией.

При конкретных аргументах /, и t2 она равна корреляционному моменту значений процесса £/(*,) и U(Q:

W 2) = M[U(tl)U(t2)}

 

(3.30)

Через двумерную плотность вероятности

выражение (3.30)

представляется в виде

 

 

= ] ] [ <>(г,)</(/,)!/>,(£/,, ,t2)dutdu.

(3.31)

 

 

В силу симметричности этой формулы относительно аргументов

справедливо равенство

 

 

а д / 2) = л(/2/,)

 

(3.32)

Для сравнения различных случайных процессов вместо корреля­ ционной функции удобно пользоваться нормированной функцией ав­

токорреляции:

 

 

 

 

 

_

Д>(Уг)

 

(3.33)

 

 

 

 

Из сравнения (1.69) и (1.70) следует, что при произвольном t - t2

автокорреляционная функция вырождается в дисперсию:

 

К

М

= З Д

)

(3-34)

а нормированная функция автокорреляции равна единице:

п

_

Д Д У г)

_ 1

 

Р" '

 

<3-35>

Следовательно, дисперсию случайного процесса можно рассмат­ ривать как частное значение автокорреляционной функции.

Аналогично устанавливается мера связи между двумя случайны­ ми процессами U(t) и V(t). Она называется функцией взаимной корре­

ляции:

 

H„(tlt2) = M[U(tl)V(t2)]

(3.36)

3.4. Стационарные и эргодические случайные процессы

Случайные процессы различаются по степени однородности протека­ ния их во времени. В общем случае процесс может иметь определенную тенденцию развития и характеристики, зависящие от начала отсчета вре­ мени. Такие случайные процессы называются нестационарными.

Для описания сигнала математическая модель в виде нестацио­ нарного случайного процесса подходит наилучшим образом, но не­ конструктивна в силу своей чрезмерной сложности.

Поэтому очень часто вводят предположение о стационарности случайного процесса, что позволяет существенно упростить матема­ тический аппарат исследования. Случайный процесс называют стаци­ онарным в узком смысле, если выражения для плотностей вероятности не зависят от начала отсчета времени, т. е. справедливо соотношение

= PN W 1 /у,tt + т , t/i + т)

(3.37)

Г р

где u i - случайная величина, отражающая значение процесса в мо­ мент времени t = /. + т ( т - произвольное число).

Иначе говоря, стационарность процесса предполагает его сущес­ твование и статистическую однородность во всем диапазоне времени от —оо до 00.

Такое предположение противоречит физическим свойствам реаль­ ных сигналов, в частности тому, что всякий реальный сигнал сущес­ твует лишь в течение конечного отрезка времени. Однако аналогично установившимся детерминированным процессам случайные процес­ сы, протекающие в установившемся режиме системы при неизменных внешних условиях на определенных отрезках времени, с известным приближением можно рассматривать как стационарные.

При решении многих технических задач вдут на дальнейшее упрощение модели, рассматривая случайный процесс стационарным в широком смысле. Процесс U(t) принято называть стационарным в широ­ ком смысле, если выполняется условие постоянства математического ожи­ дания и дисперсии, а корреляционная функция не зависит от начала отсче­ та времени и является функцией только одного аргумента x —t2т.е.

т (/.) = т

и

= const,

(3.38)

/Лк

 

(3.39)

Du (0 = D , r const

(3.40)

Ru(tv t2 + x) = Ru(x).

Так как условие постоянства дисперсии является частным случа­ ем требования к корреляционной функции при т = 0:

А Х ',) = а д , / , ) = /^(0 ) = const,

то выполнения соотношений (3.38) и (3.40) достаточно, чтобы рас­ сматривать случайный процесс U(t) как стационарный.

Всякий стационарный случайный процесс является стационар­ ным в широком смысле. В дальнейшем, если это не оговорено особо, стационарность будем рассматривать в широком смысле.

Случайные процессы, наблюдаемые в устойчиво работающих реальных системах, имеют конечное время корреляции. Поэтому для стационарных процессов, представляющих практический интерес,

справедливо соотношение

 

 

lim R (т) = 0.

(3.41)

T—»со

и

 

Если для случайного процесса равенства (3.38), (3.40) не выдержива­ ются, но на интересующем нас интервале времени изменением указанных параметров можно пренебречь, его называют квазистсщионарным.

Среди стационарных случайных процессов многие удовлетворяют свойству эргодичности. Оно проявляется в том, что каждая реализация случайного процесса достаточной продолжительности несет практически полную информацию о свойствах всего ансамбля реализаций, что позво­ ляет существенно упростить процедуру определения статистических ха­ рактеристик, заменяя усреднение значений по ансамблю реализаций ус­ реднением значений одной реализации за длительный интервал времени.

Следовательно, для стационарных эргодических процессов спра­ ведливы соотношения

1 Т

 

 

т“= 1*2 Т \ U^

dt = Wo>

(3.42)

1 0

 

(3.43)

 

 

1Г

+ т)- и„|rf/,

(3.44)

К(') = Иш —||и(0 -

1>т' / п

 

 

о

 

 

где u(t) - конкретная реализация случайного процесса U(t). Результаты исследования случайных процессов в их временном

представлении, т.е. с использованием формул (3.42) и (3.44), лежат в основе корреляционной теории сигналов.

Для облегчения практического определения корреляционных функций в соответствии с (3.44) серийно выпускаются специаль­ ные вычислительные устройства - коррелометры (корреляторы).

Приведем примеры, с которыми часто имеют дело в теории сигналов.

3.5. Некоторые модели ансамбля реализаций

Гауссовский случайный процесс. Удобной моделью помех и не­ которых полезных сигналов является стационарный нормальный слу­ чайный процесс. Случайные мгновенные значения величины x(t) пред­ полагаются подчиненными нормальному закону (с нулевым средним), т.е. плотность распределения первого порядка выражается формулой

Р(х )

1

ехр

( х - т х)2

л/2пох.

(3.45)

 

 

2о*

Нормальный (гауссовский) закон распределения случайных вели­ чин чаще других встречается в природе. Нормальный процесс особенно характерен для помех в каналах связи. Он очень удобен для анализа. Поэтому случайные процессы, распределение которых не слишком от­ личается от нормального, часто заменяют гауссовским процессом.

В данном случае рассматривается стационарный и эргодический гаус­ совский процесс. Поэтому под /и. и о. можно подразумевать соответственно постоянную составляющую и среднюю мощность флукгуационной состав­ ляющей одной (достаточно длительной) реализации случайного процесса.

Графики плотности вероятности при нормальном законе для не­ которых значений ох изображены на рис. 3.4. Функция р(х) симмет­ рична относительно среднего значения. Чем больше ах, тем меньше максимум, а кривая становится более пологой (площадь под кривой р{х) равна единице при любых значениях о .).

Широкое распространение нормального закона распределения в при­ роде объясняется тем, что при суммировании достаточно большого числа независимых или слабозависимых случайныхвеличинраспределение суммы близко к нормальному при любом распределении отдельных слагаемых.

Это положение, сформулированное в 1901 г. А.М. Ляпуновым, по­ лучило название центральной предельной теоремы.

Наглядными физическими примерами случайного процесса с нор­ мальным законом распределения являются шумы, обусловленные теп­ ловым движением свободных электронов в проводниках электрической цепи или дробовым эффектом в электронных приборах. Не только шумы и помехи, но и полезные сигналы, являющиеся суммой большого числа не­ зависимых случайных элементарных сигналов, например, гармонических колебаний со случайной фазой или амплитудой, часто можно трактовать как гауссовские случайные процессы.

На основе функции р(х) можно найти относительное время пре­ бывания сигнала x(t) в определенном интервале уровней, отношение максимальных значений к среднеквадратическому (пик-фактор) и ряд других важных для практики параметров случайного сигнала.

Отношение времени пребывания x(t) в заданном интервале к об­ щему времени наблюдения можно трактовать как вероятность попада­ ния x(t) в указанный интервал. При этом следует заметить, что данные о распределении вероятностей не дают никаких представлений о пове­ дении функции JC(/) во времени.

Белы й шум используют как модель наиболее тяжелого вида по­ мехи в каналах связи. Он является стационарным случайным процес­ сом с постоянной спектральной плотностью W (со) = W0 = const. Если

в выражение для корреляционной функции

 

 

 

 

Ях(г) = J -

f Wx (со) ey“'d(o

(3.46)

подставить WQ, то получим

 

 

 

 

 

R (T) = W 08(T),

(3.47)

где 5 (т) - дельта-функция.

 

 

Для белого шума с

 

 

 

бесконечным и равно­

 

 

 

мерным спектром кор­

■ЛТп

 

 

реляционная функция

 

 

 

 

 

равна нулю

для всех

 

 

 

значений т, кроме т =

 

 

 

О, при котором

R^(0) рис 3 4

Одномерная плотность вероятности

обращается

в

беско-

 

нормального распределения

 

нечность.

Подобный

 

 

 

шум, имеющий игольчатую структуру с бесконечно тонкими случай­ ными выбросами, иногда называют дельта-коррелированным процес­ сом. Дисперсия белого шума бесконечно велика. Если спектр Wx(ев) ог­ раничен сверху частотой сов, то такой процесс называется квазибелым шумом.

Сигнал как колебание со случайными огибающей и фазой. Понятия амплитуды и фазы, введенные первоначально для гармони­ ческих сигналов, с помощью модуляции были обобщены на сигналы, которые уже не являются гармоническими. Можно обобщить их на

59

произвольные сигналы: пока чисто формально можно задать такие функции А(1) и ф(0, чтобы для заданной функции s(t) было выполнено равенство

s(t) = A (t)cos\|/(/).

(3.48)

A(t) и yi(t) можно интерпретировать как «огибающую» и «фазу» колебания с частотой со0. Оказывается, свобода выбора в задании фун­ кций А и\|/ при определенных условиях весьма ограничена. Комплекс этих условий получил название узкополосности сигнала x(t).

Очень наглядным является векторный вариант модели (3.48): А и Ф можно рассматривать как полярные координаты некоторого вектора. Тогда всякое гармоническое колебание s{t) = S cos(co0t + (р), имеющее частоту о>0, изобразится как постоянный вектор с амплитудой S и уг­ лом (р к направлению, принятому за ось Ох.

3.6.Спектральное представление случайных сигналов

Вп. 3.1 была показана эффективность представления детер­ минированных сигналов совокупностью элементарных базисных сигналов для облегчения анализа прохождения их через линейные системы. Аналогичный подход может быть использован и в случае сигналов, описываемых случайными процессами.

Рассмотрим случайный процесс U(t), имеющий математическое ожидание mu{t). Соответствующий центрированный случайный про­ цесс характеризуется в любой момент времени центрированной слу­ чайной величиной U (t)\

U(t) = ти(/) + U (t).

(3.49)

Центрированный случайный процесс U(t) можно, как и ранее [см. (3.1)], выразить в виде конечной или бесконечной суммы ортогональных составляющих, каждая из которых представляет собой неслучайную ба­ зисную функцию ф4. (г) с коэффициентом Ск, являющимся случайной ве­ личиной. В результате имеем разложение центрированного случайного процесса U (t) :

т = £ £ > * ( ') •

(3.50)

к

Случайные величины Ск называются коэффициентами разложе­ ния. В общем случае они статистически зависимы и эта связь задается

матрицей коэффициентов корреляции \\Rkl\\- Математические ожида­ ния коэффициентов разложения равны нулю. Неслучайные базисные

функции принято называть координатными функциями.

Т

Предположив, что J m](t)dt <<ю, детерминированную функцию

mu{t) в (3.49) на интервале - Т < t < Т также можно разложить по функциям <рА(/), представив в виде

mu(t) = 2Х *< Р *(0,

(3.50 а)

 

к

 

m„k =

\m u(t)^k{t)dt.

(3.50 6)

 

 

Подставляя (3.50 а) и (3.50 б) в (3.49) для случайного процесса

U(t) с отличным от нуля средним, получим

 

^ (0 — к

+ тик)Ук(*У

(3.50 в)

Выражение случайного процесса в виде (3.50 в) позволяет сущест­ венно упростить его линейные преобразования, поскольку они сводятся к преобразованиям детерминированных функций [/»„(/), (01 >а тэФ~ фициенты разложения, являющиеся случайными величинами, остаются неизменными.

Чтобы определить требования к координатным функциям, рас­ смотрим корреляционную функцию процесса U (t) , заданную разло­ жением

ли(/,/2) = M m o u ( t 2)] = л/[Хс,ФДОЕс/ф/(^-)1 = Е М О Д М О фДл)-

Так как

 

 

 

т с А ] = Р *

при

к = I,

при

к

/,

 

то

 

 

 

К ( ¥ г ) = Е фЛ О фЛ О А

+ Е фЛ О фЛ 'зЖ /- (3.51)

к

к*1

 

 

Соотношение (3.51) становится значительно проще, если коэффи­

циенты {Ск} некоррелированы (R kl = 0 при к Ф1,

при к= I):

К Ш г ) -

(3.52)

В частности, при ^ = t2 ~ t полупим дисперсию случайного про­

цесса U{t):

 

DA 0 = £к [ фД ^ Dk-

(3.53)

Поэтому целесообразно выбирать такие координатные функции, которые обеспечивают некоррелированность случайных величин ( C J . Разложение (3.50), удовлетворяющее этому условию, называют кано­ ническим разложением.

По известному каноническому разложению корреляционной фун­ кции случайного процесса можно записать каноническое разложение самого случайного процесса с теми же координатными функциями, причем дисперсии коэффициентов этого разложения будут равны дис­ персиям коэффициентов разложения корреляционной функции.

Таким образом, при выбранном наборе координатных функций центрированный случайный процесс характеризуется совокупностью дисперсий коэффициентов разложения, которую можно рассматривать как обобщенный спектр случайного процесса.

В каноническом разложении (3.50) этот спектр является дискрет­ ным (линейчатым) и может содержать как конечное, так и бесконечное число членов (линий).

Основным препятствием к широкому практическому использованию канонических разложений случайных процессов является сложность про­ цедуры нахождения координатных функций. Однако для ряда стационар­ ных случайных процессов эта процедура вполне приемлема.

3.7. Графическое представление сигналов

Достаточно широкий класс реальных сигналов охватывается их моделью в виде марковского процесса. Положим, сложный сигнал строится из некоторого дискретного множества элементарных сиг­ налов. Если источник генерирует в данный момент j - й элементарный сигнал, то говорят, что он находится в j состоянии. Полное описа­ ние процесса заключается в задании набора элементарных сигналов (состояний) ( е } и условных вероятностей р.к перехода источника из состояния j в состояние к.

Рис. 3.5. Графическое представление сигнала
с

Для полноты модели в рассмотрение можно включить случай, ког­ да вероятность перехода pjkзависит от времени пребывания источника в состоянии j: вероятность перехода в состояние к в интервале (т, т + dx) после перехода в состояние j равна pjk(i)(h.

Этот сложный процесс может быть отражен очень простой графической моделью. Способ построения модели за­ ключается в следующем. Со­ стояниям источника ставятся в соответствие точки (узлы); воз­ можность перехода из данного ^ состояния в другое отображает­ ся наличием линии (ветви), со­ единяющей соответствующие узлы; направление перехода указывается стрелкой; веро­ ятность перехода указывается

числом около надлежащей ветви. Величины подчиняются очевидному

соотношению = Полученный в результате граф может выглядеть, например, как на рис. 3.5.

Известно, что существуют преобразования графа, не изменяющие определенные свойства, но упрощающие его структуру. Причем, поль­ зоваться преобразованиями Лапласа функций pJk(т) более удобно, чем самими функциями pJk(T). Кроме удобства при написании признаков ветвей графа функции Pjk(s) позволяют очень просто вычислить вре­ менные моменты сигналов. Пусть, например, нас интересуют только те сигналы, которые начинаются с состоянияj и заканчиваются состо­ янием к. После соответствующих преобразований графа можно полу­ чить функцию Pjk(s) в виде степенного ряда Р (s) = aQ+ axs + a2s2+...

Коэффициент aQдает безусловную вероятность осуществления переходаj —►к, т.е. вероятность появления сигнала любой длитель­ ности, начинающегося с у-го символа и заканчивающегося к-м. Ве-

личина ~ а\ характеризует среднюю длительность такого сигнала;

2* (оЛ2

дисперсия длительности определяется величиной а0 [а0)

Из полного графа случайного процесса легко определить любую инте­ ресующую нас реализацию, выделив в нем соответствующую траекторию. По характеристикам ветвей траектории находится вероятность данной ре­ ализации и ее остальные временные статистические характеристики.

Наиболее эффективно граф может быть использован для нахожде­ ния статистических характеристик подмножества сигналов, выделяе­ мого по какому-либо признаку.

3.8.

Геометрическое представление сигналов

Основой

геометрического представления сигналов служит

тот факт, что совокупность чисел

х2,

, хп, независимо от их

происхождения, всегда может рассматриваться как совокупность координат точки в n-мерном пространстве, т.е. соответствующий вектор в «-мерном пространстве определяется совокупностью п чисел, которые являются его проекциями на соответствующие оси. Это записывается следующим образом:

х = (х{,х2, ... ,х ).

Сигнал с ограниченным спектром, согласно теореме Котельникова, полностью задается дискретным множеством равноотстоящих отсче­ тов. Совокупность чисел, характеризующих значение функций отсче­ та в соответствующих точках, можно рассматривать как совокупность координат некоторой точки; таким образом, сигнал также представля­ ется как вектор (точка) в многомерном пространстве, которое можно назвать пространством сигналов. Размерность пространства сигналов равна числу степеней свободы рассматриваемого сигнала. Как отмеча­ лось выше, оценкой числа степеней свободы отрезка сигнала длитель­ ностью Т и ограниченной шириной F спектра является число 2FT.

В большинстве практических случаев число измерений про­ странства сигналов очень велико. Хотя такие пространства не до­ пускают наглядного изображения, аналитические соотношения геометрии значительно облегчают рассмотрение проблем связи.

Расстояния в пространстве сигналов имеют наглядный смысл. Для так называемого евклидова пространства справедливо следующее соотношение для длины вектора:

п

(3.54)

которое является обобщением обычной теоремы Пифагора. В п-мерном пространстве длина вектора называется его нормой. Если рассмотреть два вектора .г, и х2 (на рис. 3.6 показана двумерная модель), то можно найти угол между ними и расстояние между концами векторов.

Исходя из рис. 3.6 получаем:

cosa 1

Xi I

cosa2 =

Х<у>

Xt^

 

X-

= 71- 4 ?;

w r

sina,

= тр—; sm a0 = 77-=^

Тогда

 

 

 

k

Ik II

 

 

/

\

 

+ xX7x77

 

 

 

 

cosa, cosa2 + sin a, sm a2 = cos(a, - a 2) = cosy =

....

■ .

 

 

 

 

 

 

INI1*2II

Обобщая полученное выражение на w-мерное пространство, мо­

жем записать

 

 

 

 

 

 

 

 

 

 

Z v ■2j

 

 

(3.55)

 

 

cosy = j = 1

x2

 

 

 

 

 

F l

 

 

 

Для расстояния d между концами векторов будем иметь

 

d 2

= (х2] - х и)2 +(х22- х п)2

 

или для /2-мерного случая

 

 

 

 

 

 

 

d = J t i b j - x v ) 1-

 

(3-56)

Для энергии

Ес сигнала, представленного отсчетами, получено

выражение

 

 

 

 

 

 

 

 

 

E c = J p

i x r

 

 

(3.57)

Сравнивая значение энергии с соотношением (3.57), можем запи­ сать ||х||2 = 2FEc.

Так как длительность сигнала конечна, то можно определить сред­ нюю мощность сигнала Р следующим образом: Рс= EJT. Тогда

||х|| = рЕ Т Р с

(3.58)

Итак, норма вектора сигнала (т. е. длина вектора) при заданной длительности и ширине спектра сигнала определяется его средней мощностью. Для стационарного случайного сигнала операция осред­ нения квадрата реализации по времени определяет дисперсию процес­ са, следовательно, норма вектора сигнала пропорциональна его сред­ нему квадратическому значению

И = ° ,J 2 F T

(3.59) Простое геометрическое толкование имеют различные опера­

ции над сигналами. Например, если сигнал в канале искажается определенным образом, то пространство сигналов искривляется за счет определенного смещения каждой точки. Пропусканию сигна­ ла через фильтр с поло-

шХ\

 

сой, меньшей

ширины

 

 

спектра,

соответствует

 

 

проектирование точки

 

 

сигнала

на

некоторое

 

 

подпространство,

так

 

 

как такая

фильтрация

 

 

уменьшает

число

сте­

 

 

пеней свободы сигна­

 

 

ла. Наконец,

сложение

Хц

Х21

сигнала

с помехой

оз­

начает смещение точки

Рис. 3.6. Двумерная модель векторного

сигнала

на

величину,

 

 

пространства

п р о п о р ц и о н а л ь н у ю среднеквадратическому значению помехи. Если помеха носит слу­ чайный характер, то она образует некоторую область неопределен­ ности около каждой точки пространства сигналов.

Геометрическая модель позволяет дать наглядное изображение процессов, происходящих в линиях связи.

Конт рольны е вопросы

1.Дайте определение детерминированного и случайного процес­ сов. Приведите примеры.

2.Дайте определение дельта-функции и укажите основные ее свойства.

3.Поясните смысл величин, входящих в тригонометрическую и комплкексную формы записи ряда Фурье.

4.Какой вид имеет спектр периодического сигнала?

5.Дайте определение понятий реализации и ансамбля реализаций случайного процесса.

6.Дайте определение основных характеристик случайного процесса.

7.Как описываются статистические свойства дискретных сообще­ ний? Какие процессы называются марковскими?

8.Что такое «белый шум»? Каковы его свойства?

9.Каким образом оценивается в технике практическая ширина спект­ ра сигнала, и какие характеристики полностью определяют сигнал?

10.Дайте геометрическое определение различимости сигналов.