Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
98
Добавлен:
02.05.2014
Размер:
4.88 Mб
Скачать

2.6.4.2. Свойства и дополнительные характеристики ансамбля

Ансамбль случайных функций Х(t) характеризуется несколькими вто-ричными параметрами и функциями, которые конкретизируют свойства

ансамбля. К ним относятся упомянутые выше:

- единичная реализация и сечение ансамбля случайных фун-кций, а также:

- математическое ожидание ансамбля – m (p,t)= m{Х} – неслучайная функция времени, которая характеризует влияние параметра p на поведение ансамбля;

  • среднее квадратичное отклонение – D(p,t)= (2)

  • дисперсия ансамбля 2= [Х – m{Х}]2

  • энергетический спектр Sxxансамбля случайных функций и

  • корреляционная функция (корреляционный момент) ансамбля – K(p,t).

Эти дополнительные характеристики позволяют различать (отличать их друг от друга) ансамбли,. Например, ансамбль функций, математическое ожидание которого – неслучайная постоянная величина m (p,t)= Сonst, называется стационарной случайной функцией. Ниже при описаниях сигналов и шумов мы чаще всего будем использовать стационарные функции с m (p,t) = Сonst=0.

Стационарные стохастические ансамбли, для которых математические ожидания реализаций совпадают с математическими ожиданиями сечений, называются эргодическими ансамблями. Другими словами эта главная особенность эргодических ансамблей выражается так:

«среднее во времени значение отображающей ансамбль случайной функции X = f(p,t) (то есть m(pk,t)= Сonst, вычисленное по (любой) единичной реализации (X k = f(pk,t)) равно среднему по совокупности ( то есть m(f(p,t0))= Сonst,) вычисленному для (любого) сечения.

Распределение плотности вероятностей определённых значений параметра р = f(р) = f(x), которое делает множество функций ансамблем, в эргодических ансамблях одновременно оказывается распределением плотности вероятностей появления конкретной реализации р = f(pk) и распределением плотности вероятностей значений функции хk0 сечения.

2.6.4.3. Спектры случайных функций

Выше при перечислении дополнительных характеристик, которые позволяют отличить одну случайную функцию от другой (один стохастический ансамбль X(t) от другого Y(t)), даже очень на неё похожей, был упомянут и спектр. Чуть позже мы подробно разобрались со спектрами и выяснили, что они вычисляются либо:

- по интегральным преобразованиям Фурье от временного представления функции = е-jtdt (сплошной спектр),

- либо суммированием конечныхрядов Фурье

= X(t) eikΏtdt (линейчатый или дискретный спектр). И то, и другое предполагает существование аналитического выражения для основной функции X(t). Следовательно, при вычислениях спектров случайных функций, которые аналитического представления не имеют, такие способы не могут быть использованы.

Действительно, интегральные преобразования ничего не могут дать потому, что для случайной функции нет выражения, которое можно было бы подставить по знак интеграла. С рядом Фурье, казалось бы, всё в порядке. Существуют конечные его формы, в которыхпод знаком суммы фигурируют значения интересующей нас функции в точках отсчёта

= X()е-jt.В этих соотношениях спектр выглядитмногопараметрической дискретной функцией времени и формально легко вычисляется. Но является ли вычисленный таким способом спектр надёжной дополнительной характеристикой, позволяющей отличать друг от друга похожие ансамбли? Очевидно, что – не является. И вот почему.

Подставляемые при вычислениях коэффициентов ряда под знак суммирования значения интересующей нас функции – случайные величины, которые характеризуют не столько ансамбль в целом, сколько одну его реализацию. Вычисленный спектр оказывается функцией, зависящей от случайных параметров. Величины a() иb() (ведь= a() –jb() ), которые определяют модуль и фазу каждой гармонической составляющей оказываются случайными. Случайные величины не могут стать достоверной основой для вычисления надёжного дополнительного параметра ансамбля.

Таким образом, для стохастического ансамбля не существует понятия спектра, в том его значении, с которым мы были знакомы до настоящего момента. Это не очень приятная новость потому, что спектр регулярных, детерминированных сигналов, как мы убедились выше, – наглядная, очень содержательная и удобная дополнительная их характеристика. Для подробного описания реальных сигналов, которые регулярными функциями представлены быть не могут, было бы удобно иметь что-то похожее на спектр и поддающееся вычислению. Такая дополнительная функция существует и легко вычисляется. Она называется сглаженным спектром стохастического ансамбля. Способ её вычисления обосновывается одной из важнейших теорем теории информации – теоремой Винера-Хинчина

Для восприятия содержания и смысла этой теоремы нам следует освежить в своей памяти несколько ужу знакомых нам понятий. Речь идёт об автокорреляционной функции эргодического стохастического ансамбля

(хх() = limX(t)X(t+)dt ) и её свойствах.

Вспомним, что хх (0) = Рх =2 и что она может быть выражена и через средние по совокупности реализаций. Одновременно припоминаем, что

Е =[X(t)] 2dt = и = Рх =2.

В этих соотношениях прорисовывается взаимосвязь между квадра-тичным эффектом, энергетическим спектром и корреляционной функцией. Винер и Хинчин проследили и доказали эту взаимосвязь, и на её основе ввели понятие сглаженного энергетического спектра Sхх () – однозначной ичёткой характеристики эргодического стохастического ансамбля X(t), для вычисления которой они использовали обратное интегральное преобразование Фурье от автокорреляционной функции такого ансамбля.

Sхх() =хх() е-j d

Рассмотрим этот математический объект внимательней.

Sхх() =хх() е-j d= = 0

=хх() cos[ ] djхх()sin[ ] d=

= 2хх() cos[]d .

По виду это - действительная, чётная(как и спектр) функция, которая дополнительно характеризует ансамбль.Посмотрим далее, как этим новым для нас понятием можно воспользоваться.

Представим себе некий эргодический стохастический процесс X(t). Он характеризуется определённым распределением амплитуд, нулевыми средними значениями этих амплитуд и средней мощностью, более или менее равномерной и на оси времениt и на оси частот. Каждая его гармоническая составляющая имеет случайную и малую амплитуду - амплитудуdAm, а в целом имеет вид: dAm sin(mt+).

Слева на рисунке условно выделен очень узкий

d(элементарный) диапазонdоколо некой частотыm,

колебания с которой (dAm sin(mt+)) присутствуют

m в составе нашего процесса. Парциальная мощность

dPx(m) – малаячасть общей мощности процесса, которая привносится в него с одним таким колебанием ( и есть квадратичный эффект от синуса) вычисляется по известному соотношению

dPx() =[dAm sin(mt+) ] 2 dt)=[ dAm ]2.

Она так только вычисляется - вычисляется в отдельности, а в общую мощность процесса в целом привносится её среднеепо совокупности возможных реализаций значений, ибо и амплитуда dAmи фаза этого колебания –случайны. Следовательно, те доли мощностиdРх(),

множество которых «собираются» интегрированием по всей частотной оси

х=х() ), это не dPx, а её математическое ожиданиеdРх=m{dPx} =

= m{[ dAm ]2} = m{ [ dAm ]2} = Const.

Такой вот результат мысленного эксперимента по оценке мощности в пределах выделенного на рисунке участка оси . На такой частотный «диапазончик» приходится малая частьdРхобщей мощностиРх сигнала

х = m{ [ dAm ] 2}. С другой стороны, мы хорошо знаем, что

х = Рх =2 =m{ [dAm]2}=Sхх ()d.

Следовательно, Sхх () =m{[dAm]2}.

Таким образом, в любых задачах, когда мы имеем дело с эргодическим стохастическим, процессом, мы смело можем вместо не известных нам случайных амплитуд dAm использоватьSхх(). Делать это позволяет нам выведенное выше соотношение. Ну аSхх() находится из её определения, введённого Винером и Хинчиным, определения с которым мы в этом параграфе познакомились.

На этом мы закончили тему, которая была посвящена способам описания сигналов, вообще. Мы познакомились с этими способами и узнали, что обыкновенные непрерывные функции годятся только для описания непрерывных детерминированных процессов, которые ещё не стали сигналами. Сами сигналы могут описываться (отображаться, моделироваться) только случайными функциями.

В последующих разделах этой части курса мы продолжим тему «Сигнал» применительно к непрерывным сигналам, будем использовать математический аппарат случайных функций к описанию непрерывных сигналов, их свойств, к представлению их характеристик, а также – к описанию свойств источников таких сигналов.

В последней части курса этот математический аппарат поможет нам описать поведение сигналов в каналах и моделировать каналы передачи непрерывных сообщений.

3 Свойства непрерывных сигналов и их источников

Мы начали наш курс со знакомства с источниками дискретных сообщений и их свойствами потому, что, во-первых, большая часть актуализированной информации, которая циркулирует по каналам связи или хранится в библиотеках и других, более современных, её хранилищах, является дискретной, во-вторых, в рамках такого начала легко и естественно усваиваются основные понятия теории информации.

Далее, вторую часть курса мы начинали со знакомства с непрерывными сигналами. Это связано с тем, что, как выше было отмечено, большая часть актуализированной информации начинается с первичных естественных сигналов, которые ещё до актуализации уже – сигналы и сигналы непрерывные.

Большую часть времени здесь мы посвятили способам математического описания непрерывных сигналов. Это хорошо, но математика – это вспомогательные инструмент, а наша цель познакомиться с понятиями теории информации

Вот к ним мы и возвратимся.

Из первой части курса мы хорошо знаем, что свойства сообщений определяются статистическими свойствами источников. Одним из основных свойств источника, которое во многом определяет всё остальное, является неопределённость. Она имеет количественную меру, которая называется энтропией и.легко вычисляется по известным вероятностям возможных состояний источника.

Вид распределений, которые для изученных нами случаев имели дискретный характер, при этом играл решающую роль. В порядке подготовки к изучению особенностей непрерывных сигналов, вспомним, как мы определяли дискретное распределение.

Если на какой-то горизонтальной оси t равномерно расставленными точками изобразить (см. рисунок ниже) положение каждого числа (символа) не-

20% 50% - вероятности их появления в последовательности

Случайные символы

T

кой числовой последовательности и из каждой точки построить вертикальный отрезок, изображающий это число в определённом масштабе, то получим «частокол», который выглядит (и, как мы знаем – является) математической (точнее, пока только геометрической) моделью дискретного сообщения.

Если далее верхние концы вертикальных «отрезков-символов» этой последовательности, которые имеют одинаковую высоту, соединить между собой, то соединяющая их линия (на рисунке это несколько тонких горизонтальных линий) пересечёт вертикальную ось значений членов нашей последовательности в точках, соответствующих значениям, соединённых символов. Из этих точек на приведённом выше рисунке, параллельно вспомогательной (дополнительной) координатной оси вероятностей (тонкая стрелка в левом верхнем углу рисунка) проведены толстые горизонтальные отрезки, длинна каждого из которых пропорциональна количеству «отрезков-символов» каждой такой точке соответствующих. При выражении этих количеств в процентах, каждый из таких толстых отрезков будет символизировать вероятность (на вспомогательной оси вероятностей выделены пунктирными вертикальными отрезками два уровня вероятностей: 20=% и 50%) появления в нашей последовательности «отрезков-символов» соответствующей высоты.

«Частокол», толстых отрезков в дополнительной системе координат в левой части рисунка называется линейной диаграммой дискретного распределения вероятностей.

Легко представить, что на первом нашем рисунке вертикальный «частокол» – результат дискретизации кого-то непрерывного сигнала первым способом (см. лист 99). Ёсли при такой дискретизации постепенно уменьшать временной интервал между отсчётами то «частокол» (графический портрет дискретного сигнала) начинают «сгущаться», частокол становиться гуще и гуще, в пределе сливаясь в «сплошную стену». Верхние концы сплошного частокола сливаются в кривую, которая описывает поведение непрерывной функции (см. рисунок ниже) и становится графическим портретом непрерывного сигнала.

Плотность вероятностей появления значения функции

X(t)Ось Непрерывная функция X(t)

вероятностей

t

Линии горизонтальной разметки на втором рисунке играют ту же самую роль, что и а первом. Для подробного описания возможного поведения функции на вспомогательном итоговом графике вероятностей слева количество таких уровней тоже придётся увеличивать, превращая «частокол» толстых горизонтальных отрезков слева в сплошной забор. В результате распределение вероятностей реализации определённых значений функции X(t)= f(t) становится непрерывной функцией (чаще её обозначают p(х)), которая, как и в предыдущем случае изображена слева и построена (горизонтальные линии- линии суммирования количества одинаковых значений функции) по той же методике.

Казалось бы, всё верно. Непрерывная функция X(t) отображает непрерывное сообщение. Поэтому для неё естественно предположить существование некой логически и геометрически полученной нами выше непрерывной функции р(x), которая описывает вероятности, событий, которые заключаются в том , что функция в определённые моментs принимает наперёд названные значения X. Сумма всех таких вероятностей при этом должна быть равна единице.

Однако такое предположение наталкивается на (кажущееся очевидным и непреодолимым) препятствие: вероятность любого такого события есть нуль. Ведь количество точек даже на малом непрерывном отрезке – бесконечно. Трудно поверить, что сумма нулей конечна, вообще, не говоря уже о равенстве этой суммы единице. Математика должна развеять эти сомнения.

Соседние файлы в папке Методичка по теории информации