Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Толстоусов, Г. Н. Прикладная теория информации учеб. пособие

.pdf
Скачиваний:
35
Добавлен:
19.10.2023
Размер:
4.97 Mб
Скачать

Введем понятие относительной максимальной погрешности

л

пъхх/х(і)! '

(/ 9 .9 )

 

 

Окончательно для выбора шага квантования по времени в случае воспроизводящего многочлена нулевой степени имеем следующую оценку:

Л

(/9./о)

СОс ’

Для воспроизводящего многочлена первой степени

J & x h z l M f i - . , Ч)

сообщение восстанавливается также на одном интервале по двум крайним отсчетам (рис. 19 .4). Текущая ошибка согласно (19.5) оценивается выражением

Рис. 19.2

109

которое принимает максимальное значение при І

0,5 (сере-

дина интервала):

 

 

ф к

я '

(fS.il)

Следовательно, шаг дискретизации по времени набирается из усло­ вия

(13.1U)

Воспользуемся неравенством (19.6) и понятием относительной максимальной погрешности (19 .9). Тогда для выбора шага кванто­ вания в случае воспроизводящего многочлена первой степени име­ ем следующую оценку:

Сравнивая (19.10) и (19.13) и учитывая, что <■

I ,

получаем,

что

о увеличением степени воспроизводящего многочлена

п

от О

до I

увеличивается шаг квантования по времени, причем тем

боль­

ше,

чем большаяТочность воспроизведения требуется.

Обвей

пере­

даваемой информации при этом уменьшается, но меняется процеду­ ра восстановления сообщения.

Примем в качестве критерия точности среднеквадратичное

значение ошибки■

°

€ Л=М

«& )

Для воспроизводящего многочлена нулевой степени внутри одного интервала имеем

Тогда вместо (19.14) получаем

по

=м { [4 k

 

 

 

 

,

где

Шуе - математическое ожидание•стационарного процѳеоа;

Х°Ш- центрированное

значение.

 

 

 

 

Продолжая преобразования, имеем

 

 

 

ë ^M {[x % + 2 ü)]Zj-h M j[x % )] I

~

 

 

 

а) л °(é£)] f'

 

 

 

Для стационарного процесса каждое из первых двух слагаемых

равно

дисперсии

. Последнее

слагаемое

при фиксированном

2

равно корреляционной функции R (£д)

.

Тогда

 

£ ^ z [ a x ^R (t& )]= z[W )-R (Z & )] .

f/АЛг;

Дляjo p o n e c c o B с монотонными

корреляционны м и функциями

ошибка

Е* максимальна при £

= І , т.ѳ.

о н а может

бы ть о ц е н е н а по

среднеквадратичному

значению ошибки

в конце интервала.

 

 

 

 

 

 

Шаг квантования

 

 

 

 

определяется из урав­

 

 

 

 

нения (19.15) при

 

 

 

 

 

£ = I . Графичес­

 

 

 

 

кое

решение

уравнения

 

 

 

 

показано на рис. 19.5.

 

 

 

 

При 6 я -?

 

 

 

 

 

процесс может не пе­

 

 

 

 

редаваться

по каналу

 

 

 

 

связи,за исключением

 

 

 

 

одного отсчета. По­

 

Рис.

19.5

 

вышение степени вос­

 

 

производящего поли­

 

 

 

 

нома или использование в качестве воспроизводящие полиномов Че­ бышева или Лежандра, как правило, увеличивает шаг дискретиза­ ции и уменьшает объем передачи. Однако при этом необходимо пре­ дусматривать проведение вычислительных операций и запаздывание

I I I

в приемнике. Все это оказывается эффективным при обеспечении большой точности передачи и при наличии определенных сведений о свойствах передаваемых сообщений (спектральном составе, моду­ ле производных и т . п . ).

Квантование по времени с постоянным шагом не является,оче­ видно, лучшим способом выбора отсчетов случайного процесса. Для критерия максимального отклонения шаг выбирается для некоторого наихудшего случая. Тогда на отдельных участках шаг квантования оказывается излишке мелким.

Рассмотрим некоторые способы адаптивной дискретизации,ког­ да шаг квантования непрерывно меняется. Его величина на каждом участке будет выбираться исходя из критерия наибольшего откло­ нения. В общем случае при адаптивной дискретизации на каждом шаге выбираются как величина шага, так и степень воспроизводя­ щего многочлена. Однако ввиду отсутствия в настоящее время чет­ ких рекомендаций на области применения этих спосооов выбор сте­ пени многочлена здесь не рассматривается.

В случае воспроизводящего многочлена нулевой степени отсче­ ты передаются в момент пересечения границы интервалов квантова­

ния. Если переданный отсчет равен -значению пересекаемой

границы

(рис. І9 .6 а ), то величина максимального отклонения £0

равна

шагу квантования по уровню. В схеме .фи этом необходимо предус­ мотреть логическое устройство, пропускающее отсчет в случае пер­ вого изменения направления пересечения (точка А ) . Если пере­ данный отсчет равен уровню квантования (рис. 19.66), то величина максимального отклонения равна половине шага квантования. Уро­ вень квантования, как было показано в § 18, следует выбирать по­ середине интервала. Значения статистических характеристик ошибок также показаны в § 18.

ІІ2

 

Раосмотрим способы адаптивного выбора шага дискретизации

по времени

для

воспроизводящего полинома

первой степени.

 

В начале

каждого

шага

передается

значение

функции X (ti)

, её

первой производной

X ( f i )

и время на­

чала

шага

Ьі .

Конец интервала

определяется

в момент,

когда

нарушается

условие

 

 

Далее

передаются

значения х с+і)>

 

(рис;19.7)

и т .д . Необходимость дифференцирования для построения воспроиз­ водящей функции является недостатком метода. Поэтому часто монет оказаться выгодным интерполяционно-экстраполяционный способ дис­ кретизации, при котором операция дифференцирования отсутствует.

В начале интервала передаются значения функции

оо(Ь^)

и вре­

мя

. Затем через промежуток времени

Л ,

определенный по

формуле

(19.13), передается еще один о т сч ет а ;( t i + й) (рис.

1 9 .8 ).

Конец интервала Іі,+ і определяется

в момент, когда

нару­

шается условие

 

 

 

 

)о ф )-[ х (б ^ х ! і^ й1

- і ф е . .

 

Рис. 19.7

Рис. 19.8

ИЗ

Затем

передаются

значения

« / W ’

х (ъі « +л)

И т .д .

 

 

 

 

Следует заметить, что в отличие от дискретизации с'посто­

янным

шагом, при

адаптивной дискретизации по линии связи необ­

ходимо

передавать

времена

начала каждого

интервала.

§ 20. Энтропия непрерывного источника информации

Как указывалось, сообщения непрерывных источников информа­ ции можно с заранее заданной точностью представить в виде диск­ ретных по времени и по уровню отсчетов. Поэтому для изучения не­ прерывных источников можно использовать аппарат теории информа­ ции, созданный для дискретных источников. Однако разделы теории, посвященные непрерывным источникам со всей их спецификой, допус­ кают ряд новых возможностей при исследовании.

Найдем энтропию непрерывного источника информации, неманяющего своего состояния, т .е . энтропию на одно сообщение. Для дискретного источника информации эта энтропия

 

H (x h - z t p ^ p iy

т<>

где

- вероятность і -го

состояния дискретною

источника.

 

Для непрерывного источника,

у которого бесконечное число

возможных состояний, вероятность одного состояния равна нулю. Можно говорить о вероятности нахождения состояния внутри задан­ ного интервала. Разобьем всю область возможных состояний на ин­

тервалы величиной

. Тогда вероятность

нахождения состоя­

ния внутри

интервала

 

,

если

ДХ

мало,

будет

 

 

 

 

 

 

 

 

 

р . г ъ Г (х £) д х ,

 

 

U m )

где

значение

плотности

вероятности при

Х~Хс .

Будем

считать

все

состояния

внутри интервала Л Л

за одно

состояние. Тогда непрерывный источник станет дискретным. Под­

ставим (20.2) в (20.1) и, переходя к

пределу при & Х-~0 , по­

лучим энтропию непрерывного источника

>

н

(

ф

л x ] j =

cLx. - lün to o & x .

(zo.b)

лх-»0

а

 

Таким образом, энтропия равна двум слагаемым. Ъторое слагаемое равно бесконечности. Этого и следовало ожидать, так как число возможных состояний у непрерывного источника бесконечно. Следо­ вательно, и степень неопределенности состояний также должна

быть

бесконечной. Однако можно

условиться,

что для всех объек­

тов,

которые мы будем изучать,

величина й Х

одинакова. Тогда

второе слагаемое для всех объектов будет одинаково и мы прини­ маем его за нуль отсчета. Сравнивать же все объекты между собой будем по первому слагаемому, которое называется приведенной энтропией:

Далее будем рассматривать только выражение (20.4) и термин "приведенная" упоминать для краткости не будем.

Рассмотрим, какой вид закона распределения обращает выра­ жение (20.4) в максимум. Иначе, какие непрерывные источники об­ ладают максимальной энтропией? Плотность вероятности lJ(х)

не мо.-.ст быть произвольна, а должна’удовлетворять ряду ограни­ чений. Например, интеграл от плотности вероятности, взятый по всему диапазону, равен единице:

izos)

Поэтому должна рассматриваться вариационная задача на поиск.ус­ ловного экстремума.

Укажем общий метод решения таких задач. Пусть надо найти вид функции 2*Г(х) , при котором некоторый функционал экстре­ мален: ^

II5

Доланы быть учтены дополнительные условия, ограничивающие ЬГ(л),

вида ^

J'yjcc,

bffxjJcCx-A^ cofbst,

 

 

 

:

f

(мл)

<?%!X.,

hF(x.}]cCx-Ar^corbst.

 

 

а.

Составляется в соответствии с методом, указанным в § Ч, вспомо­

гательный

функционал с привлечением неопределенных множителей

Лагранжа:

e

g

&

%=JFcLx +Xt[J%

cCx-/1]+"-+Лп[ІУк<&-An,],

(M?)

~a.

*0.

"a-

этого

Заметим, что

t)f = (j

. Записывается условие экстремума

функционала, которое совпадает с условием экстремума исходного функционала:

дЭ<_ d F

Qu- +.

д<^ ~ п

 

Сгоя.)

дьГ - дъг

 

 

 

Далее (

гь + і

) неизвестные

ьГ,кі,... Ап,

определяются

из

( П+ /

) уравнений (20.8)

и (20 .6).

 

 

Найдем источники, обладающие наибольшей

энтропией в

слу­

чае, когда область возмокных состояний источника ограничена

сверху и снизу.

В этом случае

говорят, что

источник обладает

ограниченной пиковой мощностью . Пусть верхняя и нижняя грани­

цы области

обозначены через Л и ё

соответственно. Тогда

находится

экстремум энтропии

 

 

6

 

H ( X h - J l r ( x ) & y i S ( x ) d x ;

при дополнительном ограничении

ßr(x)cCx.-i. (яа9)

'съ

ІІб

Условие экстремума ( 2 0 . 8 ) примет вид

?[- ьГ&XJ ьг]

д[ъг]

fajiS-faje+Aj-O.

dzJ-

Л ' дьГ -

Отсюда видно, что плотность вероятности

поотоянна. Значе­

ние плотности вероятности

находим из

(20.9).

Получаем

g-Q, ■

Экстремальным в данном случае является равномерный закон распределения. Величина энтропии согласно (20.4)

а

Найдем источники, обладающие максимальной энтропией, ког­ да на область возможных состояний ограничений нет. Задано сред­ неквадратичное значение параметра источника или, как говорят,

•источник обладает ограниченной средней мощностью . Определяется экстремум энтропии

При дополнительных ограничениях

где - заданная средняя мощность. Условия экстремума (20.8) примут вид

-Содъг-

Проведем ряд преобразований:

 

 

âo(if- е) =(аі +A33üL)£rtz ,

 

(Л,-і-Я^хЧ6ъЛ-і

jsjc*

(ZOZZ)

ъГ- е

,

ІІ7

где Ы, и - некоторые константы.

Для их определения проведем следующие рассуждения. Запишем плотность вероятности для нормального закона распределения

 

 

 

_

/

 

Сравнивая

с (20.12), видим, что полученное решение

соответству­

ет нормальному закону распределения с

нулевым математическим ожи­

данием. Дисперсия закона распределения

задана по условию задачи

и равна

«s'*

. Следовательно,

при заданных условиях экстремаль­

ным является

нормальный закон

распределения

 

 

 

j

 

 

(za**)

 

 

ы ( х , ) = е

 

 

Найдем величину энтропии. Предварительно получим

 

 

 

- is p .e ° F

(**>

Подставим

(20.13) и (20.14) в

(20.11).

Имеем

 

H(X)=~Sof^^ßj-(x,)dx+4^/ х . гъГ(х)сСх.

Zoo

- оо

Первый интеграл равен единице,

второй - дисперсии. Поэтому

Для любых дискретных источников энтропия максимальна в случае равновероятных состояний. Условия максимума энтропии непрерыв­ ных источников зависят от вида ограничений, накладываемых на область возможных состояний источника.

Рассмотрим объединение двух непрерывных источников и

У .

Частная условная

энтропия источника

У при

заданном со­

стоянии источника ЗС

, равном

, определяется

выражением

(20 .4). Только вместо

априорной плотности

вероятности

следует

подставить условную плотность

вероятности іХ (у/Х і )

:

п а

Соседние файлы в папке книги из ГПНТБ