
книги из ГПНТБ / Толстоусов, Г. Н. Прикладная теория информации учеб. пособие
.pdfВведем понятие относительной максимальной погрешности
л |
пъхх/х(і)! ' |
(/ 9 .9 ) |
|
|
Окончательно для выбора шага квантования по времени в случае воспроизводящего многочлена нулевой степени имеем следующую оценку:
Л
(/9./о)
СОс ’
Для воспроизводящего многочлена первой степени
J & x h z l M f i - . , Ч)
сообщение восстанавливается также на одном интервале по двум крайним отсчетам (рис. 19 .4). Текущая ошибка согласно (19.5) оценивается выражением
Рис. 19.2
109
которое принимает максимальное значение при І |
0,5 (сере- |
|
дина интервала): |
|
|
ф к |
я ' |
(fS.il) |
Следовательно, шаг дискретизации по времени набирается из усло вия
(13.1U)
Воспользуемся неравенством (19.6) и понятием относительной максимальной погрешности (19 .9). Тогда для выбора шага кванто вания в случае воспроизводящего многочлена первой степени име ем следующую оценку:
Сравнивая (19.10) и (19.13) и учитывая, что <Р <■ |
I , |
получаем, |
||
что |
о увеличением степени воспроизводящего многочлена |
п |
от О |
|
до I |
увеличивается шаг квантования по времени, причем тем |
боль |
||
ше, |
чем большаяТочность воспроизведения требуется. |
Обвей |
пере |
даваемой информации при этом уменьшается, но меняется процеду ра восстановления сообщения.
Примем в качестве критерия точности среднеквадратичное
значение ошибки■ |
° |
€ Л=М |
«& ) |
Для воспроизводящего многочлена нулевой степени внутри одного интервала имеем
Тогда вместо (19.14) получаем
по
=м { [4 k |
|
|
|
|
, |
|
где |
Шуе - математическое ожидание•стационарного процѳеоа; |
|||||
Х°Ш- центрированное |
значение. |
|
|
|
||
|
Продолжая преобразования, имеем |
|
|
|||
|
ë ^M {[x % + 2 ü)]Zj-h M j[x % )] I |
~ |
|
|||
|
|
+Ва) л °(é£)] f' |
|
|
||
|
Для стационарного процесса каждое из первых двух слагаемых |
|||||
равно |
дисперсии |
. Последнее |
слагаемое |
при фиксированном |
||
2 |
равно корреляционной функции R (£д) |
. |
Тогда |
|||
|
£ ^ z [ a x ^R (t& )]= z[W )-R (Z & )] . |
f/АЛг; |
||||
Дляjo p o n e c c o B с монотонными |
корреляционны м и функциями |
ошибка |
||||
Е* максимальна при £ |
= І , т.ѳ. |
о н а может |
бы ть о ц е н е н а по |
|||
среднеквадратичному |
значению ошибки |
в конце интервала. |
|
|||
|
|
|
|
|
Шаг квантования |
|
|
|
|
|
определяется из урав |
||
|
|
|
|
нения (19.15) при |
||
|
|
|
|
|
£ = I . Графичес |
|
|
|
|
|
кое |
решение |
уравнения |
|
|
|
|
показано на рис. 19.5. |
||
|
|
|
|
При 6 я -? |
|
|
|
|
|
|
процесс может не пе |
||
|
|
|
|
редаваться |
по каналу |
|
|
|
|
|
связи,за исключением |
||
|
|
|
|
одного отсчета. По |
||
|
Рис. |
19.5 |
|
вышение степени вос |
||
|
|
производящего поли |
||||
|
|
|
|
нома или использование в качестве воспроизводящие полиномов Че бышева или Лежандра, как правило, увеличивает шаг дискретиза ции и уменьшает объем передачи. Однако при этом необходимо пре дусматривать проведение вычислительных операций и запаздывание
I I I
в приемнике. Все это оказывается эффективным при обеспечении большой точности передачи и при наличии определенных сведений о свойствах передаваемых сообщений (спектральном составе, моду ле производных и т . п . ).
Квантование по времени с постоянным шагом не является,оче видно, лучшим способом выбора отсчетов случайного процесса. Для критерия максимального отклонения шаг выбирается для некоторого наихудшего случая. Тогда на отдельных участках шаг квантования оказывается излишке мелким.
Рассмотрим некоторые способы адаптивной дискретизации,ког да шаг квантования непрерывно меняется. Его величина на каждом участке будет выбираться исходя из критерия наибольшего откло нения. В общем случае при адаптивной дискретизации на каждом шаге выбираются как величина шага, так и степень воспроизводя щего многочлена. Однако ввиду отсутствия в настоящее время чет ких рекомендаций на области применения этих спосооов выбор сте пени многочлена здесь не рассматривается.
В случае воспроизводящего многочлена нулевой степени отсче ты передаются в момент пересечения границы интервалов квантова
ния. Если переданный отсчет равен -значению пересекаемой |
границы |
(рис. І9 .6 а ), то величина максимального отклонения £0 |
равна |
шагу квантования по уровню. В схеме .фи этом необходимо предус мотреть логическое устройство, пропускающее отсчет в случае пер вого изменения направления пересечения (точка А ) . Если пере данный отсчет равен уровню квантования (рис. 19.66), то величина максимального отклонения равна половине шага квантования. Уро вень квантования, как было показано в § 18, следует выбирать по середине интервала. Значения статистических характеристик ошибок также показаны в § 18.
ІІ2
|
Раосмотрим способы адаптивного выбора шага дискретизации |
||||||
по времени |
для |
воспроизводящего полинома |
первой степени. |
||||
|
В начале |
каждого |
шага |
передается |
значение |
||
функции X (ti) |
, её |
первой производной |
X ( f i ) |
и время на |
|||
чала |
шага |
Ьі . |
Конец интервала |
определяется |
в момент, |
||
когда |
нарушается |
условие |
|
|
|||
Далее |
передаются |
значения х (£с+і)> |
|
(рис;19.7) |
и т .д . Необходимость дифференцирования для построения воспроиз водящей функции является недостатком метода. Поэтому часто монет оказаться выгодным интерполяционно-экстраполяционный способ дис кретизации, при котором операция дифференцирования отсутствует.
В начале интервала передаются значения функции |
оо(Ь^) |
и вре |
||
мя |
. Затем через промежуток времени |
Л , |
определенный по |
|
формуле |
(19.13), передается еще один о т сч ет а ;( t i + й) (рис. |
|||
1 9 .8 ). |
Конец интервала Іі,+ і определяется |
в момент, когда |
нару |
|
шается условие |
|
|
|
|
|
)о ф )-[ х (б ^ х ! і^ й1 |
- і ф е . . |
|
Рис. 19.7 |
Рис. 19.8 |
ИЗ
Затем |
передаются |
значения |
« / W ’ |
х (ъі « +л) |
И т .д . |
|
|
|
|
Следует заметить, что в отличие от дискретизации с'посто |
||||
янным |
шагом, при |
адаптивной дискретизации по линии связи необ |
||
ходимо |
передавать |
времена |
начала каждого |
интервала. |
§ 20. Энтропия непрерывного источника информации
Как указывалось, сообщения непрерывных источников информа ции можно с заранее заданной точностью представить в виде диск ретных по времени и по уровню отсчетов. Поэтому для изучения не прерывных источников можно использовать аппарат теории информа ции, созданный для дискретных источников. Однако разделы теории, посвященные непрерывным источникам со всей их спецификой, допус кают ряд новых возможностей при исследовании.
Найдем энтропию непрерывного источника информации, неманяющего своего состояния, т .е . энтропию на одно сообщение. Для дискретного источника информации эта энтропия
|
H (x h - z t p ^ p iy |
т<> |
|
где |
- вероятность і -го |
состояния дискретною |
источника. |
|
Для непрерывного источника, |
у которого бесконечное число |
возможных состояний, вероятность одного состояния равна нулю. Можно говорить о вероятности нахождения состояния внутри задан ного интервала. Разобьем всю область возможных состояний на ин
тервалы величиной |
&Х |
. Тогда вероятность |
нахождения состоя |
||||
ния внутри |
интервала |
|
, |
если |
ДХ |
мало, |
|
будет |
|
|
|
|
|
|
|
|
|
р . г ъ Г (х £) д х , |
|
|
U m ) |
||
где |
значение |
плотности |
вероятности при |
Х~Хс . |
|||
Будем |
считать |
все |
состояния |
внутри интервала Л Л |
за одно |
состояние. Тогда непрерывный источник станет дискретным. Под
ставим (20.2) в (20.1) и, переходя к |
пределу при & Х-~0 , по |
лучим энтропию непрерывного источника |
> |
н |
( |
ф |
л x ] j = |
cLx. - lün to o & x . |
(zo.b) |
|
лх-»0 |
а |
|
Таким образом, энтропия равна двум слагаемым. Ъторое слагаемое равно бесконечности. Этого и следовало ожидать, так как число возможных состояний у непрерывного источника бесконечно. Следо вательно, и степень неопределенности состояний также должна
быть |
бесконечной. Однако можно |
условиться, |
что для всех объек |
тов, |
которые мы будем изучать, |
величина й Х |
одинакова. Тогда |
второе слагаемое для всех объектов будет одинаково и мы прини маем его за нуль отсчета. Сравнивать же все объекты между собой будем по первому слагаемому, которое называется приведенной энтропией:
Далее будем рассматривать только выражение (20.4) и термин "приведенная" упоминать для краткости не будем.
Рассмотрим, какой вид закона распределения обращает выра жение (20.4) в максимум. Иначе, какие непрерывные источники об ладают максимальной энтропией? Плотность вероятности lJ(х)
не мо.-.ст быть произвольна, а должна’удовлетворять ряду ограни чений. Например, интеграл от плотности вероятности, взятый по всему диапазону, равен единице:
izos)
Поэтому должна рассматриваться вариационная задача на поиск.ус ловного экстремума.
Укажем общий метод решения таких задач. Пусть надо найти вид функции 2*Г(х) , при котором некоторый функционал экстре мален: ^
II5
Доланы быть учтены дополнительные условия, ограничивающие ЬГ(л),
вида ^
J'yjcc, |
bffxjJcCx-A^ cofbst, |
|
|
|
: |
f |
(мл) |
<?%!X., |
hF(x.}]cCx-Ar^corbst. |
|
|
а.
Составляется в соответствии с методом, указанным в § Ч, вспомо
гательный |
функционал с привлечением неопределенных множителей |
||
Лагранжа: |
e |
g |
& |
%=JFcLx +Xt[J% |
cCx-/1]+"-+Лп[ІУк<&-An,], |
(M?) |
|
~a. |
*0. |
"a- |
этого |
Заметим, что |
t)f = (j |
. Записывается условие экстремума |
функционала, которое совпадает с условием экстремума исходного функционала:
дЭ<_ d F |
Qu- +. |
д<^ ~ п |
|
Сгоя.) |
|
дьГ - дъг |
|
|
|
||
Далее ( |
гь + і |
) неизвестные |
ьГ,кі,... Ап, |
определяются |
из |
( П+ / |
) уравнений (20.8) |
и (20 .6). |
|
|
|
Найдем источники, обладающие наибольшей |
энтропией в |
слу |
|||
чае, когда область возмокных состояний источника ограничена |
|||||
сверху и снизу. |
В этом случае |
говорят, что |
источник обладает |
ограниченной пиковой мощностью . Пусть верхняя и нижняя грани
цы области |
обозначены через Л и ё |
соответственно. Тогда |
находится |
экстремум энтропии |
|
|
6 |
|
H ( X h - J l r ( x ) & y i S ( x ) d x ;
при дополнительном ограничении
ßr(x)cCx.-i. (яа9)
'съ
ІІб
Условие экстремума ( 2 0 . 8 ) примет вид
?[- ьГ&XJ ьг] |
д[ъг] |
fajiS-faje+Aj-O. |
|
dzJ- |
Л ' дьГ - |
||
Отсюда видно, что плотность вероятности |
поотоянна. Значе |
||
ние плотности вероятности |
находим из |
(20.9). |
Получаем |
g-Q, ■
Экстремальным в данном случае является равномерный закон распределения. Величина энтропии согласно (20.4)
а
Найдем источники, обладающие максимальной энтропией, ког да на область возможных состояний ограничений нет. Задано сред неквадратичное значение параметра источника или, как говорят,
•источник обладает ограниченной средней мощностью . Определяется экстремум энтропии
При дополнительных ограничениях
где - заданная средняя мощность. Условия экстремума (20.8) примут вид
-Содъг-
Проведем ряд преобразований: |
|
|
âo(if- е) =(аі +A33üL)£rtz , |
|
|
(Л,-і-Я^хЧ6ъЛ-і |
jsjc* |
(ZOZZ) |
ъГ- е |
, |
ІІ7
где Ы, и - некоторые константы.
Для их определения проведем следующие рассуждения. Запишем плотность вероятности для нормального закона распределения
|
|
|
_ |
/ |
|
Сравнивая |
с (20.12), видим, что полученное решение |
соответству |
|||
ет нормальному закону распределения с |
нулевым математическим ожи |
||||
данием. Дисперсия закона распределения |
задана по условию задачи |
||||
и равна |
«s'* |
. Следовательно, |
при заданных условиях экстремаль |
||
ным является |
нормальный закон |
распределения |
|
||
|
|
j |
|
|
(za**) |
|
|
ы ( х , ) = е |
|
|
|
Найдем величину энтропии. Предварительно получим |
|
||||
|
|
- is p .e ° F |
■ |
(**> |
|
Подставим |
(20.13) и (20.14) в |
(20.11). |
Имеем |
|
H(X)=~Sof^^ßj-(x,)dx+4^/ х . гъГ(х)сСх.
Zoo |
- оо |
Первый интеграл равен единице, |
второй - дисперсии. Поэтому |
Для любых дискретных источников энтропия максимальна в случае равновероятных состояний. Условия максимума энтропии непрерыв ных источников зависят от вида ограничений, накладываемых на область возможных состояний источника.
Рассмотрим объединение двух непрерывных источников и
У .
Частная условная |
энтропия источника |
У при |
заданном со |
||
стоянии источника ЗС |
, равном |
, определяется |
выражением |
||
(20 .4). Только вместо |
априорной плотности |
вероятности |
следует |
||
подставить условную плотность |
вероятности іХ (у/Х і ) |
: |
п а