Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Книги по Информационным технологиям / Теория информации СГАУ (дифференциальная энтропия)

.pdf
Скачиваний:
79
Добавлен:
10.04.2015
Размер:
1.38 Mб
Скачать

6. Энтропия объединения статистически независимых множеств равна сумме энтропий исходных множеств. При установлении этого свойства исполь-

зуется свойство вероятностей независимых элементов:

p zi,vj p zi p vj .

Поскольку при этом log2 p zi,vj log2 p zi log2 p vj имеем

N K

H ZV p zi,vj log2 p zi,vj

i 1 j 1

NK

p zi p vj log2 p zi p vj

i 1 j 1

 

 

(4.10)

N

K

K

N

p zi log2

p zi p vj p vj log2

p vj p zi

i 1

 

j 1

 

j 1

i 1

H Z H(V).

1

 

1

 

 

 

Аналогично могут быть получены формулы для объединения любого числа не-

зависимых источников.

В заключение подчеркнем, что энтропия характеризует только среднюю неопределенность выбора одного элемента из множества, полностью игнорируя их содержательную сторону.

4.4Условная энтропия и её свойства

Часто имеют место связи между элементами разных множеств или между элементами одного множества. Пусть объединенный ансамбль ZV задан мат-

рицей вероятностей всех его возможных элементов zivj , i 1,N ,

j 1,K :

p(z1,v1)

p(z2,v1) ... p(zN ,v1)

 

p(z ,v )

p(z

 

,v ) ...

p(z

 

,v )

 

(4.11)

 

1 2

 

2

 

2

 

N

2

.

...

...

...

...

 

 

 

 

p(z2,vK ) ...

 

 

 

 

 

p(z1,vK )

p(zN ,vK )

 

Суммируя вероятности по строкам и столбцам (4.11) в соответствии с (4.1)

можно определить также ансамбли Z, p z и V, p v :

41

Z, p z pz1z1

V, p v pvv11

z

2

 

...

z

N

 

 

 

 

 

,

p z2

...

p zN

v2

 

...

vK

 

p v

...

p v

K

.

 

2

 

 

 

 

 

Поскольку в случае зависимых элементов

 

 

p zi,vj p zi p vj

zi p vi p zi

vj ,

(4.12)

с использованием первого из указанных в (4.12) равенств можно записать

 

H ZV p zi,vj log2 p zi,vj

 

 

 

ij

p vj zi

 

 

p zi log2 p zi

 

(4.13)

i

 

j

 

 

p zi p vj

zi log2 p vj zi .

 

 

i

j

 

 

 

По условию нормировки p vj

zi 1 для любого

i

1,N

, поэтому первое

j

 

 

 

 

слагаемое в правой части является энтропией H Z ансамбля Z, p z . Вторая сумма (по j) во втором слагаемом характеризует частную неопределенность,

приходящуюся на одно состояние ансамбля V при условии, что реализовалось состояние zi ансамбля Z . Ее называют частной условной энтропией и обозна-

чают Hzi V :

K

zi log2 p vj

zi .

 

Hzi V p vj

(4.14)

j 1

 

 

 

Величина HZ V , получаемая усреднением

частной условной энтропии по

всем элементам zi :

 

 

 

N

 

 

 

HZ V p zi Hzi V ,

 

(4.15)

i 1

 

 

 

называется полной условной энтропией или просто условной энтропией. Таким образом, (4.13) с учетом (4.14), (4.15) можно записать в виде

H ZV H Z HZ V .

(4.16)

Используя второе равенство в (4.12), по аналогии можно записать: 42

H ZV H V HV Z .

(4.17)

Можно также показать, что в случае объединения любого числа множеств

{ZVW...} с зависимыми элементами имеет место равенство

H ZVW... H Z HZ V HZV W ... .

Подчеркнем, что условная энтропия всегда меньше или равна безусловной:

HV Z H Z , HZ V H V . (4.18)

Справедливость неравенств (4.18) интуитивно понятна: неопределенность вы-

бора элемента из некоторого множества может только уменьшиться, если из-

вестен элемент другого множества, с элементами которого существует взаимо-

связь. Из (4.16)–(4.18), в частности, следует

H ZV H Z H V .

(4.19)

Полезно дать геометрическую интерпретацию соотношений (4.16)–(4.19).

На рис. 4.2 наглядно показаны различия, которые имеют место при вычислении энтропии объединенного множества в случае независимых (а) и зависимых (б)

элементов.

 

а) H Z

б) H Z

H V

HZ V

H ZV H Z H Z

H ZV H Z HZ V

Рис. 4.2 – Иллюстрация формирования энтропии объединенных ансамблей

Часто имеет место другой тип связи, а именно: статистическая зависимость между элементами последовательности. Если имеет место связь только между двумя соседними элементами последовательности, она характеризуется услов-

ной вероятностью p zi /zj . Последовательность элементов, обладающую ука-

занным свойством, называют односвязной цепью Маркова. Связь каждого эле-

43

мента с двумя предшествующими характеризуется условной вероятностью p zi /zjzk , а соответствующая последовательность называется двусвязной це-

пью Маркова.

Для односвязной цепи Маркова в предположении, что известен (принят)

элемент zj из алфавита объема N , частная условная энтропия

N

HZ /zj p zi /zj log2 p zi /zj .

i1

При этом полная (средняя) условная энтропия определяется как

N

N

 

H(Z) p zj p zi /zj log2 p zi /zj .

(4.20)

j 1

i 1

 

Аналогично для двусвязной цепи Маркова

N

H Z /zjzk p(zi /zjzk )log2 p(zi /zjzk ),

i 1

H(Z) p(zj,zk ) p(zi / zjzk )log2 p(zi /zjzk ).

(4.21)

j,k

i

 

Можно построить выражения для энтропии и при более протяженной связи между элементами последовательности.

44

Лекция 5

Меры неопределенности непрерывных случайных величин

5.1Понятие дифференциальной энтропии

Перейдем к рассмотрению источников информации, выходные сигналы которых являются непрерывной случайной величиной. Множество возможных состояний такого источника составляет континуум, а вероятность любого кон-

кретного значения равна 0, что делает невозможным применение, например,

меры (4.5). Построим меры неопределенности таких источников, опираясь на введенные ранее меры для дискретных ансамблей.

Мы можем приближенно оценить неопределенность выбора какого-либо значения непрерывной случайной величины по формуле (4.5), если ограничим диапазон ее допустимых значений и разобьем этот диапазон, например, на рав-

ные интервалы, вероятность попадания в каждый из которых отлична от нуля и определяется как

P zi Z zi

z p zi* z.

 

 

 

 

 

 

Здесь p zi* – ордината плотности распределения

p z

непрерывной случай-

ной величины при значении zi*, принадлежащем интервалу zi,zi z .

Заменяя в (4.5) p zi его приближенным значением

p zi* z имеем

 

N

 

 

i

2

 

i

 

 

 

 

 

 

H Z

 

p

p

z

 

 

 

 

 

z* zlog

 

z*

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

(5.1)

N

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p zi* log2 p zi* z log2 z p zi* z.

i 1

i 1

Далее осуществим предельный переход при z 0. При этом сумма переходит

N

в интеграл, z dz, а p(zi*) z 1. С учетом того, что в общем случае диа-

i 1

пазон изменения непрерывной случайной величины ; , получаем:

H Z

 

p z log

 

p z dz limlog

 

 

 

 

2

2

z .

(5.2)

 

 

z 0

 

 

45

Из формулы (5.2) следует, что энтропия непрерывной случайной величины равна бесконечности независимо от вида плотности вероятности. Этот факт,

вообще говоря, не является удивительным, так как вероятность конкретного значения непрерывного сигнала равна 0, а множество состояний бесконечно.

Ясно, что использовать такую меру на практике не представляется возможным.

Для получения конечной характеристики информационных свойств ис-

пользуется только первое слагаемое, называемое дифференциальной энтропи-

ей:

 

 

 

 

h Z

p z log2

p z dz.

(5.3)

 

 

 

 

Термин дифференциальная энтропия связан с тем, что для ее определения в формуле (5.3) используется дифференциальный закон распределения p z .

Возникает естественный вопрос: не является ли это соглашение искусственным и не имеющим смысла.

Оказывается, что дифференциальная энтропия имеет смысл средней неоп-

ределённости выбора случайной величины с произвольным законом распреде-

ления за вычетом неопределённости случайной величины, равномерно распре-

делённой в единичном интервале.

Действительно энтропия (5.2) равномерно распределённой на интервале случайной величины Zr определяется как

H(Z

 

)

1

log

 

1

dz limlog

 

z

.

 

 

 

 

 

r

 

 

2

z 0

2

r

 

 

 

 

 

 

 

 

 

 

 

 

 

При 1

 

 

 

 

 

 

 

 

 

 

 

H(Zr ) limlog

2 zr

 

 

 

(5.4)

 

 

z 0

 

 

 

 

 

 

 

Сравнивая (5.2) и (5.4) нетрудно заметить, что при z zr

H(Z) H(Zr ) h(z).

 

 

 

(5.5)

46

5.2Понятие дифференциальной условной энтропии

Рассмотрим теперь ситуацию, когда (далее две) непрерывные случайные величины статистически связаны. Как и ранее разобьем диапазоны допустимых значений случайных величин на равные интервалы так, что

P{z Z z

i

z, v

j

V

v

j

v} p(z*,v*) z v,

 

 

(5.6)

i

 

 

 

 

i

j

 

 

 

 

где p(zi*,v*j ) – ордината двумерной плотности распределения в точке

(zi*,v*j ),

принадлежащей

прямоугольнику

со

сторонами

z,

v: (z

i

z* z z,

 

 

 

 

 

 

 

 

 

 

 

i

i

vj v*j vj v).

Подставляя

 

приближенные значения

вероятностей

(5.6) в

формулу энтропии (4.5) получаем

 

 

 

 

 

 

 

 

H(Z,V) p(zi*,v*j )log2 p(zi*,v*j) z v

ij

log2 z p(zi*,v*j ) z v log2 v p(zi*,v*j ) z v.

i j i j

С учетом того, что

p(z*,v*) p(z*)p(v* / z*)

первое слагаемое в правой час-

 

 

 

 

i j

i

j i

 

 

ти последнего равенства можно представить в виде суммы

p(zi*)log2

p(zi*) z p(v*j

/zi*) v p(zi*,v*j )log2 p(v*j /zi*) v z.

i

 

 

 

j

 

i

j

 

Далее осуществляя предельный переход при z 0,

v 0, с учетом того,

что по условию нормировки

 

 

 

 

lim

 

p(z*,v*) z v 1,

 

 

 

 

z 0

i

j

 

 

 

 

v 0

i

j

 

 

 

 

 

 

lim

p(v*j

/zi*) v 1,

 

 

 

 

v 0

i

j

 

 

 

 

 

 

 

 

 

 

 

 

 

lim

p(zi*) z 1,

 

 

 

 

z 0

i

j

 

 

 

 

 

 

 

 

 

 

 

 

 

получаем

H(Z,V) p(z)log2

p(z)dz p(z,v)log2

p(v/ z)dzdv

 

 

 

 

 

(5.7)

limlog

2

z

limlog

2 v.

 

z 0

 

 

v 0

 

 

47

Первое и третье слагаемое – суть энтропия H(Z) непрерывного источника

(5.2), выходным сигналом которого является случайная величина Z , а величина

H

Z

(V)

 

 

p(z,v)log

2

p(v z)dzdv limlog

2

v

(5.8)

 

 

 

v 0

 

 

является условной энтропией непрерывной случайной величины. Она, как и следовало ожидать, в силу второго слагаемого в правой части равна бесконеч-

ности. Поэтому, как и в случае одного независимого источника, принимают во внимание только первое слагаемое:

 

p(z,v)

 

 

hZ (V) p(z,v)log2

dzdv.

(5.9)

 

 

p(z)

 

Величину (5.9) называют условной дифференциальной энтропией.

Условная дифференциальная энтропия характеризует среднюю неопреде-

ленность выбора непрерывной случайной величины с произвольным законом распределения при условии, что известны результаты реализации другой, ста-

тистически связанной с ней непрерывной случайной величины, за вычетом средней неопределенности выбора случайной величины, имеющей равномерное распределение на единичном интервале.

Сопоставляя (5.2), (5.3), (5.7), (5.8), (5.9) дифференциальную энтропию двух непрерывных статистически связанных источников можно представить в виде

 

h(ZV) h(Z) hZ (V) h(V) hV (Z).

(5.10)

Второе равенство

в (5.10) получается по той же схеме, что и

первое,

при

p(z*,v*) p(v*)p(z* /v*). Заметим также, что в соответствии с (5.7), (5.8)

для

i j

j

i j

 

 

непрерывных источников можно выписать равенства, аналогичные (4.16) и (4.18) для дискретных сообщений: H(ZV) H(Z) HZ (V) H(V) HV (Z), од-

нако они имеют лишь теоретическое значение, поскольку оперировать на прак-

тике с бесконечными неопределенностями не представляется возможным.

48

5.3Свойства дифференциальной энтропии

Дифференциальная энтропия в отличие от энтропии дискретного источни-

ка является относительной мерой неопределенности, т.к. её значения зависят от масштаба непрерывной величины. Действительно, предположим, что непре-

рывная случайная величина Z изменилась в k раз. Поскольку всегда должно выполняться условие нормировки:

 

 

p(kz)d(kz) k p(kz)dz 1,

 

 

имеет место следующее соотношение для плотностей исходной и масштабиро-

ванной величин

p kz p z . k

С учетом (5.11) в соответствии с (5.3) имеем

h(kZ) p(kz) log2 p(kz) d(kz)

 

 

 

 

p(z) log2

p(z) log2 k dz

 

 

 

 

 

 

 

 

p(z)log2

p(z)dz log2 k p(z)dz h(Z) log2 k.

 

 

 

(5.11)

(5.12)

Из (5.12) следует, что из-за выбора различных k дифференциальная энтропия может принимать положительные, отрицательные и нулевые значения.

Дифференциальная энтропия не зависит от параметра сдвига Const ,

т.е. h Z h Z . Действительно, используя замену V Z , при которой пределы интегрирования не изменяются, а dz dv имеем:

h(Z ) p(z )log2

p(z )dz

 

 

(5.13)

 

 

p(v)dv h V .

p(v)log2

 

 

 

49

5.4Распределения, обладающие максимальной

дифференциальной энтропией

Сформулируем следующую задачу. Определить плотность p(z), обеспечи-

вающую максимальное значение функционала

h(Z) p(z)log2 p(z)dz,

(5.14)

 

 

при ограничении

 

 

 

p(z)dz 1.

(5.15)

 

 

Функция Лагранжа в указанной (изопериметрической) задаче имеет вид

F(p, ) p(z)log2 p(z) p(z),

(5.16)

где , в данном случае постоянный, неопределенный множитель Лагранжа.

Необходимые условия экстремума (5.16) даются соотношением

 

F(p, )

log

2 p(z) log2 e 0.

(5.17)

 

 

 

p

 

 

 

Искомая плотность p(z) 1 ,

z получается в результате совме-

стного решения (5.15), (5.17). Это означает, что если единственным ограниче-

нием для

случайной величины является область возможных значений:

Z , ,

то максимальной дифференциальной энтропией обладает равномер-

ное распределение вероятностей в этой области.

Снимем теперь ограничение на область возможных значений, но добавим

ограничение на величину дисперсии:

h(Z) p(z)log2

p(z)dz мах,

(5.18)

 

 

 

 

при

 

 

 

 

 

 

 

 

p(z)dz 1,

 

(5.19)

 

 

 

 

 

 

 

 

z2 p(z)dz 2 .

 

(5.20)

 

 

 

 

50