Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
98
Добавлен:
02.05.2014
Размер:
4.88 Mб
Скачать

3.1.3.1 Взаимная информация двух ансамблей

Справа в выражении Ii (j) = log{[pij]/[pj pi]} мы имеем симметричную относительно индексов i и j дробь, что означает её независимость от переста- новки этих символов и такую же независимость формулы, вообще. Это, в свою очередь означает Ii(j) = log{[pij]/[pj pi]} =Ij(i) или Ii(j) =Ij(i). В

упрощённой, независимой от роли (смысла) символа, форме это можно представить так: I (ij) =I (ji).

Этот интересный в теоретическом плане результат, означает, что в символе yj одного ансамбля содержится столько же информации о символе xi другого ансамбля и наоборот. Потому и называется эта информация взаимной.

Применительно к каналу это выглядит равенством вероятности принять символ yj при передаче символа xi и вероятности того, передавался символ xi, если был при принят символ yj. Следовательно, pj(i) = pi (j) .

В практическом плане больший интерес представляют не такие вот «индивидуальные» для каждого символа показатели, а характеристики канала в целом. Такие характеристики можно получить известными методами усреднения – методами оценки математического ожидания на множестве таких «индивидуальных» показателей. В нашем случае речь идёт о множестве возможных сочетаний мощностью iхj.

В соответствии с правилами нахождения математического ожидания, производим суммирование по двум индексам – по всем возможным сочетаниям i и j.

Ii(j) = log{[pij]/[pj pi]} = log[pij] – logpj log pi] =

(учитываем, что logpij = logpi+ logpj(i), ибо pij = pi pj (i), что

тоже учитываем в первом же слагаемом)

= pi pj (i)logpj (i) + logpi logpi logpj =

(далее учитываем = pi и обозначим:hj(i)= pj (i)logpj(i)

= pihj(i) pjlogpj = Н(j) Нi(j). Здесь учено ещё, что

Н(j) = –pj logpjи впервые обозначено

Нi(j) = pipj (i)logpj (i). (III. 3)

Таким образом, мы получили выражение для оценки количества взаимной информации во взаимосвязанных исходных ансамблях, которое применительно к каналу позволяет вычислить среднее количество информации, проходящей через канал помехами с каждым поданным на его вход символом исходного алфавита:

I(ij) = I(ji) =Ii(j) = Н(j) Нi(j). (III. 4)

3.1.3.2 Условная энтропия дискретных ансамблей

Применительно к абстрактным объёдинениям ансамблей типа {xiyj} величина I (ij) =I(ji) = Н(j) Нi(j) называется взаимной информацией двух исходных ансамблей друг относительно друга. Величина Нi(j) (нам она до сих пор не встречалась) представляет собой усреднённую на всём множестве парных сочетаний типа (xiyj)k, частную энтропию hj(i)= pj(i)logpj(i), которая сама по себе (ещё не усреднённая) характеризует разнообразие по индексу j подмножества таких сочетаний с одинаковым индексом i.

Усреднённая частная энтропия Нi(j) = pj(i)logpj(i) уже не является характеристикой такого подмножества, она теперь является характеристикой объёдинённого ансамбля типа {xiyj} в целом (множества возможных сочетаний типа (xiyj)k). Называется эта новая характеристика условной энтропией объединённого ансамбля. У объединённого ансамбля таких параметров столько же, сколько исходных ансамблей он в себя вобрал.

В данном случае существует ещё Нj(i) = pj pi(j)logpi(j)

(наряду с Нi(j)=pipj(i)logpj(i)), выражение для которой можно получить только что продемонстрированным способом из того же самого симметричного соотношения Ii(j) =log{[pij]/[pj pi]}, заменив в самом начале не произведением pij = pi pj(i), а равноценным ему: pij = pj pi (j).

В итоге можно получить соотношение:

I (ij) = Н(i) Н j(i). (III. 5)

Существование пары соотношений:

I (ij) = Н(i) Н j(i) и I (ji) = Н(j) Нi(j) позволяет при расчетах, когда это полезно, заменять одно такое выражение другим.

Далее внимательно приглядимся к выражению для условной энтропии, например Нi(j) = pipj (i)logpj (i)

Если возвратиться к соотношениям:

pij = pi pj (i), и logpj (i) = logpij logpi , то

Нi(j) = pij log pij +pij logpi. Учитываем, что

pij = pi и pijlogpi =pilogpi = Н(i), а pijlogpij = Н(ij).

Окончательно имеем: Нi(j) = Н(ij) Н(i). (III. 6)

Начав аналогичные преобразования с Нj(i), мы могли бы получить.

Нj(i) = Н(ij) Н(j). (III. 7)

Оба эти соотношения могут быть представлены в другой форме:

Н(ij) = Нj(i) + Н(j) (III. 8)

и Н(ij) = Нi(j) + Н(i). (III. 9)

Сопоставим это с полученным выше неравенством Н(ij)Н(i)+Н(j), например, отнимем (столбиком) от него поочерёдно каждое их этих соотношений.

Н(ij)Н(i) + Н(j). Н(ij)Н(i) + Н(j).

– [Н(ij) = Н(j)+ Н j(i)]. [Н(ij) = Нi(j) + Н(i) ]

=0 Н(i) Н j(i) = 0 Н(j) Нi(j)

Н(i) Н j(i) Н(j) Нi(j)

Совместно с выражениями I(ij)= Н(i) Нj(i) и I(ji)=Н(j)Нi(j), представленные неравенства говорят о том,

- что источником взаимной информации являются разнообразия исходных ансамблей и связи между их;

- что при отсутствии взаимных связей между элементами исходных

ансамблей (когда Н(ij)=Н(i) + Н(j) и Н(i) = Н j(i) – никакой взаимной информации быть не может, ибо

I (ji) = Н(j) Нi(j) = Н(i) Н j(i) = I (ji) =0;

- что с появлением и постепенным ростом упомянутых выше взаимных связей количество информации в каждом элементе одного ансамбля об определённом элементе другого ансамбля возрастает.

В применении к каналу всё сказанное легко интерпретируется и означает:

- что в какой-то момент времени помехи в канале велики на столько, что ансамбль символов на выходе абсолютно не реагирует на репертуар входа (Н(j) Нi(j)), и выходной репертуар полностью определяется самим каналом,

- что количественной мерой этого исходного разнообразия оказывается условная энтропия Нi(j));

  • что с уменьшением уровня помех некоторые входные символы

проходят канал без искажений (появляется

I (ji) = Н(j) Нi(j) = Н(i) Н j(i) = I (ji), которая вносит в репертуар

на выходе большую долю определённости)

- что с резким уменьшением помех ансамбль выходных символов канала все больше и больше становится похожим на ансамбль входных символов, а (I(ji) растёт, приближается к энтропии входного ансамбля Н(i) и репертуар выхода начинает дублировать репертуар входа).

Соседние файлы в папке Методичка по теории информации