
- •1. Понятие информации
- •1.1. Предмет, место и роль теории информации и передачи сигналов
- •1.2. Предмет и метод теории информации
- •1.3. Этапы обращения информации
- •1.4. Типовая структурная схема информационной системы. Разновидности информационных систем
- •1.5. Виды информации
- •1.6. Структура информации
- •1.7. Устранение избыточности информации
- •2. Измерение информации
- •2.1. Структурные меры информации
- •2.1.1. Геометрическая мера
- •2.1.2. Комбинаторная мера
- •2.1.3. Аддитивная мера информации
- •2.2. Статистические меры информации
- •2.2.1. Вероятность и информация
- •Двоичные однопредметные явления
- •Двоичные двухпредметные явления
- •Понятие энтропии
- •Энтропия ансамбля
- •Энтропия объединения
- •Количество информации и избыточность
- •2.3. Семантические меры информации
- •2.4. Другие меры полезности информации
- •2.4.1. Энтропия, шум и тезаурус
- •3. Информационные характеристики источника сообщений и канала связи
- •3.1. Основные понятия и определения
- •3.2. Информационные характеристики источника дискретных сообщений
- •3.2.1. Модели источника дискретных сообщений
- •3.2.2. Свойства эргодических последовательностей знаков
- •3.2.3. Избыточность
- •3.2.4. Производительность источника дискретных сообщений
- •3.3. Информационные характеристики дискретных каналов связи
- •3.3.1. Модели дискретных каналов
- •3.3.2. Скорость передачи информации по дискретному каналу
- •3.3.3. Пропускная способность дискретного канала без помех
- •3.3.4. Основная теорема Шеннона о кодировании для дискретного канала без помех
- •3.3.5. Пропускная способность дискретного канала с помехами
- •3.3.6. Основная теорема Шеннона о кодировании для дискретного канала с помехами
- •3.4. Информационные характеристики источника непрерывных сообщений
- •3.5. Информационные характеристики непрерывных каналов связи
- •3.5.1. Модели непрерывных каналов связи
- •3.5.2. Скорость передачи информации по непрерывному каналу
Энтропия объединения
Объединением называется совокупность двух и более взаимозависимых ансамблей дискретных случайных переменных.
Рассмотрим объединение, состоящее из двух ансамблей XиY, например, из двух дискретных измеряемых величин, связанных между собой вероятностными зависимостями.
Схема ансамбля X:
x1 x2 … xi … xn;
p(x1) p(x2) … p(xi) … p(xn). (15)
Схема ансамбля Y:
y1 y2 … yi … ym;
p(y1) p(y2) … p(yi) … p(ym). (16)
Схема объединения XиY:
x1 x2 … xn
y1 p(x1, y1) p(x2, y1) … p(xn, y1); (17)
y2 p(x1, y2) p(x2, y2) … p(xn, y2);
……………………………….
ym p(x1, ym) p(x2, ym) … p(xn, ym).
Вероятность произведения (совпадения) совместных зависимых событий XиYравна произведению безусловной вероятностиp(x) илиp(y) на условные вероятностиp(y|x) илиp(x|y).
Таким образом, имеем:
p(x,y) =p(x)p(y|x) =p(y)p(x|y). (18)
Отсюда находятся условные вероятности
p(y|x) =
; (19)
p(x|y) =
(20)
в зависимости от того, какое событие является причиной, а какое – следствием.
В рассмотренном случае дискретных переменных XиYчастные условные вероятности могут быть записаны для х=хккак
p(y1|xk)
=
;
p(y2|xk)
=
; (21)
p(ym|xk)
=
. (22)
С объединением связаны понятия безусловной, условной и взаимной энтропии (ниже см. табл.2.1). Их иногда также называют зависимой, коррелированной и взаимной энтропией, или трансинформацией.
Энтропия объединения
Таблица 2.1
Наименование |
Обозначе-ние |
Соотношения |
Диаграмма |
энтропия |
H(X)
H(Y) |
H(X) H(X) = H(X|Y) + + H(X*Y) H(Y) H(Y) = H(Y|X) + + H(X*Y) |
X Y
X Y |
энтропия |
H(X|Y)
H(Y|X) |
H(X|Y) = H(X) – - H(X*Y)
H(Y|X) = H(Y) – H(X*Y) |
X Y
X Y |
Продолжение табл. 2.1
энтропия |
H(X,Y) = = H(Y, X) |
H(X, Y) = H(X) + + H(Y|X) = H(Y) + + H(X|Y) = H(X) + + H(Y) – H(X*Y) |
XY |
энтропия |
H(X*Y) = = H(Y*X) |
H(X*Y) = H(X) – - H(X|Y) = H(Y) – H(Y|X) = H(X,Y) – - H(X|Y) – H(Y|X) |
|
Последовательность символов х1, х2, …, хi, …, xn, создаваемая источником, может претерпевать искажения по пути к приемнику.
Символ хiможет быть принят не только как однозначно ему соответствующий символyi, но и как любой из возможных символовy1, y2, …, yj, …,ym с соответствующими вероятностями.
Различные виды энтропии имеют следующий смысл:
H(X) –безусловная энтропия источника, или среднее количество информации на символ, выдаваемое источником;
H(Y) –безусловная энтропия приемника, или среднее количество информации на символ, получаемое приемником;
H(X,Y)– взаимная энтропиясистемы передачи – приема в целом, или средняя информация на пару (переданного и принятого) символов;
H(Y|X) – условная энтропия Y относительно Х, или мера количества информации в приемнике, когда известно, что передается Х;
H(Х|Y) –условная энтропияХ относительноY, или мера количества информации об источнике, когда известно, что принимаетсяY.
Если в системе нет потерь и искажений, то условные энтропии равны нулю, а количество взаимной информации равно энтропии либо источника, либо приемника.
На основании статистических данных могут быть установлены вероятности событий у1, у2, …, уmпри условии, что имели место события хi, а именноp(y1|xi),p(y2|xi), …,p(ym|xi). Тогда частная энтропия будет равна:
. (23)
Далее нужно подсчитать среднее значение H(Y|xi) для всех переданных символов х. Это будет условная энтропия канала
. (24)
Аналогично получается условная энтропия H(X|Y), учитывающая условные вероятностиp(xi|yj):
. (25)
Безусловная энтропия ансамбля Х
. (26)
Безусловная энтропия ансамбля Y
. (27)