Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Книга ТЭС_испр.docx
Скачиваний:
229
Добавлен:
26.11.2019
Размер:
10.01 Mб
Скачать

10.7. Взаимная информация источников сообщений

На рисунке 10.3 показана (условно) собственная энтропия и , условные энтропии и и совместная энтропия . Из этого рисунка, в частности, следуют соотношения (10.18) и (10.19).

Рисунок 10.3. Графическое представление собственных условных, совместных и взаимной энтропий

Заштрихованная часть рисунка называется взаимной информацией . Она показывает, какое в среднем количество информации содержит сообщение о сообщении (или наоборот). Как следует из рис. 10.3:

Рисунок 10.4. Графическое представление влияния потерь при передаче и приеме информации

Если сообщения и полностью независимы, то взаимная информация отсутствует и .

Если сообщения и полностью зависимы ( и содержат одну и ту же информацию), то .

Понятие взаимной информации очень широко используется в теории передачи информации. Требования к взаимной информации различны в зависимости от того, с какой информацией мы имеем дело. Например, если и – это сообщения, публикуемые различными газетами, то для получения возможно большей суммарной (совместной) информации взаимная (т.е. одинаковая в данном случае) информация должна быть минимальной. Если же и – это сообщения на входе и на выходе канала связи с помехами, то для получения возможно большей информации ее получателем необходимо, чтобы взаимная информация была наибольшей. Тогда условная энтропия – это потери информации в канале связи (надежность канала).

– энтропия шума (помех), равная , т.е. .

10.8. Скорость передачи и пропускная способность канала связи

В дискретной системе связи при отсутствии помех информация на выходе канала связи (канала, передающего информацию) полностью совпадает с информацией на его входе, поэтому скорость передачи информации численно равна производительности источника сообщений:

При наличии помех количество информации на выходе канала оказывается меньше, чем производительность источника. Одновременно в сообщении на выходе канала добавляется информация о помехах (рисунок 10.4).

Рисунок 10.4. Влияние помех при передаче информации

Поэтому при наличии помех необходимо учитывать на выходе канала не всю информацию, даваемую источником, а только взаимную информацию.

На основании формулы (10.21) имеем:

или

где – производительность источника,

– «ненадежность» канала (потери) в ед. времени,

– энтропия выходного сообщения в ед. времени,

– энтропия помех (шума) в ед. времени.

Пропускной способностью канала связи (канала передачи информации) называется максимально возможная скорость передачи информации по каналу:

Для достижения максимума учитываются все возможные источники на входе и все возможные способы кодирования.

Таким образом, пропускная способность канала связи равна максимальной производительности источника на входе канала, полностью согласованного с характеристиками этого канала, за вычетом потерь информации в канале из-за помех.

В канале без помех , т.к . При использовании равномерного кода с основанием , состоящего из элементов, длительностью , в канале без помех:

– длительность элемента.

При бит/с.

Для эффективного использования пропускной способности канала необходимо его согласование с источником информации на входе. Такое согласование возможно как для каналов без помех, так и для каналов связи с помехами на основании двух теорем, доказанных К.Шенноном.

Первая теорема (для канала связи без помех):

Если источник сообщений имеет энтропию (бит на символ), а канал связи – пропускную способность (бит в секунду), то можно закодировать сообщение таким образом, чтобы передавать информацию по каналу со средней скоростью, сколь угодно близкой к величине , но не превзойти ее.

К.Шеннон предложил и метод такого кодирования, который получил название статического или оптимального кодирования. В дальнейшем идея такого кодирования была развита в работах Фано и Хаффмана и в настоящее время широко используется на практике для «сжатия сообщений».

Вторая теорема (для каналов связи с помехами):

Если пропускная способность канала равна , а производительность источника , то путем соответствующего кодирования можно передавать информацию по каналу связи со скоростью, сколь угодно близкой к , и с вероятностью ошибки, сколь угодно близкой к нулю. При такая передача невозможна.

К сожалению, теорема К.Шеннона для канала связи с шумом (помехами) указывает только на возможность такого кодирования, но не указывает способа построения соответствующего кода. Однако известно, что при приближению к пределу, устанавливаемому Теоремой Шеннона, резко возрастает время запаздывания сигнала в устройствах кодирования и декодирования из-за увеличения длины кодового слова . При этом вероятность эквивалентной ошибки на выходе канала стремится к величине

Очевидно, что , когда и , и, следовательно, имеет место «обмен» вероятности ошибки на скорость и задержку передачи.