- •Глава 6
- •6.2. Энтропия источника дискретных сообщений
- •1. Энтропия источника независимых сообщений
- •2. Энтропия источника зависимых сообщений
- •6.3. Избыточность источника сообщений
- •6.4. Статистические свойства источников сообщений
- •6.5. Скорость передачи информации и пропускная способность дискретного канала без помех
- •6.6. Оптимальное статистическое кодирование сообщений
- •6.7. Скорость передачи информации и пропускная способность дискретных каналов с помехами
- •6.8. Теорема Шеннона для дискретного канала с помехами
- •6.9. Энтропия непрерывных сообщений
- •6.10. Скорость передачи
- •И пропускная способность
- •Непрерывного канала.
- •Формула Шеннона
- •6.11. Эффективность систем передачи информации
6.6. Оптимальное статистическое кодирование сообщений
Для
дискретных каналов без помех Шенноном
была доказана
следующая теорема: если
производительность источника
,где
-
сколь угодно малая величина, то всегда
существует способ кодирования, позволяющий
передавать по каналу все сообщения
источника. Передачу всех сообщений при
осуществить невозможно.
Смысл теоремы
сводится к тому, что как бы ни была велика
избыточность источника, все его сообщения
могут быть переданы по каналу, если
.
Обратное утверждение легко доказывается
от противного. Допустим,
,
но для передачи всех сообщений источника
по каналу необходимо, чтобы скорость
передачи информации R
была не
меньше
.
Тогда имеем
,
что невозможно, т.к. по определению,
пропускная способность
.
Для рационального использования пропускной способности канала необходимо применять соответствующие способы кодирования сообщений. Статистическим, или оптимальным, называется кодирование, при котором наилучшим образом используется пропускная способность канала без помех. При оптимальном кодировании фактическая скорость передачи информации по каналу R приближается к пропускной способности С, что достигается путем согласования источника с каналом. Сообщения источника кодируются таким образом, чтобы они в наибольшей степени соответствовали ограничениям, которые накладываются на сигналы, передаваемые по каналу связи. Поэтому структура оптимального кода зависит как от статистических характеристик источника, так и от особенностей канала.
Рассмотрим основные принципы оптимального кодирования на примере источника независимых сообщений, который необходимо согласовать с двоичным каналом без помех. При этих условиях процесс кодирования заключается в преобразовании сообщений источника в двоичные кодовые комбинации. Поскольку имеет место однозначное соответствие между сообщениями источника и комбинациями кода, то энтропия кодовых комбинаций равна энтропии источника:
(6.29)
а скорость передачи в канале определяется на основании (6.23) отношением:
(6.30)
Здесь
– средняя длительность кодовой
комбинации, которая в общем случае
неравномерного кода записывается по
аналогии с выражением (6.20) как:
(6.31)
где
- длительность одного элемента кода и
-
числоэлементов
в комбинации, присваиваемой сообщению
.
Подстановка в формулу (6.30) выражений (6.10) и (6.31) приводит к соотношению:
(6.32)
в
котором числитель определяется
исключительно статистическими
свойствами источника, а величина τ0
—
характеристиками
канала. При
этом возникает вопрос: можно ли так
закодировать
сообщение, чтобы скорость передачи
(6.32) достигала
своего максимального значения, равного
пропускной
способности двоичного канала
.
Легко
заметить, что условие выполняется, если:
(6.33)
что соответствует
минимуму
и максимуму R.
Очевидно,
выбор
не имеет
смысла R>C,
что противоречит вышедоказанному
утверждению теоремы Шеннона.
Одним
из кодов, удовлетворяющих условию
(6.33), является
код
Шеннона-Фано. Для
ознакомления с принципами его построения
рассмотрим в качестве примера источник
сообщений, вырабатывающий четыре
сообщения
и
с
вероятностями:
![]()
Все
сообщения выписываются в кодовую таблицу
(табл. 6.1) в порядке убывания их вероятностей.
Затем они разделяются на две группы
так, чтобы суммы их вероятностей по
возможности были одинаковыми. В данном
примере в первую группу входит сообщение
с
вероятностью и во вторую
а
во вторую сообщения
,
с суммарной вероятностью также равной
0,5.
Таблица 6.1

Комбинациям, которые соответствуют сообщениям первой группы, присваивается в качестве первого символа кода — 0, а комбинациям второй группы — 1. Каждая из двух групп опять делится на две группы с применением того же правила присвоения символов 0 и 1. В идеальном случае после первого деления вероятности каждой группы должны быть равны 0,5 после второго деления — 0,25 и т. д. Процесс деления продолжается до тех пор, пока в группах не останется по одному сообщению.
При заданном распределении вероятностей сообщений код получается неравномерным, его комбинации имеют различное число элементов ni Причем, как нетрудно заметить, такой способ кодирования обеспечивает выполнение условия (6.33) полностью для всех сообщений.
В неравномерных кодах при декодировании возникает трудность в определении границ между комбинациями. Для устранения возможных ошибок обычно применяются специальные разделительные знаки. Так, в коде Морзе между буквами передается разделительный знак в виде паузы длительностью в одно тире. Передача разделительных знаков занимает дополнительное время, что снижает скорость передачи информации.
Важным свойством кода Шеннона-Фано является то, что, несмотря на его неравномерность, здесь не требуются разделительные знаки. Это обусловлено тем, что короткие комбинации не являются началом более длинных. Указанное свойство легко проверить на примере любой последовательности:
![]()
![]()
![]()
![]()
![]()
![]()
![]()
Таким образом, все элементы закодированного сообщения несут полезную информацию, что при выполнении условия (6.33) позволяет получить максимальную скорость передачи. Она может быть найдена путем непосредственного вычисления по формуле (6.32):
:
(6.34)
Для сравнения
рассмотрим кодирование тех же четырех
сообщений
с применением обычного равномерного
двоичного кода. Количество комбинаций
при этом определяется выражением
,
где n—
число элементов в комбинации. Так как
,
то
,
а длительность каждой комбинации —
.
Производя вычисления по аналогии с
(6.34), получим:
![]()
Пропускная способность в этом случае используется только частично. Из выражения (6.33) вытекает основной принцип оптимального кодирования. Он сводится к тому, что наиболее вероятным сообщениям должны присваиваться более короткие комбинации, а сообщениям с малой вероятностью — более длинные комбинации.
Одним
из способов оптимального кодирования
зависимых сообщений
является применение так называемых
"скользящих"
кодов,
основная идея которых состоит в том,
что присвоение
кодовых комбинаций по правилу Шеннона-Фано
производится
с учетом условных, а не априорных
вероятностей сообщений.
Число элементов в кодовой комбинации
выбирается как
т.е. текущему сообщениюприсваивается
та или иная комбинация в зависимости
от того, какие
сообщения ему предшествовали.
Необходимо подчеркнуть, что при оптимальном способе кодирования в сигналах, передающих сообщения источника, совершенно отсутствует какая-либо избыточность. Устранение избыточности приводит к тому, что процесс декодирования становится весьма чувствительным к воздействию помех. Это особенно сильно проявляется при оптимальном кодировании зависимых сообщений. Например, в "скользящих" кодах одна-единственная ошибка может вызывать неправильное декодирование всех последующих сигналов. Поэтому оптимальные коды применимы только для каналов, в которых влияние помех незначительно.
