Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория_информации.doc
Скачиваний:
71
Добавлен:
09.11.2019
Размер:
5.12 Mб
Скачать

3.2. Эффективное кодирование

Целью эффективного кодирования является устранение избыточности сообщений, поскольку избыточные сообщения требуют большего времени для передачи и большего объема памяти для хранения.

Очевидно, что для уменьшения избыточности кодовых комбинаций, кодирующих символы сообщений, необходимо выбирать максимально короткие кодовые комбинации. Однако для полного устранения избыточности этого недостаточно. При кодировании необходимо учитывать вероятности появления каждого символа в сообщениях и наиболее вероятным символам сопоставлять короткие кодовые комбинации, а наименее вероятным - более длинные.

В качестве иллюстрации - простой пример. Пусть сообщение может состоять из двух слов. Длина первого - один кодовый символ, второго - три кодовых символа. Вероятности появления слов в сообщении соответственно 0,1 и 0,9. Тогда статистически средняя длина слова в сообщении 1*0,1 + 3*0,9 = 2,8 символа. Если слова будут иметь другие вероятности, например, 0,9 и 0,1, то средняя длина слова составит 1*0,9 + 3*0,1 = 1,2 символа. Отсюда видно, что длина кодовой комбинации должна выбираться в зависимости от вероятности появления кодируемого этой комбинацией символа сообщения. Чем чаще он появляется, т.е. чем больше его вероятность, тем более короткую кодовую комбинацию ему следует сопоставить.

Формализуем задачу эффективного кодирования. Пусть входным алфавитом кодирующего отображения является множество сообщений . Пусть выходным алфавитом кодирующего отображения будет множество В , число элементов которого равно m .Кодирующее отображение сопоставляет каждому сообщению аi кодовую комбинацию, составленную из ni символов алфавита В . Требуется оценить минимальную среднюю длину кодовой комбинации. Сравнивая ее со средней длиной кодовой комбинации, вычисленной для какого-либо конкретного кода, можно оценить, насколько данный конкретный код находится близко к эффективному, т.е. безизбыточному коду.

Энтропия сообщения А по определению (2.3)

. (3.4)

Средняя длина кодовой комбинации

, (3.5)

где ni - длина кодовой комбинации, сопоставленной сообщению аi. Максимальная энтропия, которую может иметь сообщение из nСР символов алфавита В, число элементов которого равно m , равна в соответствии с (2.4)

. (3.6)

Очевидно, что для обеспечения передачи информации, содержащейся в сообщении А, с помощью кодовых комбинаций алфавита В должно выполняться неравенство

(3.7)

или с учетом (3.6) или с учетом (3.4)

. (3.8)

При строгом неравенстве (3.7) закодированное сообщение обладает избыточностью, т.е. для кодирования используется больше символов, чем это минимально необходимо. Для числовой оценки избыточности в предыдущей главе использовался коэффициент избыточности

. (3.9)

Поскольку из (3.6) и (3.7) следует, что , то ясно, что

. (3.10)

Тогда формулу (3.9) для коэффициента избыточности для кода можно переписать в следующем виде

. (3.11)

Под эффективным кодом понимается код, К которого равен 0, т.е. для абсолютно эффективных кодов . Тогда и неравенство (3.8) переходит в равенство , откуда .

Предположив очевидное, что А не содержит элементов с p(ai) = 0, получим

(3.12)

для всех i. Но отношение (3.12) не всегда дает целочисленный результат. Следовательно, не для любого набора А с заданным распределением вероятностей p(ai) можно построить абсолютно эффективный код с К = 0. Тем не менее, всегда можно обеспечить выполнение неравенства , умножая которое на p(ai) и суммируя по i , получим

. (3.13)

Неравенство (3.13) может служить критерием для оценки эффективности какого-либо конкретного кода.

Для построения эффективных кодов используются различные алгоритмы. Одним из них является код Шеннона - Фано. Код Шеннона - Фано строится следующим образом. Символы алфавита источника выписываются в порядке убывания их вероятностей. Затем вся совокупность разделяется на две группы так, чтобы суммы вероятностей в каждой из групп были по возможности одинаковыми. Далее всем символам одной группы в качестве первого кодового символа приписывается 1, а другой группы - 0. Далее каждая из полученных групп в свою очередь разбивается на две подгруппы с одинаковыми суммарными вероятностями и т.д. Процесс повторяется до тех пор, пока в каждой группе останется по одному символу.

Пример 3.3. Закодировать двоичным кодом Шеннона - Фано ансамбль {ai} (i=1,2,...,8), если вероятности pi символов ai имеют следующие значения

ai

a1

a2

a3

a4

a5

a6

a7

a8

pi

0,25

0,25

0,125

0,125

0,0625

0,0625

0,0625

0,0625

Найти среднее число символов в кодовой комбинации и коэффициент избыточности кода.

Решение.

ai

pi

кодовая комбинация

ni

pini

H(ai)

a1

0,25

11

2

0,5

0,5

a2

0,25

10

2

0,5

0,5

a3

0,125

011

3

0,375

0,375

a4

0,125

010

3

0,375

0,375

a5

0,0625

0011

4

0,25

0,25

a6

0,0625

0010

4

0,25

0,25

a7

0,0625

0001

4

0,25

0,25

a8

0,0625

0000

4

0,25

0,25

По формуле (3.5) , по формуле (3.4) , тогда по формуле (3.10) и по формуле (3.11) , таким образом, построен абсолютно эффективный код.

Алгоритм кодирования Шеннона - Фано имеет простую графическую иллюстрацию в виде графа, называемого кодовым деревом. Граф для кода Шеннона - Фано строится следующим образом. Из нижней или корневой вершины графа исходят два ребра, одно из которых помечается символом 0, а другое – 1. Эти два ребра соответствуют разбиению множества символов алфавита источника на две примерно равновероятные группы, одной из которых сопоставляется кодовый символ 0, а другой – 1. Ребра, исходящие из вершин следующего уровня, соответствуют разбиению получившихся групп на равновероятные подгруппы и т.д. Построение графа заканчивается, когда множество символов алфавита источника будет разбито на одноэлементные подмножества. Каждая концевая вершина графа, т.е. вершина, из которой уже не исходят ребра, соответствует некоторой кодовой комбинации. Чтобы сформировать эту комбинацию, надо пройти путь от корневой вершины до соответствующей концевой, выписывая в порядке следования по этому пути кодовые символы с ребер пути.

Рассмотренная методика Шеннона - Фано не всегда приводит к однозначному построению кода, поскольку в зависимости от вероятностей отдельных символов можно несколькими способами осуществить разбиение на группы.

Пример 3.4. Закодировать двоичным кодом Шеннона - Фано ансамбль {ai} (i=1,2,...,8), если вероятности pi символов ai имеют следующие значения

ai

a1

a2

a3

a4

a5

a6

a7

a8

pi

0,22

0,20

0,16

0,16

0,10

0,10

0,04

0,02

Найти коэффициент избыточности кода.

Решение.1

ai

pi

кодовая комбинация

ni

pini

H(ai)

a1

0,22

11

2

0,44

0,4806

a2

0,20

101

3

0,6

0,4643

a3

0,16

100

3

0,48

0,4230

a4

0,16

01

2

0,32

0,4230

a5

0,10

001

3

0,30

0,3322

a6

0,10

0001

4

0,40

0,3322

a7

0,04

00001

5

0,20

0,1857

a8

0,02

00000

5

0,10

0,1129

По формуле (3.5)

,

по формуле (3.4)

,

тогда по формуле (3.10)

и по формуле (3.11)

.

Решение.2

ai

pi

кодовая комбинация

ni

pini

H(ai)

a1

0,22

11

2

0,44

0,4806

a2

0,20

10

2

0,40

0,4643

a3

0,16

011

3

0,48

0,4230

a4

0,16

010

3

0,48

0,4230

a5

0,10

001

3

0,30

0,3322

a6

0,10

0001

4

0,40

0,3322

a7

0,04

00001

5

0,20

0,1857

a8

0,02

00000

5

0,10

0,1129

По формуле (3.5) , по формуле (3.4) , тогда по формуле (3.10) и по формуле (3.11) , т.е. второй вариант решения ближе к оптимальному, поскольку обеспечивает меньший коэффициент избыточности.

От данной неоднозначности построения эффективного кода свободен код Хаффмена. Для двоичного кода методика Хаффмена сводится к следующему. Символы алфавита источника выписываются в основной столбец таблицы в порядке убывания вероятностей. Далее два последних символа объединяются в один вспомогательный с вероятностью, равной сумме вероятностей объединяемых символов. Вероятности символов, не участвовавших в объединении, и полученная суммарная вероятность снова располагаются в порядке убывания в дополнительном столбце таблицы, после чего два последних символа вновь объединяются. Процесс повторяется до тех пор, пока не буде получен единственный вспомогательный символ с вероятностью, равной 1. Для составления кодовых комбинаций, соответствующих символам, необходимо проследить пути переходов по строкам и столбцам таблицы.

Для наглядного представления этого процесса удобнее всего построить граф, называемый кодовым деревом. Процедура построения кодового дерева выглядит следующим образом. Из вершины, соответствующей последнему единственному вспомогательному символу с вероятностью, равной 1, направляются две ветви, причем ветви с большей вероятностью присваивается кодовый символ 1, а с меньшей - 0. Такое последовательное ветвление из вершин, соответствующих вспомогательным символам, продолжается до получения вершин, соответствующих основным исходным символам.

Пример 3.5. Закодировать двоичным кодом Хаффмена ансамбль из примера 3.4. Решение представлено на рис. 3.3.

Рис. 3.3. Алгоритм кодирования кодом Хаффмена

Кодовое дерево для этого примера изображено на рис. 3.4

Рис. 3.4. Кодовое дерево

Составленная в соответствии с графом таблица кодовых комбинаций

ai

кодовая комбинация

ni

a1

01

2

a2

00

2

a3

111

3

a4

110

3

a5

100

3

a6

1011

4

a7

10101

5

a8

10100

5

Таким образом, получены те же параметры в смысле избыточности, что и в примере 3.4, решение 2 для кода Шеннона - Фано, хотя кодовые комбинации по составу другие.

Из рассмотрения методов построения эффективных кодов следует, что эффект уменьшения избыточности достигается за счет различия в числе разрядов в кодовых комбинациях, т.е. эти эффективные коды являются неравномерными, а это приводит к дополнительным трудностям при декодировании. Как вариант, можно для различения кодовых комбинаций ставить специальный разделительный символ, но при этом снижается эффект, т.к. средняя длина кодовой комбинации увеличивается на один разряд.

Более целесообразно обеспечить однозначное декодирование без введения дополнительных разрядов. Для этого эффективный код необходимо строить так, чтобы ни одна комбинация кода не совпадала с началом другой более длинной кодовой комбинации. Коды, удовлетворяющие этому условию, называются префиксными.

Наличие или отсутствие свойства префиксности отражается и на кодовом дереве. Если свойство префиксности отсутствует, то некоторые промежуточные вершины кодового дерева могут соответствовать кодовым комбинациям.

Префиксные коды иногда называют мгновенно декодируемыми, поскольку конец кодовой комбинации опознается сразу, как только мы достигаем конечного символа кодовой комбинации при чтении кодовой последовательности. В этом состоит преимущество префиксных кодов перед другими однозначно декодируемыми неравномерными кодами, для которых конец каждой кодовой комбинации может быть найден лишь после анализа одной или нескольких последующих комбинаций, а иногда и всей последовательности. Это приводит к тому, что декодирование осуществляется с запаздыванием по отношению к приему последовательности.

Очевидно, что практическое применение могут иметь только префиксные коды. Коды Шеннона - Фэно и Хаффмена являются префиксными.

При использовании префиксных кодов возникает вопрос о том, каковы возможные длины кодовых комбинаций префиксного кода. Обозначим кодовые комбинации префиксного двоичного кода a1, a2, . . . , aN. Пусть nk -число кодовых комбинаций длины k . Число nk совпадает с числом вершин k-го уровня кодового дерева. Конечно, справедливо неравенство nk 2k, поскольку 2k - максимально возможное число вершин на k уровне двоичного дерева. Однако для префиксного кода можно получить гораздо более точную оценку. Если n1, n2, . . . , nk-1 - число вершин 1-го, 2-го, . . . , (k-1)-го уровней дерева, то число всех вершин k-го уровня кодового дерева префиксного кода равно , и поэтому

,

или иначе

.

Деля обе части неравенства на 2k,получим . Это неравенство справедливо для любого kL, где L - максимальная длина кодовых комбинаций . Если обозначить l1, l2, . . . , lN длины кодовых комбинаций a1, a2, . . . , aN , то последнее неравенство можно записать следующим образом .

Это и есть условие, которому должны удовлетворять длины кодовых комбинаций двоичного префиксного кода. Это неравенство в теории кодирования называется неравенством Крафта и является достаточным условием того, что существует префиксный код с длинами кодовых комбинаций l1, l2, . . . , lN .

Если кодовый алфавит содержит не два, а S символов, то подобным же образом доказывается, что необходимым и достаточным условием для существования префиксного кода является выполнение неравенства .

Контрольные

вопросы к

лекции 12

12-1. Что называется кодом?

12-2. Что называется основанием кода?

12-3. Какой код называется равномерным?

12-4. Что называется мощностью кода?

12-5. Как определяется коэффициент избыточности кода?

12-6. Какой код называется безизбыточным?

12-7. Являются ли безизбыточными двоично-десятичные коды?

12-8. Что является целью эффективного кодирования?

12-9. Опишите методику Шеннона-Фано для построения эффективного кода.

12-10. В чем состоит недостаток методики Шеннона-Фано для построения эффективного кода?

12-11. Опишите методику Хаффмена для построения эффективного кода.

12-12. Опишите методику построения кодового дерева для кода Хаффмена.

12-13. Какие эффективные коды называются префиксными?

12-14. Что устанавливает неравенство Крафта?

Лекция 13

Общие

принципы

построения

помехоустойчивых

кодов