Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
98
Добавлен:
02.05.2014
Размер:
4.88 Mб
Скачать

1.6 Первая теорема к. Шеннона о кодировании

Это первая из трёх теорем Шеннона, на которых зиждется статистическая теория связи. Она мобилизует на решения упомянутой выше проблемы – проблемы согласования параметров кодов со свойствами источников информации. Речь идёт о статистических свойствах источников и статистических свойствах кодов, тех свойств, которые, в конце концов, как мы только что показали, в концентрированной форме выражаются (предстают в математических моделях) в соответствующими значениями параметра W (далее индекс k нам уже не нужен, ибо мы будем говорить преимущественно о кодах). В связи с этим, кодирование, о котором говорится в этой теореме, часто называют статистическим кодированием.

Выше мы с Вами отмечали, что одна из первых процедур актуализации информации – кодирование источника, процедура выбора первичного алфавита источника сообщений и обозначения его символами состояний источника. Часто на практике она совмещена с процедурой статистического кодирования.

Это совмещение происходит потому, что простое однозначное обозначение каждого естественного состояния источника информации соответствующим символом первичного алфавита источника сообщений приводит к абсолютной идентичности статистических свойств обоих этих ансамблей. Сообщения, составленные таким «лобовым» («ломовым») способом обладали бы избыточностью в той мере, в какой источнику присуща память.

Цель статистического кодирования – такое согласование статистических параметров кода со статистическими характеристиками источника, при котором сообщения о повелении источника не будут иметь избыточности.

Одним из показателей такого согласования, которое говорит, что при этом всё, что «генерирует» источник, в том же темпе попадает в сообщение, является равенство WS = Wкода. В связи с этим такое кодирование ещё называют оптимальным кодированием.

      1. Формулировка и доказательство

Теорема Шеннона о статистическом кодировании имеет много вариантов формулировок. Мы рассмотрим её в относительно простом и наглядном варианте, который сводится к следующему.

Если имеется дискретный источник с энтропией HS , то обязательно найдётся код, при использовании которого возможно пополнение сообщений информацией со скоростью, сколь угодно мало отличающейся от HS .

В символической форме это выглядит короче:

всегда найдётся код, обеспечивающий

Скода = Log Wкода = HS - ε,

где ε - сколь угодно малая величина.

Строгое доказательство этой теоремы громоздко и опирается на математические понятия и процедуры, к которым мы сейчас не готовы. Поэтому ограничимся общими, в достаточной мере убедительными рассуждениями на эту тему. При этом будем считать, что речь идёт о стационарном дискретном эргодическом источнике информации с памятью, энтропия которого заведомо меньше меры Хартли (H  HS ).

Это значит, что для описания поведения такого источника сообщения в среднем должны содержать HS бит информации на каждое состояние из репертуара источника.

  1. Наличие источника информации с энтропией HS означает, что любое записанное в естественном (или эквивалентном ему первичном алфавите источника сообщений с объёмом алфавита N) коде сообщение о его поведении, состоящее из n символов будет содержать ровно I = nHS битов информации. В составе этих n символов известная их доля n1 окажется лишней из-за избыточности такого сообщения.

Итак, можно записать I = (m1+n1)HS,

где m1 достаточное количество символов гипотетического первичного алфавита без избыточности.

2. Если любую пару соседних состояний источника при кодировании источника обозначить символом нового (расширенного, с объёмом N2) алфавита, то в сообщении окажется не n, а n2 = n/2 новых символов. При этом мы снова будем иметь I = nHS , ибо новый символ стал вдвое (2HS ) информативней и теперь I = [n/2]n2HS = nHS . При этом доля n2 избыточных символов в составе сообщения уменьшиться. Здесь можно записать

I = (m2+n2)HS , где m2 достаточное количество символов нового гипотетического вторичного алфавита без избыточности.

3. Если в процессе кодирования источника любую тройку пару соседних его состояний обозначить символом нового (расширенного – с объёмом N3) алфавита, то в сообщении окажется не n, а n2 = n/3 новых символов. При этом мы снова будем иметь

I = nHS , ибо такой новый символ теперь втрое (3HS) информативней первичного. Но снова I = [n/3]n3HS = = nHS . При этом доля n3 избыточных символов в составе сообщения снова уменьшиться. Здесь можно записать I = (m3+n3)HS, где m3 достаточное количество символов ещё более нового гипотетического вторичного алфавита без избыточности.

4. По мере увеличения количества p соседних состояний кодируемого источника в отображающем эту цепочку состояний слове-символе расширенного алфавита доля nр избыточных символов в составе сообщения неуклонно уменьшается и при некотором q p может оказаться меньше сколь угодно малой наперёд заданной величины . Действительно, здесь можно записать

I = (mр+nр)HS, где mр достаточное количество символов последнего гипотетического вторичного алфавита без избыточности, которое из–за малости nр

5. Предположим, наконец, что сообщение состоит из r слов-символов ещё более расширенного алфавита. Каждое из этих слов имеет длину q символов первичного алфавита и отображает (обозначает) q p состояний репертуара нашего источника информации (r = n/q). При этом доля nq избыточных символов в составе сообщения окажется q. Присвоим всем разным словам-символам (которые теперь выглядят символами последнего из цепочки представленных выше расширенных алфавитов c объёмом Nq= Nq) условные порядковые номера этих слов-символов в рамках этого расширенного алфавита.

На этом первая из процедур оптимального кодирования считается законченной. У нас есть новый алфавит, каждый из символов которого имеет свой номер. И этот алфавит почти не имеет избыточности.

Далее.

6. Записываем условные номера символов сформированного выше кода в двоичной системе исчисления, иначе говоря, в двоичном коде. После этого мы имеем Nq штук совершенно разных «слов-символов», каждое из которых состоит из одного и того же количества lq= log2[Nq]) бинарных символов (нулей и единиц) и будет обозначать в сообщении с одну из возможных цепочек (комбинацию) из q состояний источника информации. Такое новое слово-номер будем называть кодовым словом (или кодовой последовательностью), а полный их «комплект» (Nq штук) – новым равномерным бинарным кодом («равномерным» потому, что все его кодовые последовательности имеют одинаковую длину lq , количеством бинарных символов).

7. Если далее каждое из r слов-символов (r = n/q) рассматриваемого нами длинного сообщения заменить соответствующим словом-номером, (то есть бинарными кодовыми словами охарактеризованного выше нового кода), то сообщение в целом окажется составленным из огромного количества k (k = rlq) нулей и единиц. При этом оно будет выглядеть сообщением, которое записано бинарным кодом.

8. В связи с тем, что на этапе расширения алфавита мы избавились от избыточности в сообщении, то избыточности нет и при такой его записи. Следовательно, каждый символ составленного только из нулей и единиц сообщения будет максимально заполнен «новой» информацией. Поскольку речь идёт о бинарных символах, то каждый из них несёт ровно один бит информации.

9. Итак, доля nq избыточных символов в составе сообщения будет меньше q, а каждый из k образующих его символов будет иметь информативность в один бит. Тогда сообщение в целом будет содержать I= lqхk битов информации. Следовательно,

k = n HS .

В этом уравнении одно и то же количество информации («I») записано то (правая часть уравнения I = n HS через информативность символов первичного кода, которая равна энтропии HS ), то через информативность символов нового (хорошего бинарного) кода, которая равна 1 бит (левая часть уравнения I = k). Поделив обе части уравнения на n, получаем:

k/n = HS

Величина k/n не что иное, как количество символов нашего последнего (бинарного) кода, которое приходится на один символ первичного алфавита (а точнее на каждое состояние кодируемого источника информации). Обозначим l1= k/n. Обозначив далее достаточно малую величину (q/n) HS , которая всё же несколько уменьшает скорость пополнения сообщения информацией, символом ε, мы получаем возможность переписать полученное выше соотношение в такой форме:

l1 = HS - ε.

Поскольку l1 это среднее количество символов хорошего (у нас 1q ) бинарного кода, каждый из которых несёт 1 бит информации, то это (то есть l1 = HS - ε.) и есть среднее количество информации, которое «прирастает» в сообщении при вписывании в него набора из lq нулей и единиц для обозначения каждого очередного состояния из репертуара источника. Это означает, что, пользуясь равномерными кодами, состоящими из записанных в двоичной системе исчисления условных номеров «слов-символов» расширенного алфавита, мы сможем формировать сообщение со скоростью, которая практически не отличается от энтропии источника информации. Эта же мысль может быть выражена математически. Предполагая, что реальный источники информации «функционирует» в темпе: «одно состояние в единицу времени», можем записать, что его информационная производительность равна

СS = logWS = HS ..

С другой стороны пропускная способность полученного в результате описанных выше процедур кода

Ск = logWк= l1 = HS - εq .

Этот код состоит из максимально (1 бит) «наполненных» информацией бинарных символов (0 и1) и позволяет «отводить» от её источника информацию со скоростью, сколь угодно мало отличающейся от его (источника) энтропии. А это означает, такой код – оптимальный код , а согласование статистических параметров первичного кода источника сообщений (Wк) со статистическими характеристиками источника информации (WS) возможно. Действительно: logWк  logWS

Таким образом мы нашли равномерный оптимальный бинарный код для произвольного стационарного эргодического дискретного источника информации. Возможность чего и требовалось показать.

Таковы логические аргументы доказательства первой теоремы Шеннона о кодировании источника – теоремы о существовании оптимальных кодов, которые обеспечивают согласование статистических параметров кода со статистическими характеристиками источников информации. Эти аргументы, как Вы убедились, опираются на следствия известной теоремы Бернулли (закон больших чисел) который позволил записать использованной выше уравнение:

k = n HS

К.Шеннон не указал в своём доказательстве никаких путей и способов составления кодов. Он только строго доказал их существование, чем дал толчок развитию новой отрасли знаний науки о кодах, шифрах и кодировании. Сейчас это не просто часть науки о связи, а большая и важная её часть. Кое-какие сведения о ней известны Вам из других курсов. И здесь мы не станем ограничиваться только что изложенными теоретическими соображениями.

Соседние файлы в папке Методичка по теории информации