Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
инф-госы теория и практика.doc
Скачиваний:
28
Добавлен:
29.08.2019
Размер:
3.77 Mб
Скачать

20. Понятие количества информации и энтропии. Теорема Шеннона.

Будем считать, что некоторая абстрактная информация передается посредством конкретного сообщения. Тогда всякий процесс получения информации представляет собой получение конкретных сообщений. Под сообщением будем понимать совокупность знаков, понятных адресату. Формальное определение знака дается в семиотике - науке о всевозможных знаковых системах, мы под знаком будем понимать некоторый символ. Информация от источника адресата предается с использованием некого канала связи:                    

Канал - это нечто, используемое для передачи информации, точнее сообщений. В канале всегда существуют помехи, имеющие случайную природу. Помехи могут искажать информацию. Источник обладает конкретным конечным множеством сообщений (X), каждому из которых сопоставлена вероятность отсылки (p(xi)). Это множество с распределением вероятностей называется ансамблем источника. Аналогично определяется ансамбль адресата (множество Y и для каждого уi существует вероятность получения p(yi)). Допустим, что источник отправил в канал сообщение xi. Помехи имеют свою вероятностную природу, поэтому мы можем получить на приемнике (адресате) несколько разных сообщений с разной вероятностью. Если помех в канале нет, то мы получим сообщение yi. Естественно, что и на приемнике и на источнике выполняются условия нормировки:

                                                  

                                      

Т.е. считаем, что какое-то сообщение будет обязательно отправлено, и какое-то обязательно будет принято.

Д ля определена вероятность того, что послано хi при условии, что получено yj - p(xi,yj).

В идеальном канале  

                                      

Опред. Количеством взаимной или совместной информации сообщений хi и yj называется следующая величина:

Средней взаимной информацией ансамблей называется величина:

 

Пример 1. Двоичный симметричный канал.

                           

                    

Для идеального канала I(X,Y)=1, а при E=1/2 мы вообще не получаем никакой информации.

Энтропия и ее связь с информацией.

Собственной информацией сообщения  называется величина:

В случае, если канал без помех I(xi) показывает какую информацию мы получим, если послано xi, т.е. собственную информацию сообщения xi.

   

  - энтропия, суть средняя информация сообщения в ансамбле, ее также называют мерой неопределенности (беспорядочности) источника.

Теорема (1-я теорема об энтропии). 

Н(X)>=0

Доказательство.

     очевидно                              

Замечание. В реальности P(xi)>0 поскольку, если p(xi)=0, то сообщение никогда не будет послано, а значит его не существует.

Теорема (2-я теорема об энтропии).

Пусть  в источнике k сообщений, причем              

       тогда

Доказательство опускается.

 Кодирование ансамбля источника

Двоичный код.

Самым распространенным способом кодирования информации. Двоичный код представляет собой последовательность нулей и единиц. Каждый символ «0» или «1» называется битом. ЭВМ обрабатывает информацию именно в двоичном коде.

Теорема Шеннона.

      Задача кодирования ансамбля источника состоит в том, чтобы максимально эффективно (с наименьшей средней длиной кода) представить сообщения источника в двоичном виде. Возникает вопрос, насколько эффективно в принципе можно решить эту задачу. ответ дает теорема Шеннона.

Приведем формулировку теоремы Шеннона (основной теоремы кодирования) для двоичного кодирования информации.

Пусть имеется ансамбль источника с энтропией H(X), тогда существует двоичный код, с помощью которого сообщение можно закодировать в среднем в k битах, где

(Доказательство опускается).

Замечание. Теорема Шеннона окончательно проясняет связь между понятием бита, как единицы информации и как разряда в двоичном коде.