
- •1. Понятие информации
- •1.1. Предмет, место и роль теории информации и передачи сигналов
- •1.2. Предмет и метод теории информации
- •1.3. Этапы обращения информации
- •1.4. Типовая структурная схема информационной системы. Разновидности информационных систем
- •1.5. Виды информации
- •1.6. Структура информации
- •1.7. Устранение избыточности информации
- •2. Измерение информации
- •2.1. Структурные меры информации
- •2.1.1. Геометрическая мера
- •2.1.2. Комбинаторная мера
- •2.1.3. Аддитивная мера информации
- •2.2. Статистические меры информации
- •2.2.1. Вероятность и информация
- •Двоичные однопредметные явления
- •Двоичные двухпредметные явления
- •Понятие энтропии
- •Энтропия ансамбля
- •Энтропия объединения
- •Количество информации и избыточность
- •2.3. Семантические меры информации
- •2.4. Другие меры полезности информации
- •2.4.1. Энтропия, шум и тезаурус
- •3. Информационные характеристики источника сообщений и канала связи
- •3.1. Основные понятия и определения
- •3.2. Информационные характеристики источника дискретных сообщений
- •3.2.1. Модели источника дискретных сообщений
- •3.2.2. Свойства эргодических последовательностей знаков
- •3.2.3. Избыточность
- •3.2.4. Производительность источника дискретных сообщений
- •3.3. Информационные характеристики дискретных каналов связи
- •3.3.1. Модели дискретных каналов
- •3.3.2. Скорость передачи информации по дискретному каналу
- •3.3.3. Пропускная способность дискретного канала без помех
- •3.3.4. Основная теорема Шеннона о кодировании для дискретного канала без помех
- •3.3.5. Пропускная способность дискретного канала с помехами
- •3.3.6. Основная теорема Шеннона о кодировании для дискретного канала с помехами
- •3.4. Информационные характеристики источника непрерывных сообщений
- •3.5. Информационные характеристики непрерывных каналов связи
- •3.5.1. Модели непрерывных каналов связи
- •3.5.2. Скорость передачи информации по непрерывному каналу
3.2.2. Свойства эргодических последовательностей знаков
Характер последовательностей, формируемых реальным источником сообщений, зависит от существующих ограничений на выбор знаков. Они выражаются в том , что вероятности реализации знаков различны и между ними существуют корреляционные связи . Эти ограничения приводят к тому, что вероятности формируемых последовательностей существенно различаются.
Пусть, например, эргодический источник без памяти последовательно выдаёт знаки z1,z2,z3 в соответствии с вероятностями 0.1 ; 0.3 ; 0.6 . Тогда в образованной им достаточно длинной последовательности знаков мы ожидаем встретить в среднем на один знак z1 три знака z2 и шесть знаков z3. Однако при ограниченном числе знаков в последовательности существуют вероятности того , что она будет содержать:
только знаки z1 (либо z2 , либо z3) ;
только знаки z1 и один знак z2 или z3 ;
только знаки z2 и один знак z1 или z3 ;
только знаки z3 и один знак z2 или z1 ;
только знаки z1 и два знака z2 или z3 и т.д.
С увеличением числа знаков, вероятности появления таких последовательностей уменьшаются.
Фундаментальные свойства длинных последовательностей знаков, создаваемых эргодическим источником сообщений , отражает следующая
теорема : как бы ни малы были два числа >0 и >0 при достаточно большом N , все последовательности могут быть разбиты на две группы .
Одну группу составляет подавляющее большинство последовательностей, каждая из которых имеет настолько ничтожную вероятность, что даже суммарная вероятность всех таких последовательностей очень мала и при достаточно большом N будет меньше сколь угодно малого числа . Эти последовательности называют нетипичными.
Вторая группа включает типичные последовательности , которые при достаточно большом N отличаются тем , что вероятности их появления практически одинаковы , причём вероятность р любой последовательности удовлетворяет неравенству
.
(34)
Здесь H(Z) – энтропия источника сообщений.
Соотношение (34) называют также свойством асимптотической равномерности длинных последовательностей . Рассмотрим его подробнее.
Поскольку при N источник сообщений с вероятностью, сколь угодно близкой к единице, выдаёт только типичные последовательности, принимаемое во внимание число последовательностей равно 1/p.
Неопределённость создания каждой такой последовательности с учётом их равновероятности составляет log(1/p). Тогда величина log(1/p)/N представляет собой неопределённость, приходящуюся в среднем на один знак. Конечно, эта величина практически не должна отличаться от энтропии источника, что и констатируется соотношением (34).
Ограничимся доказательством теоремы для простейшего случая эргодического источника без памяти. Оно непосредственно вытекает из закона больших чисел, в соответствии с которым в длинной последовательности из N элементов алфавита l (z1 , z2 , … , zl) , имеющих вероятности появления p1 , p2 , … , pl , содержится Np1 элементов z1, Np2 элементов z2 и т.д.
Тогда вероятность р реализации любой типичной последовательности близка к величине
.
(35)
Логарифмируя правую и левую части выражения (5) , получаем:
.
(36)
Отсюда (при очень больших N)
.
(37)
Для общего случая теорема доказывается при помощи цепей Маркова.
Покажем теперь, что за исключением случая равновероятного и независимого выбора букв источником, когда нетипичные последовательности отсутствуют, типичные последовательности при достаточно большом N составляют незначительную долю от общего числа возможных последовательностей.
При объёме алфавита источника l и количестве знаков в последовательности N число всех возможных последовательностей
.
(38)
Принимая во внимание соотношение (34) , число типичных последовательностей п2 можно записать в виде
.
(39)
Тогда
.
(40)
Так
как
, то
и неравенство усиливается с увеличениемN
.
К. Шеннон показал, что рассмотренные свойства длинных последовательностей могут служить основанием для осуществления эффективного кодирования информации.