
- •Предисловие
- •Введение
- •Концептуальные основы информационных процессов.
- •О понятии «Информация» [1,2]
- •1.2. Виды и свойства информации [2].
- •1.3. Этапы обращения информации [1].
- •1.4. Информационные системы [1].
- •1.5. Система передачи информации [1].
- •1.6. Уровни проблем передачи информации [1].
- •1.7. О смысле «Теории информации» в системе связи [1].
- •2. Математические основы теории вероятностей [6,4].
- •2.1. Случайное событие и вероятность.
- •2.2 Случайные величины и их вероятностные характеристики.
- •Случайные функции и их вероятностное описание.
- •2.4 Корреляционные характеристики случайных процессов.
- •Дифференциальный; 2) интегральный;
- •3) Плотность вероятностей.
- •Дифференциальный; 2) интегральный; 3) числовой.
- •Свойства энтропии [1,3 и др.].
- •Условная энтропия и ее свойства [1,2 и др.].
- •Свойства условной энтропии
- •Энтропия непрерывного источника информации (дифференциальная энтропия) [1, 2 и др.].
- •Передача информации от дискретного источника [1 и др.].
- •Передача информации от непрерывного источника [1 и др.].
- •Основные свойства количества информации [1 и др.].
- •4. Информационные характеристики источника сообщений и канала связи.
- •4.1. Введение [1 и др.].
- •4.2. Информационные характеристики источника дискретных сообщений.
- •4.2.1 Модели источника дискретных сообщений [1 и др.].
- •4.2.2 Свойства эргодических последовательностей знаков [1 и др.].
- •4.2.3 Избыточность источника [1 и др.].
- •4.2.4 Производительность источника дискретных сообщений [1 и др.].
- •4.3. Информационные характеристики дискретных каналов связи.
- •4.3.1 Модели дискретных каналов [1, 4, 5 и др.].
- •Скорость передачи информации по дискретному каналу [1 и др.].
- •Пропускная способность дискретного канала без помех [1 и др.].
- •Пропускная способность дискретного канала с помехами [1 и др.].
- •Информационные характеристики непрерывных каналов связи [1 и др.].
- •Согласование физических характеристик сигнала и канала [1 и др.].
- •Согласование статистических свойств источника сообщений и канала связи [1 и др.].
- •4.6 Контрольные вопросы к разделам 3 и 4 в форме «Задание – тест» тема: «Количественная оценка информации».
- •1) Бод; 2) бит (двоичная цифра); 3) байт.
- •1) Сумма; 2) произведение; 3) разность.
- •1) Безусловной энтропией; 2) условной энтропией;
- •3) Совместной энтропией.
- •1) Объем алфавита;
- •2) Объем алфавита и вероятности создания источником отдельных знаков; 3) вероятности создания источником отдельных знаков.
- •1) Нестационарным; 2) стационарным; 3) постоянным.
- •1) Нестационарным; 2) стационарным; 3) постоянным.
- •1) С памятью; 2) без памяти; 3) регулярный.
- •1) С памятью; 2) без памяти; 3) регулярный.
- •1) Симметричный; 2) несимметричный; 3) условный.
- •1) Симметричный; 2) несимметричный; 3) условный.
- •1) Максимальная скорость; 2) пропускная скорость; 3) предел скорости.
- •1) Уменьшается; 2) увеличивается; 3) не изменяется.
- •1) Уменьшается; 2) увеличивается; 3) не изменяется.
- •5.2. Классификация кодов [4 и др.].
- •5.3. Представление кодов [4 и др.].
- •5.4. Оптимальное (эффективное) статистическое кодирование [3 и др.].
- •5.4.1 Методы эффективного кодирования некоррелированной последовательности знаков [1 и др.].
- •Методика построения кода Шеннона – Фано [1].
- •Методика построения кода Хаффмена [2 и др.].
- •5.4.2 Свойство префиксности эффективных кодов [1 и др.].
- •5.4.3 Методы эффективного кодирования коррелированной последовательности знаков.
- •5.4.4 Недостатки системы эффективного кодирования.
- •1) Номер разряда;
- •2) Множитель, принимающий целочисленные значения;
- •3) Количество разрядов.
- •Всякий блочный код можно представить таблицей:
- •Всякий блочный код можно представить таблицей:
- •Литература:
- •Содержание
5.4. Оптимальное (эффективное) статистическое кодирование [3 и др.].
При передаче знаки сообщений источника преобразуются в последовательность двоичных сигналов. Учитывая статистические свойства источника сообщений, можно минимизировать среднее число символов, требующихся для выражения одного знака сообщения, что при отсутствии шума позволяет уменьшить время передачи или объем запоминающего устройства.
Одной из характеристик сообщений является избыточность. Коэффициент избыточности определяется как
(5.4)
где H(x) – энтропия, которую имеет сообщение источника; Hmax(x) – максимальная энтропия.
Под избыточным понимают такие сообщения, для представления которых используются больше символов, чем это минимально необходимо. Решение задачи устранения избыточности сообщений выполняется с помощью эффективного кодирования.
Статистическое
(оптимальное) кодирование сообщений
для передачи их по
дискретному каналу без помех
базируется на теореме К. Шеннона, которую
можно сформулировать так [3]: «Если
производительность источника
,
где ε – сколь угодно малая величина, то
всегда существует способ кодирования,
позволяющий передавать по каналу все
сообщения источника». Передачу всех
сообщений при
осуществить невозможно.
Смысл теоремы
сводится к тому, что как бы ни была велика
избыточность источника, все его сообщения
могут быть переданы по каналу, если
.
Здесь С –
пропускная способность. По
определению пропускная способность
(5.5)
где Rmax – максимальная скорость передачи информации.
Кодирование по методу Шеннона-Фано-Хаффмена называется оптимальным, так как при этом повышается производительность дискретного источника
(5.6)
где
- средняя длительность сообщения и
наилучшим
образом
используется
пропускная способность канала без
помех.
Структура оптимального кода зависит от статистических характеристик источника, так и от особенности канала. Оптимальное кодирование называют статистическим потому, что для реализации кодирования необходимо учитывать вероятности появления на выходе источника каждого элемента сообщения (учитывать статистику сообщений).
Рассмотрим основные принципы оптимального (эффективного) кодирования на примере источника независимых сообщений X={x1, x2, …, xr}. Под элементами множества X можно понимать, например, буквы алфавита естественного языка, пары, тройки и вообще любые блоки символов какого-либо алфавита, слова, предложения – словом, любые знаки.
Источник независимых сообщений необходимо согласовать с двоичным каналом без помех. При этих условиях процесс кодирования заключается в преобразовании сообщений источника в двоичные кодовые комбинации. Поскольку имеет место однозначное соответствие между сообщениями источника и комбинациями кода, то энтропия кодовых комбинаций: H(u), где u-выходной алфавит, равна энтропии источника
(5.7)
а скорость передачи информации в канале
(5.8)
здесь
- средняя длительность кодовой комбинации,
которая в общем случае неравномерного
кода определяется выражением
(5.9)
где
- длительность одного элемента кода и
- число элементов в комбинации, присеваемой
сообщению
.
Подстановка в формулу (5.8) выражений энтропии H(x) [] и (5.9) приводит к соотношению
(5.10)
в котором числитель определяется исключительно статистическими свойствами источника, а величина τ0 – характеристика канала. При этом возникает вопрос, можно ли так закодировать сообщения, чтобы скорость передачи R достигала своего максимального значения, равного пропускной способности двоичного канала
(5.11)
Легко заметить, что это условие выполняется, если
(5.12)
где J(xi) – количество информации в xi сообщении.
Из (5.12) следует,
что количество символов в кодовом слове
соответствует минимальному
и максимальному R.
Очевидно, выбор ni<J(xi)
не имеет смысла, так как в этом случае
R>C,
что противоречит выше доказанному
утверждению теоремы Шеннона.