- •Содержание
- •1. Системно-кибернетические понятия курса
- •1.1 Общая характеристика научных понятий
- •1.2 Система
- •1.4 Среда
- •1.5 Состояние системы
- •1.6 Управление
- •1.7 Информация
- •1.8 Количественная мера информации
- •2. Вербальная модель ис
- •2.1. Информация как объект преобразований в ис
- •2.2. Информационный процесс
- •2.3. Информационная система как «машина» для реализации поручаемых ей информационных процессов
- •2.4. Автоматизация информационных процессов
- •Локальная сеть пд
- •2.5. Влияние внешней среды на ис
- •2.6. Человек в структуре ис
- •2.7. Показатели качества ис
- •3. Формализованные системы
- •3.1 Понятие модели системы
- •3.2. Декомпозиция и агрегирование в исследованиях ис
- •3.3 Математический аппарат для описания сложных систем
- •3.4 Виды математических моделей ис
- •Структурная модель и модель поведения ис
- •Структурная модель и модель поведения ис
- •3.5. Связной граф системы моделей
- •3.6 Особенности описания задач синтеза
- •3.7 Математические модели преобразующих элементов
- •4. Математическое описание источников информации, сигналов и помех
- •4.1. Математические модели источников информации и сообщений
- •Энтропия источника
- •4.2. Математические модели сигналов
- •4.3. Математические модели помех
- •4.4. Прохождение сигналов и помех через линейные системы
- •5. Синтез элементов ис на базе теории статистических решений
- •5.1. Статистические задачи в ис
- •5.2. Вероятностные характеристики обнаружения
- •5.3. Правило выбора решения и критерии его качества
- •5.4. Обнаружение методом однократного отсчета
- •5.5. Корреляционный метод обнаружения
- •5.6. Синтез приемников непрерывных сигналов
- •5.7. Синтез приемников дискретных сигналов.
- •5.8. Помехоустойчивость приемников бинарных сигналов
- •6.Модели и методы логико-вероятностного преобразования сообщений и сигналов
- •6.1 Классификация и кодирование информации
- •6.2 Методы оптимального кодирования сообщений
- •6.3 Модуляция сигналов
- •6.4 Дискретные манипулированные сигналы
- •6.5 Цифровые методы передачи непрерывных сигналов
- •6.6 Вероятностная модель канала связи
- •6.7 Помехоустойчивое кодирование сообщений
- •7. Анализ качества объектов ис коллективного пользования
- •7.1. Объекты коллективного использования в структуре ис
- •7.2. Поток событий
- •7.3. Смо с потерями
- •7.4 Смо с ожиданием
- •7.5. Смо с приоритетами
- •7.6. Сети смо
- •8. Методы анализа сетевых структур информационных систем
- •8.1 Особенности информационных сетей
- •8.2. Графовая модель сети
- •8.3. Методы анализа и синтеза сетей
- •8.4 Управление информационными сетями
6.2 Методы оптимального кодирования сообщений
Основными задачами при кодировании являются следующие:
а)обеспечить однозначное соответствие кода с объектом;
б)обеспечить минимальное число символов, приходящихся на сообщение.
Задачу минимизации среднего числа символов, приходящихся на одно сообщение при кодировании, впервые решил К.Шеннон .Им доказана основная теорем кодирования:
При заданном ансамбле Х из N сообщений с энтропией Н(х) и алфавитом, состоящем из D символов, возможно так закодировать сообщения ансамбля посредством последовательности символов, принадлежащих заданному алфавиту, что среднее число символов на сообщение n удовлетворяет неравенству:
(6.1)
Нижняя граница неравенства 6.1 объясняется следующим.
Мы уже знаем, что энтропия Н(х) представляет собой среднее количество информации, необходимое для однозначного определения сообщения из этого ансамбля. Знаем также, что символы несут максимальное количество информации, равное log D, когда они равновероятны. Поэтому можно утверждать, что
nlogD≥H(x),где
,
где nk – число символов в кодовом обозначении x k-го сообщения.
Другими словами, среднее число символов на сообщение не может быть меньше энтропии ансамбля, делённой на пропускную способность алфавита.
Для бинарных алфавитов D=2 и нижняя граница среднего числа символов определяется из условия
H(x)≤n.
Вывод верхней границы подсказан леммой :
Для существования множества кодовых слов со средней длинной
необходимо и достаточно,
чтобы для каждого сообщения xk
выполнялось условие
,где
а – целое число.
Когда это условие выполнено, то
На практике правая часть редко бывает целым числом. Поэтому число элементов nk приходиться брать равным наименьшему целому числу, большему, чем правая часть этого равенства. Из-за этого среднее число символов увеличивается на единицу.
Произведённые рассуждения позволили К.Шеннону сформулировать два правила кодирования:
1.В каждой из позиций кодового слова различные символы алфавита должны использоваться с равными вероятностями.
2.Вероятности появления символов в каждой позиции кодового слова должны не зависеть от всех предыдущих символов.
К.Шеннон предложил процедуры кодирования, основанные на приведённых правилах. Они сводятся к следующему:
1-й шаг: все сообщения ансамбля записываются в столбец по мере убывания априорных вероятностей появления их.
2-й шаг: всё множество сообщений разбивается на две равновероятные группы, одной из них присваивается символ “1”,а другой “0”.
3-й шаг: в каждой из полученных групп реализуются процедуры 2-го шага. Процесс повторяется до тех пор, пока останется в каждой группе по одному сообщению.
Кодовые комбинации каждому сообщению формируются из полученных символов 0” и “1” при делении ансамбля на части. Этот метод удобно представить в виде кодового дерева. Ветвям после узлом разветвления присваиваются символы “0” и ”1”.
Сообщениям присваиваются кодовые слова, образованных на концевых узлах, символов ведущих к ним ветвей.
Автором другого метода кодирования является Д.Хафман. Процедура кодирования:
1-й шаг: все N сообщений располагаются в порядке убывания вероятностей.
2-1 шаг: группируют вместе два сообщения
с минимальными вероятностями и определяют суммарную вероятность группы.
Верхней ветви объединения присваивают “1”,а нижней “0”.
3-й шаг: образуют новый ансамбль с учётом объединения т выполняют в нём процедуры 1-го и 2-го шагов.
Процесс продолжается до тех пор, пока в ансамбле не останется единственное сообщение с вероятностью 1.
Сообщениям присваиваются кодовые слова, образованные символами, стоящими на ветвях, ведущих к ним. Причём, сообщения оказываются на концевых узлах, а начало дерева находиться в конце последней операции. Поэтому слева в кодовом слове должны быть символы начала дерева(корень),а справа – символы последних ветвей.
Полученные кодовые слова по методам К.Шеннона и Д.Хафмана могут передаваться в канал связи без разделительных знаков между ними.
Эффективность кода оценивается величиной отношения
δ=Н(х)/n. (6.2)
Возникают
попытки уменьшить среднее число символов
на сообщение за счёт объединения
сообщений в группы по ν сообщений. Тогда
в новом ансамбле будет N^ν
сообщений. Энтропия нового ансамбля
будет равна Н(
)=νH(X).
Среднее число символов на новое кодовое слово обозначим через nν.Среднее число символов на исходное сообщение составит величину n= nν/ν.
По основной теореме кодирования имеем
≤nν<
+1,
после деления на ν всех элементов неравенства получаем
≤n<
+ 1/ν.
Выходит, что объединение сообщений несколько уменьшает верхнюю границу. Для бинарных систем этот метод может привести к уменьшению среднего числа символов на сообщение, но не более, чем на один символ.
