- •Д.Е. Турчин
- •Лабораторный практикум
- •Кемерово 2013
- •Описание лабораторного практикума
- •1.2.2. Понятие кода и кодирования. Моделирование дискретных источников сообщений без памяти
- •1.3. Порядок выполнения работы
- •1.4. Контрольные вопросы
- •Марковские источники сообщений.
- •Эффективность, избыточность и производительность источника сообщений.
- •Кодовые деревья и префиксные коды.
- •2.3. Порядок выполнения работы
- •2.4. Контрольные вопросы
- •3.2.2. Пропускная способность дискретного канала связи. Кодеры и декодеры канала связи. Код с битом четности Пропускная способность дискретного канала связи.
- •Кодер и декодер канала связи. Код с битом четности.
- •3.3. Порядок выполнения работы
- •3.4. Контрольные вопросы
- •Метод Шеннона-Фано.
- •4.2.2. Методы кодирования источников сообщений по Хаффману Кодирование дискретного источника сообщений без памяти по Хаффману.
- •4.3. Порядок выполнения работы
- •4.4. Контрольные вопросы
- •Декодирование арифметического кода.
- •5.2.2. Метод адаптивного арифметического кодирования и его программная реализация
- •5.3. Порядок выполнения работы
- •5.4. Контрольные вопросы
- •6. Сжатие информации методами Лемпела-Зива
- •6.1. Цель работы
- •6.2. Основные теоретические сведения
- •Код Хэмминга.
- •7.2.2. Расширенный код Хэмминга. Программная реализация кода Хэмминга Расширенный код Хэмминга.
- •7.3. Порядок выполнения работы
- •7.5. Контрольные вопросы
- •8. Построение и декодирование линейных блоковых кодов
- •8.1. Цель работы
- •8.2. Основные теоретические сведения
- •8.3. Порядок выполнения работы
- •8.4. Контрольные вопросы
- •Приложение п.1. Понятие события и его вероятности. Теоремы сложения и умножения вероятностей Понятие события и вероятности события. Непосредственный подсчет вероятностей.
- •Теорема сложения вероятностей.
- •Теорема умножения вероятностей.
- •П.2. Данные для расчета энтропии и количества информации
- •П.3. Матрицы и операции над ними п.4. Многочлены и операции над ними
- •П.5. Вопросы к экзамену
1.4. Контрольные вопросы
Что называют дискретным источником сообщений?
Какие дискретные источники сообщений называют источниками без памяти?
Как между собой связаны вероятность единичного события и количество информации, получаемое от осуществления этого события?
Что характеризует энтропия дискретного источника сообщений?
Каким образом энтропия может быть определена для дискретного источника сообщений?
В каком случае энтропия дискретного источника сообщений принимает максимальное значение?
Как можно найти количество информации, содержащееся в дискретном сообщении?
В каком случае формула Хартли применима для определения количества информации в сообщении?
Что называют кодированием и декодированием информации?
Что понимают под кодом и кодовым словом?
В чем заключается различие между равномерными и неравномерными кодами?
Какие коды называют префиксными?
2. Моделирование и расчет характеристик дискретных источников сообщений
2.1. Цель работы
Цель работы – приобрести умение моделировать дискретные источники сообщений с памятью, а также определять условную энтропию, энтропию объединения, информационную избыточность и взаимную информацию для дискретных источников сообщений.
Работа рассчитана на 4 часа.
2.2. Основные теоретические сведения
2.2.1. Понятие о цепях Маркова. Марковские источники сообщений. Избыточность источника сообщений
Понятие о цепях Маркова.
Во многих случаях источник сообщений без памяти (с нулевой памятью) является грубой моделью реальных источников информации. Текущее состояние многих систем зависит от того, в каких состояниях эти системы находились ранее.
Дискретный источник сообщений называется источником с памятью n-го порядка, если вероятность его перехода в определенное состояние зависит от того, через какие n состояний этот источник последовательно прошел в предшествующие моменты времени.
В теории информации наиболее изученными дискретными источниками сообщений с памятью являются марковские источники. Математическое описание марковских источников основывается на использовании такого класса случайных процессов, как марковские процессы с дискретными состояниями (цепи Маркова)1.
Марковским процессом с дискретными состояниями (цепью Маркова) называется случайный процесс, протекающий в системе с множеством состояний S = {s1, s2, … , sm} и обладающий следующим свойством:
• Для каждого момента времени t0 вероятность любого состояния системы в будущем (t > t0) зависит только от ее состояния в настоящем (t = t0) и не зависит от того когда и каким образом система пришла в это состояние. То есть в марковском процессе будущее состояние зависит только от настоящего состояния и не зависит от «предыстории» процесса.
Для анализа марковских процессов с дискретными состояниями используют ориентированные графы, называемые графами состояний (рис. 2.1). Вершинами такого графа являются состояния системы, а дугами – возможные переходы из одного состояния в другое.
Рис. 2.1. Графы состояния марковских процессов: а) – эргодического; б) – неэргодического
Каждой дуге (si, sj) графа состояний приписывается условная вероятность pij = p(sj | si) того, что система система перейдет в состояние sj при условии, что ее текущим состоянием является si. Указанная вероятность pij называется переходной вероятностью.
Состояние si марковкого процесса называется возвратным, если вероятность возвращения в него равна 1, и невозвратным, если эта вероятность меньше 1.
Для теории информации практический интерес представляют только такие марковские процессы, которые являются эргодическими (обладают свойством эргодичности).
Марковский процесс называется эргодическим, если система, в которой он протекает, может из каждого своего состояния перейти в любое другое состояние (непосредственно или через определенное число промежуточных состояний) (рис. 2.1 а). В эргодическом марковском процессе не могут присутствовать невозвратные состояния. Марковские процессы, не обладающие таким свойством, называются неэргодическими (рис. 2.1 б).
Для эргодического марковского процесса с течением времени (спустя большое число переходов k) система приходит к предельному стационарному распределению p*(s1), p*(s2), … , p*(sm), не зависящему от начального состояния:
;
i,
j
= 1, 2, … , m;
где pk(sj | si) – вероятность перехода системы из состояния sj в si за k шагов.
