- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
Министерство образования Российской Федерации
КАЗАНСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ
УНИВЕРСИТЕТ им. А.Н. Туполева
И.С. Ризаев, С.А. Ляшева, М.П. Шлеймович
Теория информации Учебное пособие
Казань 2006
УДК 681.325
Ризаев И.С., Ляшева С.А., Шлеймович М.П. Теория информации: Учебное пособие. - Казань: КГТУ (КАИ), Кафедра АСОИУ, 2006 – 87с.
Представлены основные сведения по разделам теории информации и кодирования. Пособие состоит из пяти разделов, посвященных информационным характеристикам источников сообщений, пропускной способности каналов связи, кодированию информации, сжатию данных и построению корректирующих кодов. Каждый раздел содержит краткие теоретические сведения, вопросы для самопроверки, упражнения и задания к выполнению лабораторных работ.
Пособие предназначено для студентов, обучающихся по направлению “Информатика и вычислительная техника” очного, очнозаочного (вечернего) и дистанционного обучения (прилагается электронный диск).
Введение
Предметом теории информации является изучение процессов передачи, хранения, преобразования и использования информации.
Датой возникновения теории информации считается появление в 1948г. работ Клода Шеннона «Математическая теория связи» и «Связь при наличии шума». Благодаря этим работам теория информации сразу представлена как стройное, логическое построение. После 1948г. теория информации стала объектом интенсивных исследований многих ученых.
Что такое информация? В философском плане информация есть отражение реального мира. В узком практическом плане информация есть, сведения являющиеся объектом хранения, передачи и преобразования. Существует много слов близких к понятию информации: знания, показания, сведения. Информацией мы будем называть лишь те сведения, которые уменьшают неопределенность, существующую до их поступления. Само слово информация происходит от латинского «информировать» что в обычном смысле означает «сообщить нечто неизвестное раньше». Поэтому с теорией информации тесно связано понятие неопределенности. В теории информации рассматриваются любые события, в результате которых уменьшается, уничтожается, исчезает неопределенность.
Степень уменьшения неопределенности в результате передачи сообщения называется количеством информации. В общем случае формула степени неопределенности имеет вид: H=log2n, где n число возможных состояний системы. При полном снятии неопределенности количество полученной информации будет равняться энтропии: I=H. В словесном выражении формула звучит так: количество сведений минимально необходимых для устранения неопределенности равно двоичному логарифму числа возможных выборов. Например, если число выборов составляет n, то это равносильно информации даваемой k ответами типа “да” или “нет” на вопросы поставленные так, что “да” и “нет” одинаково вероятны: k=log2n.
1. Информационные характеристики источников сообщений
Энтропия как мера неопределенности физической системы
Сведения являющиеся объектом хранения, передачи и преобразования, называются информацией. Мера измерения количества информации основана на понятии энтропии. Энтропия - это мера степени неопределенности состоянии системы Х (случайной величины) с конечным или счетным числом исходов.
Что означает неопределенность и как ее измерить?
Пример 1.1. Пусть имеются две системы: первая система – игральная кость (имеет 6 состояний), вторая система – монета (имеет 2 состояния).
Спрашивается: состояние какой системы труднее предугадать (неопределенность какой системы больше)? Естественно неопределенность первой системы выше. Значит, степень неопределенности системы зависит от числа возможных ее состояний. Однако число состояний не является исчерпывающей характеристикой степени неопределенности.
Покажем это на примере для систем с двумя устойчивыми состояниями. Пусть имеются 2 монеты М1 и М2 (у монеты имеется два возможных состояния: орёл 0 и решка Р):
М1 |
0 |
Р |
|
М2 |
0 |
Р |
Рi |
0,5 |
0,5 |
|
Рi |
0,999 |
0,001 |
Рi – вероятности нахождения монет в состоянии орел или решка.
Нетрудно заметить, что неопределённость этих двух систем будет различной. Неопределенность первой системы больше, так как из таблицы видно, что вторая монета практически постоянно находится в состоянии орел. Первая же монета неизвестно в каком находится состоянии, она с равной вероятностью может находиться или в состоянии орел или в состоянии решка.
Таким образом, мы видим, что степень неопределенности определяется также и вероятностями состояний системы. В качестве меры априорной неопределенности теория информации предлагает энтропию.
Энтропия по Шеннону равна сумме произведений вероятностей состояний системы на логарифмы этих вероятностей, взятых с обратным знаком:
,
(1.1)
где X = (x1, x2, … xi,… xn) – множество возможных состояний системы X, принимаемых элементами с вероятностями p(x1), p(x2),…p(xi),… p(xn),
n
число возможных состояний. При этом
должно соблюдаться условие нормировки:
В формуле 1.1 основание логарифма может быть двоичным, десятичным или натуральным. Если используется двоичное основание, то оно может быть опущено. При двоичном основании энтропия измеряется в двоичных единицах или битах. Формула (1.1) может быть представлена и в следующем виде:
(1.2)
Энтропия характеризует среднее значение и представляет собой математическое ожидание от log p, то есть H(X)=M[log p(x)].
Рассмотрим свойства энтропии:
Энтропия есть величина вещественная, ограниченная и неотрицательная: Н≧0.
Это свойство следует из выражения (1.2).
Рассмотрим
одно слагаемое pklog
pk.
При изменении
pk
от нуля до единицы это положительное
вещественное слагаемое изменяется от
нуля, достигает максимума при pk=
, затем снова спадает до нуля (см.рис.1.1).
Рис.1.1. График зависимости Hk от pk
В самом деле, устремляя pk к нулю, получаем
,
если произвести
замену
то
получим следующую формулу:
то есть слагаемое
обращается в нуль, когда pk=0.
Если pk=1,
то log
pk=0
и слагаемое также равно нулю: pklog
pk=0.
Максимальное значение определим из условия:
log
pke
=0. Отсюда
pk
e
=1;
Подставим в Hk
Максимальное значение равно 0,531.
Энтропия минимальна и равна нулю, если хотя бы одно из состояний системы достоверно известно: H = Hmin = 0.
Пусть система имеет три состояния, и вероятности этих состояний будут равны: p1 = p2 = 0, p1 = 1. Тогда
Энтропия максимальна и равна логарифму числа состояний, если состояния системы равновероятны:
H=Hmax= log n (1.3)
При
Энтропия бинарных величин изменяется от 0 до 1.
Пусть p1=p; p2=(1-p); Тогда H= - plog p – (1-p) log(1-p);
При
Энтропия равна нулю, когда вероятность одного из состояний равна нулю, затем возрастает и достигает максимума при p=0.5, то есть когда p1=p2=0.5. При этом неопределенность сообщений при приеме наибольшая.
Основание логарифма может быть выражено в двоичных, десятичных или натуральных единицах. В случае оценки энтропии в двоичных единицах основание может быть опущено:
Вычисление
энтропии можно упростить, если ввести
специальную функцию η(p)=
,
тогда H(x)=Σ
η(p).
Для вычисления энтропии с помощью данной функции имеются специально составленные таблицы (см. табл. приложения 2).
