- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
2 Этапы обращения информации
Рассмотрим
рис. В.1.
Рис. В.1Основные преобразования информации при ее передаче
от источника к получателю
Источником информации может быть природа, человек, ЭВМ и т.д. С помощью преобразователя, функции которого выполняет «ПреобразовательI» (кодирующее “устройство” источника), информация преобразуется в сообщениев видеданных (символах какого-либо “языка”, алфавита). Сообщение может представлять собой результаты наблюдения естественного явления, устные или письменные фразы, последовательность двоичных символов и т.д. Часть информации может бытьнесущественна (не нужна) получателю. Допустимы также небольшиеискажения, которыеявляютсякритериемточности работыпреобразователяI (а также выбора алфавита, языка).
Источник и получатель разделены в пространстве (при передаче информации на расстояние) или во времени (при хранении информации). Система связиилиустройство хранения, способное преодолеть это разделение, называетсяканалом.
Процесс передачи или хранения информации в канале может быть основан на самых разнообразных физических принципах (электромагнитных явлениях, механических законах и т.д.). Поэтому для согласованияисточника (или преобразователя I) c каналом сообщениепреобразуется преобразователем II в сигнал той природы, на которой основана передача или хранение информации. Сигнал «несет» сообщение, содержащее информацию. После прохождения канала сигнал подвергается преобразованиям в обратном порядке с целью представления информации получателю в необходимом для его восприятия виде.
3Измерение информации
Один из интереснейших результатов исследований, полученный Шенноном и изученный его многочисленными последователями, состоит в открытии явления, которому можно дать следующую эвристическую интерпретацию: Информация, подобно жидкости, ”имеет объем, но не имеет формы”,т.е. количество информации является скалярной величиной, так же как и время, необходимое для того, чтобы жидкость, содержащаяся в большом сосуде, вылилась через трубу при заданной скорости течения, определяется отношением объема жидкости к сечению трубы, так ивремя передачи информации от источника к получателю равно отношению двух чисел, одно из которых зависит от источника и критерия точности преобразования информации в сообщение (рис.В.1), а другое определяется каналом.Первое число интерпретируется какколичество информации, заключенное в источнике, тогда как второе являетсяпропускной способностьюканала. При этом подмерой количества информации понимается то количество информации, которое необходимо в среднем для восстановления одного символа источника. Под мерой пропускной способности канала понимается среднее количество информации, которое передается в единицу времени по каналу.
Обычно, в качестве стандартного, берут простейший канал, который можно использовать для передачи информации, а именно, канал без шума с двумя входными и двумя выходными символами, например, “0” и ”1” (рис.В.2). Пропускная способность такого канала, т.е. количество информации, передаваемое посредством
g
1 1
ош
Р
ош
0 0
Р
g

Рис.В.2Модель двоичного симметричного
дискретного канала без помех
одного двоичного символа (“0” или ”1”) за единицу времени, называется 1 бит в секунду, а единица количества информации1 бит.
В соответствии с приведенными определениями для оценки количества информации, содержащейся в источнике, необходимо измерять количество информации, содержащейся в единственном выходе источника (“0” или ”1”), т.е. нужно научиться сопоставлять некоторое количество информации произвольной случайной величине.
Будем опираться на интуитивное представление о том, что наблюдение совокупности независимых случайных величин дает количество информации, равное сумме количеств информации, содержащихся в отдельных величинах. В соответствии с этим определяется энтропия(содержание информации) случайной величины как количество информации, приходящейся в среднем на один символ источника, который (источник) представляет собой последовательность независимых копий рассматриваемой случайной величины.Энтропияявляетсямерой количества неопределенности, содержащейся в этой случайной величине до ее наблюдения.
