- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
Министерство образования и науки Российской Федерации
ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ
ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ
“Самарский государственный Аэрокосмический
университет имени академика С.П. Королева”
А. С. Овсянников, А. А. Ямович
ТЕОРИЯ ИНФОРМАЦИИ
Самара 2005
Министерство образования и науки Российской Федерации
ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ
ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ
“Самарский государственный Аэрокосмический
университет имени академика С.П. Королева”
А. С. Овсянников, А. А. Ямович
ТЕОРИЯ ИНФОРМАЦИИ
Учебное пособие
Самара 2005
УДК 681.323
Овсянников А.С., Ямович А.А. Теория информации: Учеб. пособие. Самар. гос. аэрокосм.ун-т.; Самара, 2005. 131 с.
ISBN 5-9585-0027-9
Учебное пособие посвящено теоретическим основам информационных процес-сов, протекающих в современных автоматизированных информационных системах и вычислительных сетях. Рассмотрены вопросы оценки количества информации источников, кодирования сообщений источников информации, помехоустойчивого кодирования. Приведены основные сведения о моделях аналоговых и дискретных каналов связи.
Пособие предназначено для студентов заочного факультета, обучающихся по специальности 22.02.00. “Автоматизированные системы обработки информации и управления”. Может быть рекомендовано для других ВУЗов, осуществляющих подготовку специалистов по этой и смежным специальностям по очной и заочной формам обучения.
Разработано на кафедре информационных систем и технологий СГАУ. Введение, главы 3 и 4 написаны Овсянниковым А.С. . Главы 1 и 2 написаны Ямовичем А.А.
Печатается по решению редакционно-издательского совета Самарского государствен-ного аэрокосмического универсистета
Рецензенты: д.т.н., проф. А.И. Жданов
д.т.н., проф. С.А.Пиявский
ISBN 5-9585-0027-9 Самарский государственный аэрокосмический университет
Введение
Теория информации- одна из немногих наук, год рождения которой можно указать точно1948публикация статьи основоположника этой науки Клода Шеннона “Математическая теория связи”. Возраст довольно приличный для человеческих мерок. Поэтому сейчас можно уверенно утверждать, что областью применения теории информации являются задачи обработки, передачи, представления и хранения информации в сосредоточенных и распределённых информационных системах и сетях.
Понятие информации тесно связано с такими понятиями как “информационный процесс” и “информационная система”.
Целью книги является анализ информационных процессов, протекающих в информационных системах различного назначения, в частности, телекоммуникацион-ных информационных системах, а также изучение основ телекоммуникационных систем.
1 Определение информации
Формирование понятия «Информация» имеет много различных подходов, из них количественный - предмет нашего изучения - самый фундаментальный.
На интуитивном уровне информации можно дать следующее определение:
Информация - это некие предопределенные сведения, содержащиеся в каких-то данных, схемах, объектах, необходимые для определенной цели.
Информация - характеристика внутренней организованности материальной сис-темы (по множеству состояний, которые она может принимать).
Информация существует независимо от того, воспринимается она или нет, но проявляетсяона только при взаимодействии объектов.
Пример.Телефонная книгасодержитинформацию о номерах телефонов организаций и граждан города. Но информация о номере телефона конкретного человекапроявляется(появляется) только тогда, когда вы по фамилии, имени и отчеству (может быть по адресу) нашли этот номер телефона.
Таким образом, информация - потенциальное свойствообъектов реального мира.
Н.Винер (основоположник вычислительной техники) считал, что «Информация- это информация, а не материя и не энергия». В отличие от них (которые переходят друг в друга) она может толькоисчезатьипоявляться.
Пример. В куске каменного угля содержится информация о давно прошедших временных событиях. Она исчезнет, если сгорит этот уголь.
Существует точка зрения, что информация- третья равноправнаясубстанция, наряду сматериейи энергией, существует объективно и переходит из одного состояния в другое.
Бесспорно одно: информацияможет быть представлена (проявлена) путем кодирования ее символами какого-либо алфавита, т.е. осуществится ее переход всообщение. При таком переходе часть информации теряется, так каксообщение есть одна реализацияиз бесчисленного множествареализаций информации. Из бесконеч-ности информации следует то, что с 48го года (как она изучается) нет точного метода количественного измерения информации.
