
- •О.Т.Данилова Теория информации
- •Введение
- •Глава 1. Основные понятия теории информации
- •1.1. Свойства информации
- •1.2. Этапы обращения информации
- •1.3. Определение системы передачи информации. Каналы связи.
- •1.4. Алфавит сообщения
- •1.5. Источник информации
- •Глава 2. Количество информации
- •2.1. Объемный подход к измерению информации
- •2.2. Количественная мера информации р.Хартли
- •2.3. Мера информации к. Шеннона
- •2.4. Условная собственная информация. Взаимная информация
- •1 (Бит), где m – мощность алфавита.
- •Глава 3. Энтропия дискретной последовательности. Энтропия непрерывной случайной величины
- •3.1. Частная энтропия
- •Прологарифмировав последнее равенство, получим
- •3.2. Энропия типичных и нетипичных комбинаций
- •3.3. Условная энтропия
- •3.4. Энтропия объединения ансамблей
- •3.5. Канальные матрицы
- •3.6. Количество информации при неполной достоверности и статистической зависимости сообщений
- •3.7. Избыточность источника
- •3.8. Энтропия непрерывной случайной величины
- •3.9. Количество информации для непрерывных систем
- •3.10. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (3.7) в (3.4):
- •3.11. Эпсилон энтропия
- •Глава 4. Общие сведения из теории сигналов
- •4.1. Классификация сигналов и систем
- •Характеристики сигналов передаваемых по каналу
- •4.3. Модуляция сигналов. Виды и характеристики носителей
- •4.4. Спектры сигналов
- •4.5. Тригонометрическая форма
- •4.6. Комплексная форма
- •4.7. Определение погрешности
- •Глава 5. Скорость передачи и пропускная способность канала связи
- •5.1. Скорость передачи информации в дискретной системе связи
- •5.2. Пропускная способность однородного симметричного канала связи
- •5.3. Пропускная способность непрерывного канала связи
- •5.4. Обмен мощности сигнала на ширину его спектра
- •5.5. Сравнение пропускной способности непрерывного и дискретного каналов связи.
- •5.6. Эффективность систем связи
- •Глава 6. Критерии описания реальных дискретных каналов
- •6.1. Описание источника ошибок на основе цепей Маркова
- •6.2. Описание источника ошибок на основе процессов восстановления
- •6.3. Описание источника ошибок на основе процессов накопления
- •6.4. Модель Гилберта
- •6.5. Модель Эллиота-Гилберта. Модель Элиота
- •6.6. Модель Беннета-Фройлиха
- •6.7. Модель Попова - Турина
- •Глава 7. Кодирование информации
- •7.1. Статистическое кодирование дискретных сообщений
- •7.2. Статистическое кодирование кодовых слов
- •Средняя длина кодового слова
- •7.3. Кодирование информации для канала с помехами
- •7.3. Разновидности помехоустойчивых кодов
- •7.4 Общие принципы использования избыточности
- •7.5. Связь корректирующей способности кода с кодовым расстоянием
- •7.6. Понятие качества корректирующего кода
- •7.7. Линейные коды
- •7.7. Математическое введение к линейным кодам
- •7.8. Линейный код как пространство линейного векторного пространства
- •7.9. Построение двоичного группового кода
- •7.10. Составление таблицы опознавателей
- •7.11. Определение проверочных равенств
- •7.12. Мажоритарное декодирование групповых кодов
- •7.13. Матричное представление линейных кодов
- •7.14. Построение циклических кодов
- •Математическое введение к циклическим кодам
- •7.17. Обнаружение одиночных ошибок
- •Исправление одиночных или обнаружение двойных ошибок
- •7.18. Обнаружение ошибок кратности три и ниже
- •7.19. Обнаружение и исправление независимых ошибок произвольной кратности
- •7.20. Методы образования циклического кода
- •7.21. Матричная запись циклического кода
- •7.22. Укороченные циклические коды
- •Глава 8. Сжатие информации
- •8.1. Основные понятия
- •8.2. Методы сжатия без потерь
- •8.3. Методы сжатия с потерями
- •8.4. Сжатие графики
- •Прямое дкп
- •8.5. Сжатие звука
- •8.6. Сжатие видеоинформации
- •Вопросы для самопроверки
- •Список литературы
Глава 2. Количество информации
2.1. Объемный подход к измерению информации
В технике, где информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, сигналов, часто используют простой способ определения количества информации, который может быть назван объемным. Он основан наподсчете числа символов в сообщении, то есть связан только с длиной сообщения и не учитывает его содержания.
Если используются дискретные сигналы, характеризуемые длиной сообщения m и основанием системы счисления K (как правило, K = 2), то должно выполняться условие:
,
где M – число сообщений.
Если весь текст состоит из N символов, то при таком подходе размер содержащейся в нем информации равен:
I = N m. |
(2.1.) |
Можно
прийти к заключению, что
–
количество информации. Казалось
бы, искомая мера количества информации
найдена. Ее можно понимать как меру
неопределенности исхода опыта, если
под опытом подразумевать случайный
выбор какого-либо сообщения из некоторого
числа возможных. Однако эта мера не
совсем удобна. При наличии алфавита,
состоящего из одного символа возможно
появление только этого символа.
Следовательно, неопределенности в этом
случае не существует, и появление этого
символа не несет никакой информации. Итакая мера неудобна для
практического использования, так как
не удовлетворяет условию аддитивности.
Следует различать понятия “количество информации” и “объем информации”. Количество информации вычисляется относительно первичного алфавита, а объем информации относительно вторичного алфавита. Количество информации зависти от вероятностных характеристик первичного алфавита, а объем зависит от длины сообщения во вторичном алфавите.
Пример 2.1. С помощью некоторого алфавита записано сообщение, содержащее 2048 символов, его объем составляет 1,25 Кбайта. Какова мощность этого алфавита (т.е. сколько в алфавите символов)?
Решение. 1. Переведем информационный объем сообщения в биты:
Iобщ = 1,25 Кбайта*1024 = 1 280 байт=1 280 байт*8 = 10 240 бит
2. Определим I — количество бит информации, приходящееся на один символ:
I = 10 240 бит : 2 048 = 5 бит
3. Определим N — количество символов в алфавите:
N = 2I = 25 = 32.
Ответ. В алфавите 32 символа.
Пример 2.2. Текст составлен с использованием алфавита мощностью 64 символа и содержит 100 символов. Каков информационный объем текста?
Решение. Мощность алфавита N = 64, количество символов в тексте K = 100, I - ?
N = 2i откуда i = 6 бит, т. к. 64 = 26
I = K*i откуда I = 100 * 6 = 600 бит = 75 байт
Ответ: информационный объем текста 75 байт
Пример 2.3. Книга, набранная с помощью компьютера, содержит 150 страниц; на каждой странице – 40 строк, в каждой строке – 60 символов. Каков объем информации в книге?
Решение. Мощность компьютерного алфавита равна 256. Один символ несет 1 байт информации. Значит, страница содержит 40 х 60 = 2400 байт информации. Объем всей информации в книге (в разных единицах):
2400 х 150 = 360 000 байт.
360000/1024 = 351,5625 Кбайт.
351,5625/1024 = 0,34332275 Мбайт.
Пример 2.4.Два текста содержат одинаковое количество символов. Первый текст записан на русском языке, а второй на языке племени нагури, алфавит которого состоит из 16 символов. Чей текст несет большее количество информации?
Решение.Информационный объем текста равен произведению числа символов на информационный вес одного символа
I = К * а.
Так как оба текста имеют одинаковое число символов (К), то разница зависит от информативности одного символа алфавита (а).
2а1= 32, т.е. а1 = 5 бит; 2а2= 16, т.е. а2 = 4 бит. I1 = К * 5 бит, I2 = К * 4 бит.
Значит, текст, записанный на русском языке в 5/4 раза несет больше информации.
Пример 2.5.Подсчитать, сколько места будет занимать одна минута цифрового звука на жестком диске или любом другом цифровом носителе, записанного с частотой а) 44.1 кГц; б) 11 кГц; в) 22 кГц; г) 32 кГц и разрядностью 16 бит.
Решение.а) Если записывают моносигнал с частотой 44.1 кГц, разрядностью 16 бит (2 байта), то каждую минуту аналого-цифровой преобразователь будет выдавать 441000 * 2 * 60 = 529000 байт (примерно 5 Мб) данных об амплитуде аналогового сигнала, который в компьютере записываются на жесткий диск.
Если записывают стереосигнал, то 1058000 байт (около 10 Мб).
б) для частот 11, 22, 32 кГц расчеты производятся аналогично.
Пример 2.6. Какой информационный объем имеет моноаудиофайл, длительность звучания которого 1 секунда, при среднем качестве звука (16 бит, 24 кГц)?
Решение.16 бит * 24000 = 384000 бит = 48000 байт = 47 кБайт.
Пример 2.7. Рассчитайте объем стереоаудиофайла длительностью 20 секунд при 20-битном кодировании и частоте 44.1 кГц.
Решение.20 бит * 20 * 44100 * 2 = 35280000 бит = 4410000 байт = 4.41 Мб.
Пример 2.8. Вычислить какой объем памяти компьютера потребуется для хранения одной страницы текста на английском языке, содержащей 2400 символов.
Решение. Мощность английского алфавита, включая разделительные знаки, N = 32. Тогда для хранения такой страницы текста в компьютере понадобится 2400 log2 32 бит = 2400 • 5 =12000 бит = 1500 байт.
Пример 2.9. Оперативная память компьютера содержит 163 840 машинных слов (наибольшую последовательность бит, которую процессор может обрабатывать как единое целое), что составляет 0,625 Мбайт. Сколько бит содержит каждое машинное слово?
Решение. 1. Переведем 0,625 Мбайт в биты: 0,625 (Мбайт) = 0,625 х 210 (Кбайт) = 0,625 х 210 х 210 (байт) = 0,625 х 210 х 210 х 23(бит) = 0,625 х 223 (бит) =0,625 х 8 388 608 (бит) = 5 242 880 (бит).
2. Разделим объем оперативной памяти на количество машинных слов:
5 242 880 (бит) / 163 840 (машинных слов) = 32 (бит).
Пример 2.10. На диске объемом 100 Мбайт подготовлена к выдаче на экран дисплея информация: 24 строчки по 80 символов, эта информация заполняет экран целиком. Какую часть диска она занимает?
Решение. Код одного символа занимает 1 байт.
24*80=1920 (байт).
Объем диска 100*1024*1024 байт = 104857600 байт.
1920/104857600=0,000018 (часть диска).
Пример 2.11.Графическое 16 цветное изображение имеет размер 256 пикселей на 200 пикселей. Какое место в памяти оно занимает?
Решение. Для представления 16 цветного изображения требуется log 2 16 = 4 бита, следовательно, цвет пикселя кодируется 4 битами. Размер изображения 256 на 200, значит количество информации в картинке 256 * 200 * 4 = 204 800 байт = 200 Kбайт.
Ответ: изображение занимает в памяти 200 килобайт.