Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Метод_пособ_Низов.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
307.2 Кб
Скачать

3 Подход. Измерение информации в технике, или объемный.

На практике, в технике связи под информацией принято понимать любую последовательность сигналов, которая хранится, передается или обрабатывается с помощью технических средств. Чаще всего эта информация представлена в знаковой, или как мы уже отмечали, языковой форме, в виде текста или звукового сообщения. Как же оценить объем получаемой информации в соответствии с введенной единицей? Поступают следующим образом. Для каждого конкретного языка определен свой алфавит. Для текста это может быть набор букв, устной речи - набор звуков, а вообще, совокупность знаков любой природы. Пусть количество знаков алфавита равняется N. Допустим, что их появление в сообщении равновероятно, на практике это не так, но мы упрощаем картину ради простоты понимания. Тогда один символ алфавита несет N информации. Если в тексте содержится K символов, общее количество информации, содержащейся в нем равно K N. Все достаточно просто!

Рассмотрим пример. В русском языке алфавит содержит 33 символа, добавим сюда знаки препинания, пробел, десять цифр, итого 54 знака. Значит, один символ несет 54=5.755 бит информации. В этом примере мы предположили, что все символы алфавита появляются в тексте с одинаковой вероятностью, что на самом деле является упрощением.

Пример. Ребята из кружка информатики послали письмо членам кружка математики. В этом письме содержалось 154 символа. Какое количество информации содержит письмо, если в алфавите, придуманном и использованном «информатиками», было лишь 10 знаков.

Подсчитаем информационную ценность одного символа, используя формулу Хартли. Для этого обозначим количество информации, приходящееся на один символ алфавита буквой М, тогда М = =3.322 (бит). Общее количество информации К в письме равняется

К=154М=1543.322=511.577 (бит)]

Алфавит компьютера содержит 256 символов, заметим 256=2 . Сделано это для того, чтобы иметь возможность вводить тексты на разных языках, вводить математические символы, специальные символы. Тогда каждый символ этого алфавита дает 8 бит. Это количество информации получило свое название - байт. В байтах легко подсчитывать объем информации в любом тексте, достаточно подсчитать число символов.

Более крупными единицами являются:

  1. килобайт - 1 Кбайт = 2 байт = 1024 байт;

  2. мегабайт - 1 Мбайт = 2 Кбайт = 1024 Кбайт;

  3. гигабайт - 1 Гбайт = 2 Мбайт = 1024Мбайт.

Вспомним, что каждому символу компьютерного алфавита соответствует двоичный код. Для нашего случая это 8-и разрядный двоичный код [существуют и 16-и разрядные коды]. И совпадение это не случайное - разрядность двоичного кода равна его информационной емкости. Действительно, т. к. знаков в двоичном алфавите только 2, по формуле Хартли выходит, что I = log 2 2 равняется единице, а это значит, что, сколько знаков в двоичном коде, столько информации он и несет.

Пример. Сигнальный прожектор с корабля в ночное время передает сообщения в виде коротких и длинных вспышек. Буква Ъ передается последовательностью, содержащей три коротких и три длинных вспышки. Сколько бит информации несет такое сообщение?

Решение. Фактически алфавит прожектора является двоичным, т. к. параметр сигнала принимает лишь два значения. Значит, разрядность двоичного кода равна его информационной емкости. В этом случае разрядность есть число вспышек. Поскольку последовательность вспышек состоит из 6 сигналов (3+3), то количество переданной информации равняется 6 бит.