
Свойства информации
Информация обладает рядом свойств, характерных для любой ее формы.
Свойства информации можно рассматривать в трех аспектах:
техническом – это точность, надежность, скорость передачи сигналов и т.д.;
семантическом – это передача смысла текста с помощью кодов;
прагматическом – это насколько эффективно информация влияет на поведение объекта.
Свойства характеризуют информацию по ценности, полезности, полноте, истинности и ясности.
Ценность информации может определяться различными факторами. Так, информация ценна, если актуальна, т.е. важна и существенна для данного времени. Ценной является информация, представленная вовремя и тому, кто в ней нуждается.
Информация полезна, если уменьшает неопределенность знаний о чем-либо, обеспечивает своевременность принятия конкретного решения или конкретного действия.
Целевая функция информации (ее прагматический аспект) характеризуется способностью влиять на процессы управления, на соответствующее целям управления поведение людей. В этом, по существу, и состоит полезность и ценность информации.
Полнота информации характеризуется избыточностью, достаточностью и недостаточностью.
Избыточной называется информация, которая либо дублирует уже имеющуюся полезную информацию, либо включает часть неиспользуемой информации. Применительно к системам обработки данных на ЭВМ избыточную информацию часто называют "информационными шумами".
Приемы развернутого (избыточного) изложения материала используется, например, на лекциях с целью оптимизации восприятия аудиторией сущности сложных понятий.
Достаточной информацией считается минимальный необходимый объем информации, который позволяет выполнить, если не оптимально, то хотя бы рационально то или иное действие, ту или иную работу.
Недостаточной является информация, использование которой не обеспечивает возможность решения той или иной задачи.
По истинности информация может быть достоверной (истинной), недостоверной (не истинной) или вероятностной. Достоверная информация объективно отражает положение дел. Недостоверная информация ложна в силу непреднамеренных или преднамеренных действий. В первом случае причинами искажения информации могут быть технические неполадки средств обработки данных, низкая квалификация работников и т.п. Свойство вероятности информации возникает при отсутствии методик для однозначного решения проблемы.
Ясность является важным свойством информации. Если ценная и актуальная информация выражена непонятными словами, непонятными символами, то она может оказаться бесполезной, так как воспользоваться ею человек не сможет. Наоборот, если даже сложная информация представлена ясно и понятно, то такая информация будет способствовать скорейшему ее уяснению и использованию.
Измерение информации. Математическое понятие информации
Информация, используемая человеком, очень часто нуждается в измерении, в определении ее количества. Так вот математическое понятие информации как раз и связано с ее измерением.
В теории информации принят энтропийный подход, который устанавливает ценность информации, содержащейся в сообщении для его получателя, и исходит из следующей модели. Получатель сообщения имеет представление о возможности наступления некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности, называемая энтропией, характеризуется некоторой математической зависимостью от совокупности этих вероятностей.
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. (Эта мера неопределенности в теории информации и есть энтропия.) Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).
Информация всегда имеет конкретное смысловое значение, которое связано с ее потребителем (в том числе потенциальным). Другими словами, субъективные характеристики потребителя информации определяют количество полезной (семантической) информации, и в одном и том же сообщении для разных потребителей будет содержаться различное количество информации.
В то же время с точки зрения статистических характеристик информация имеет количественную меру, абстрагированную от ее смысла играющую важную роль при оценке (измерении) объемов информации в различных сферах ее применения.
С некоторой условностью единицы измерения информации можно разделить на две группы: немашинные и машинные.
Немашинные измерители позволяют представить количество информации с помощью, например, количества форм документов, количества показателей, количества слов и т.д.
Чтобы получить представление о количестве информации в книге, переводимой с иностранного языка на русский, обычно подсчитывают общее количество знаков на одной странице. Для представления объема информации, который приходится перерабатывать бухгалтеру, можно подсчитать количество документов, поступающих к нему из цехов и отделов, и т.д.
Однако такие единицы количества информации не позволяют представить ее нам с позиций возможностей ЭВМ. Поэтому в технике часто используют более простой и грубый объемный способ измерения информации. Он основан на подсчете числа символов в сообщении, т.е. связан с длиной сообщения и не учитывает его содержания. Объемы информации, подлежащие обработке, оказывают значительное влияние на выбор методов и технических средств обработки, трудоемкость процесса перевода решения задач на ЭВМ. Забегая вперед, надо отметить, что и оперативная и внешняя память современных компьютеров хотя и может достигать колоссальных размеров, имеет предел. Это значит, что, обрабатывая на машине информацию, следует соизмерять ее объемы с объемами машинной памяти.
Сделать это позволяют машинные единицы измерения информации. Количество информации в ЭВМ принято измерять в битах.
Бит – это минимальная единица количества информации в ЭВМ, принимающая значение 0 или 1(или равная одному двоичному разряду).
Определенное количество бит составляет размер других единиц.
Группа из 8 битов информации называется байтом. Если бит –минимальная единица информации, то байт – ее основная единица. С помощью одного байта можно представить любую букву алфавита, цифру и специальный символ (.,:;+ –< > и т.д. ), т.е. в одном байте можно кодировать один символ из 256 возможных на ЭВМ.
Для измерения количества информации используются и более крупные единицы:
1 машинное слово = 4 байт = 32 бит;
1 Кбайт (килобайт) = 2'°байт = 1024 байт;
1 Мбайт (мегабайт) =2'° Кбайт = 1024 Кбайт;
1 Гбайт (гигабайт) = 210 Мбайт = 1024Мбайт. Эти единицы чаще всего используются для указания объема памяти компьютера.