- •Введение Предмет и задачи информатики
- •Информация и информационные процессы Понятие информации
- •Знание как высшая форма информации
- •Показатели качества информации
- •Классификация информации по различным признакам
- •Адекватность информации
- •Измерение информации
- •Единицы измерения информации
- •Представление информации
- •Информационные процессы
- •Защита информации
- •Аппаратное обеспечение работы компьютера Основные функциональные части эвм
- •Архитектура компьютера
- •Структура персонального компьютера
- •Программное обеспечение работы компьютера
- •Системное программное обеспечение
- •Классификация ос по способам управления процессором
- •Пакеты прикладных программ (ппп)
- •Инструментарий технологии программирования
- •Процесс создания программного обеспечения для эвм
- •Компьютерные сети Основные понятия
- •Классификация компьютерных сетей
- •Процесс передачи данных в компьютерных сетях
- •Список литературы
- •153000 Г. Иваново, пр. Ф. Энгельса, 21 Оглавление
Адекватность информации
Адекватность информации – это определенный уровень соответствия образа, создаваемого при помощи информации, реальному объекту.
Формы адекватности информации:
Синтаксическая адекватность отображает формально-структурные характеристики и не затрагивает смыслового содержания (способ представления, скорость передачи и обработки и т.д.).
Семантическая адекватность определяет степень соответствия образа объекта самому объекту.
Прагматическая адекватность отражает ценность, полезность использования информации для принятия решений.
Измерение информации
В рамках курса рассматриваются 2 подхода к измерению информации: определение К. Шеннона, применяемое в математической теории информации, и определение А. Н. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров (computer science).
Согласно К. Шеннону (содержательный подход), информативность сообщения характеризуется содержащейся в нем полезной информацией.
Согласно А. Н. Колмогорову (алфавитный подход), информативность последовательности символов не зависит от содержания сообщения, а определяется минимально необходимым количеством символов для ее кодирования.
Мерами информации являются объем данных и количество информации I. Беда в том, что эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности.
С точки зрения синтаксической адекватности объем данных равен количеству символов, бит, слов, строк, Кбайт и т.д. Количество информации I определяется через понятие энтропии. Пусть существует система α. До получения информации потребитель что-то знал об этой системе. Энтропия Н(α) – это мера недостающей информации. Количество информации о системе α, полученной в сообщении β, равно уменьшению неопределенности, неполноты знаний об этой системе или разности энтропий до и после получения сообщения: .
С точки зрения семантической адекватности для измерения информации используется понятие тезауруса пользователя и коэффициента содержательности информации. Тезаурус – совокупность сведений, которыми располагает пользователь, или способность пользователя воспринимать полученную информацию. Если , то и , т.к. пользователь не воспринимает информацию, не понимая ее. Если , то , потому что пользователь все знает и не узнает ничего нового. Естественно, существует некое оптимальное, при котором максимально количество информации.
Относительная мера количества информации с точки зрения семантической адекватности – коэффициент содержательности , то есть количество информации .
С точки зрения прагматической адекватности количество информации равно количеству денег, сэкономленного времени и т.п., полученных в результате использования информации.
Единицы измерения информации
За единицу измерения количества информации принимается такое количество информации, которое содержится в сообщении, уменьшающем неопределенность знания в 2 раза1. Такая единица называется бит (bit – сокращение от английских слов binary digit, что означает «двоичная цифра»). В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено – не намагничено, есть ток – нет тока, 0 – 1, истина – ложь. Последовательностью битов можно закодировать текст, изображение, звук или какую-либо другую информацию. Такой метод представления информации называется двоичным кодированием (binary encoding).
В информатике часто используется величина, называемая байтом (byte) и равная 8 битам. И если бит позволяет выбрать один вариант из двух возможных, то байт – один из 256 (28). Итак, 1 байт = 8 бит; 1 Кбайт = 210 байт = 1024 байта;
1 Мбайт = 210 Кбайт и т.д.
Рассмотрим, как подсчитать количество информации в сообщении, используя содержательный подход. Количество информации x, необходимое для устранения неопределенности из N равнозначных вариантов рассчитывается по формуле Хартли:
x=log2N.
Действительно, если есть N равновероятных исходов, и если 1 бит информации уменьшает неполноту знания вдвое, то получение 1 бита информации определяет еще не сам искомый вариант, а ту половину всех возможных исходов, которой он принадлежит. Второй полученный бит определит половину от половины (т.е. ), третий – половину от четверти (т.е. ) и т.д. И вот x-й бит, выделивший вариантов, указал на один конкретный вариант из N возможных, т.е. выделил часть, размером . Значит, , тогда 2x = N, а решением этого уравнения относительно x является x=log2N.
При алфавитном подходе, если допустить, что все символы алфавита встречаются в тексте с одинаковой частотой (равновероятно), то количество информации x, которое несет каждый символ (информационный вес одного символа), вычисляется по формуле: x=log2N, где N – мощность алфавита (полное количество символов алфавита). В алфавите, который состоит из двух (21) символов (двоичное кодирование), каждый символ несет 1 бит информации. Один символ из алфавита мощностью 256 (28) несет в тексте 8 битов (1 байт) информации1. Если весь текст состоит из K символов, то при алфавитном подходе размер содержащейся в нем информации I определяется по формуле:
I = K*x,
где x – информационный вес одного символа в алфавите.
При вероятностном подходе количественная зависимость между вероятностью события р и количеством информации в сообщении о нем x выражается формулой Шеннона:
x=log2 (1/p).
Чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии. Если же события равновероятны, т.е. p=1/N, формула Шеннона превращается в формулу Хартли.