
- •Введение Предмет и задачи информатики
- •Информация и информационные процессы Понятие информации
- •Знание как высшая форма информации
- •Показатели качества информации
- •Классификация информации по различным признакам
- •Адекватность информации
- •Измерение информации
- •Единицы измерения информации
- •Представление информации
- •Информационные процессы
- •Защита информации
- •Аппаратное обеспечение работы компьютера Основные функциональные части эвм
- •Архитектура компьютера
- •Структура персонального компьютера
- •Программное обеспечение работы компьютера
- •Системное программное обеспечение
- •Классификация ос по способам управления процессором
- •Пакеты прикладных программ (ппп)
- •Инструментарий технологии программирования
- •Процесс создания программного обеспечения для эвм
- •Компьютерные сети Основные понятия
- •Классификация компьютерных сетей
- •Процесс передачи данных в компьютерных сетях
- •Список литературы
- •153000 Г. Иваново, пр. Ф. Энгельса, 21 Оглавление
Адекватность информации
Адекватность информации – это определенный уровень соответствия образа, создаваемого при помощи информации, реальному объекту.
Формы адекватности информации:
Синтаксическая адекватность отображает формально-структурные характеристики и не затрагивает смыслового содержания (способ представления, скорость передачи и обработки и т.д.).
Семантическая адекватность определяет степень соответствия образа объекта самому объекту.
Прагматическая адекватность отражает ценность, полезность использования информации для принятия решений.
Измерение информации
В рамках курса рассматриваются 2 подхода к измерению информации: определение К. Шеннона, применяемое в математической теории информации, и определение А. Н. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров (computer science).
Согласно К. Шеннону (содержательный подход), информативность сообщения характеризуется содержащейся в нем полезной информацией.
Согласно А. Н. Колмогорову (алфавитный подход), информативность последовательности символов не зависит от содержания сообщения, а определяется минимально необходимым количеством символов для ее кодирования.
Мерами
информации являются объем данных
и количество информации I.
Беда в том, что эти параметры имеют
разные выражения и интерпретацию в
зависимости от рассматриваемой формы
адекватности.
С точки зрения синтаксической адекватности объем данных равен количеству символов, бит, слов, строк, Кбайт и т.д. Количество информации I определяется через понятие энтропии. Пусть существует система α. До получения информации потребитель что-то знал об этой системе. Энтропия Н(α) – это мера недостающей информации. Количество информации
о системе α, полученной в сообщении β, равно уменьшению неопределенности, неполноты знаний об этой системе или разности энтропий до и после получения сообщения:
.
С точки зрения семантической адекватности для измерения информации используется понятие тезауруса пользователя и коэффициента содержательности информации. Тезаурус
– совокупность сведений, которыми располагает пользователь, или способность пользователя воспринимать полученную информацию. Если
, то и
, т.к. пользователь не воспринимает информацию, не понимая ее. Если
, то , потому что пользователь все знает и не узнает ничего нового. Естественно, существует некое оптимальное, при котором максимально количество информации.
Относительная
мера количества информации с точки
зрения семантической адекватности –
коэффициент
содержательности
,
то есть количество информации
.
С точки зрения прагматической адекватности количество информации равно количеству денег, сэкономленного времени и т.п., полученных в результате использования информации.
Единицы измерения информации
За единицу измерения количества информации принимается такое количество информации, которое содержится в сообщении, уменьшающем неопределенность знания в 2 раза1. Такая единица называется бит (bit – сокращение от английских слов binary digit, что означает «двоичная цифра»). В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено – не намагничено, есть ток – нет тока, 0 – 1, истина – ложь. Последовательностью битов можно закодировать текст, изображение, звук или какую-либо другую информацию. Такой метод представления информации называется двоичным кодированием (binary encoding).
В информатике часто используется величина, называемая байтом (byte) и равная 8 битам. И если бит позволяет выбрать один вариант из двух возможных, то байт – один из 256 (28). Итак, 1 байт = 8 бит; 1 Кбайт = 210 байт = 1024 байта;
1 Мбайт = 210 Кбайт и т.д.
Рассмотрим, как подсчитать количество информации в сообщении, используя содержательный подход. Количество информации x, необходимое для устранения неопределенности из N равнозначных вариантов рассчитывается по формуле Хартли:
x=log2N.
Действительно,
если есть N
равновероятных исходов, и если 1 бит
информации уменьшает неполноту знания
вдвое, то получение 1 бита информации
определяет еще не сам искомый вариант,
а ту половину всех возможных исходов,
которой он принадлежит. Второй полученный
бит определит половину от половины
(т.е.
),
третий – половину от четверти (т.е.
)
и т.д. И вот x-й
бит, выделивший
вариантов,
указал на
один конкретный
вариант из N
возможных, т.е. выделил часть, размером
.
Значит,
,
тогда 2x
= N,
а решением этого уравнения относительно
x
является x=log2N.
При алфавитном подходе, если допустить, что все символы алфавита встречаются в тексте с одинаковой частотой (равновероятно), то количество информации x, которое несет каждый символ (информационный вес одного символа), вычисляется по формуле: x=log2N, где N – мощность алфавита (полное количество символов алфавита). В алфавите, который состоит из двух (21) символов (двоичное кодирование), каждый символ несет 1 бит информации. Один символ из алфавита мощностью 256 (28) несет в тексте 8 битов (1 байт) информации1. Если весь текст состоит из K символов, то при алфавитном подходе размер содержащейся в нем информации I определяется по формуле:
I = K*x,
где x – информационный вес одного символа в алфавите.
При вероятностном подходе количественная зависимость между вероятностью события р и количеством информации в сообщении о нем x выражается формулой Шеннона:
x=log2 (1/p).
Чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии. Если же события равновероятны, т.е. p=1/N, формула Шеннона превращается в формулу Хартли.