Информация (от лат. informatio, разъяснение, изложение, осведомленность) — любые сведения и данные, отражающие свойства объектов в природных, социальных и технических системах и передаваемые звуковым, графическим (в т. ч. письменным) или иным способом без применения или с применением технических средств.
Классификация информации
Информацию можно разделить на виды по различным критериям:
1. по способу восприятия:
-
Визуальная — воспринимаемая органами зрения.
-
Аудиальная — воспринимаемая органами слуха.
-
Тактильная — воспринимаемая тактильными рецепторами.
-
Обонятельная — воспринимаемая обонятельными рецепторами.
-
Вкусовая — воспринимаемая вкусовыми рецепторами.
2. по форме представления:
-
Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
-
Числовая — в виде цифр и знаков, обозначающих математические действия.
-
Графическая — в виде изображений, предметов, графиков.
-
Звуковая — устная или в виде записи и передачи лексем языка.
3. по назначению:
-
Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
-
Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
-
Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
-
Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.
4. по значению:
-
Актуальная — информация, ценная в данный момент времени.
-
Достоверная — информация, полученная без искажений.
-
Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.
-
Полная — информация, достаточная для принятия правильного решения или понимания.
-
Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.
5. по истинности:
-
истинная
-
ложная
Информация обладает следующими свойствами:
-
достоверность
Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация обладает свойством устаревать, т. е. перестает отражать истинное положение дел.
-
полнота
Информация полна, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.
-
точность
Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления.
-
ценность
Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.
-
своевременность
Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.
-
понятность
Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.
-
доступность
Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.
-
краткость
Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозможных инструкциях.
Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений. Это позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2i (формула Хартли). Иногда записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность p = 1 / N, то N = 1 / p и формула имеет вид I = log2 (1/p) = - log2 p
Если события неравновероятные, то: hi = log2 1/pi = - log2 pi,
где pi - вероятность появления в сообщении i-го символа алфавита. Удобнее в качестве меры количества информации пользоваться не значением hi , а средним значением количества информации, приходящейся на один символ алфавита H = S pi hi = - S pi log2 pi
Значение Н достигает максимума при равновероятных событиях, то есть при равенстве всех pi pi = 1 / N
В этом случае формула Шеннона превращается в формулу Хартли.
За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом.
Минимальной единицей измерения количества информации является бит, а следующей по величине единицей - байт, причем:
1 байт = 8 битов = 23 битов.
В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам "Кило" (103), "Мега" (106), "Гига" (109) и т. д.
В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2n
Так, кратные байту единицы измерения количества информации вводятся следующим образом:
1 килобайт (Кбайт) = 210 байт = 1024 байт;
1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт;
1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт.
Количество информации в сообщении. Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации.
Если знаки несут одинаковое количество информации, то количество информации Ic в сообщении можно подсчитать, умножив количество информации Iз, которое несет один знак, на длину кода (количество знаков в сообщении) К:
Ic = Iз K
Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры - в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода
|
|||||
Двоичный компьютерный код |
1 |
0 |
1 |
0 |
1 |
Количество информации |
1 бит |
1 бит |
1 бит |
1 бит |
1 бит |
Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.
Энтропия стала использоваться как мера полезной информации в процессах передачи сигналов по проводам. Под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. Если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии. Отсутствие шума означает максимум информации. Взаимосвязь энтропии и информации нашло отражение в формуле: H + Y = 1
где Н – энтропия, Y – информация. Этот вывод количественно был обоснован Бриллюэном .
Для расчета энтропии Шеннон предложил уравнение, напоминающее классическое выражение энтропии, найденное Больцманом. H = ∑Pi log2 1/Pi = -∑Pi log2 Pi,
где Н – энтропия Шеннона, Pi - вероятность некоторого события.
Информационная двоичная энтропия для независимых случайных событий с возможными состояниями (от до , — функция вероятности) рассчитывается по формуле:
Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только -e состояние.
Таким образом, энтропия события является суммой с противоположным знаком всех произведений относительных частот появления события , умноженных на их же двоичные логарифмы. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.