
Информация. Количество информации. Единицы измерения количества информации.
Понятие информации
Познавая окружающий мир, мы постоянно узнаём что – то новое о нём, иными словами – получаем информацию. В переводе с латинского языка слово информация означает « разъяснение, изложение, сведения».
Понятие информации по разному определяется в различных науках. В журналистике под информацией понимают сообщения, обладающие новизной. В технике связи – любую последовательность сигналов, которая хранится, передаётся или обрабатывается с помощью технических средств, не учитывая смысл этих сигналов. В теории информации - это сведения, которые снимают полностью или уменьшают существующую до их получения неопределённость. В кибернетике ( теории управления) под информацией понимают ту часть знаний , которая используется для ориентирования, активного действия, управления, то есть в целях сохранения, совершенствования, развития системы. Интересное определение даёт философия: « Информация – это отражённое многообразие» . В информатике же информацию рассматривают как продукт взаимодействия данных и методов их обработки, адекватных решаемой задаче.
Виды информации
Существует несколько различных способов классификации информации. В таблице 1 представлена классификация по способу восприятия, по степени значимости и по форме представления.
Вид классификации |
Классификация |
|
По способу восприятия |
|
|
По степени значимости |
Личная |
|
Специальная |
|
|
Общественная |
|
|
По форме представления |
|
Таблица 1
Свойства информации
Свойства информации представлены в таблице 2.
Объективность |
Информация объективна, если она не зависит от чьего – то мнения или суждения. |
Достоверность |
Информация достоверна, если она отражает истинное положение дел. |
Полнота |
Информация полна, если её достаточно для понимания и принятия решения. |
Актуальность |
Информация актуальна ( своевременна) , если она важна существенна для настоящего времени. |
Полезность |
Полезность информации оценивается по тем задачам, которые мы можем решить с её помощью. |
Понятность |
Информация понятна, если она выражена на языке, доступном для получателя |
Количество информации
В теории информации за единицу количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределённость знания в 2 раза. Такая единица называется бит.
В качестве примера рассмотрим игру « орёл или решка». На ровную поверхность бросают монету. С равной вероятностью монета окажется в одном из двух положений: «орёл» или «решка». Перед броском существует неопределённость нашего знания (возможны два события), и как упадёт монета предсказать невозможно. После броска наступает полная определённость, так как мы видим какой стороной упала монета. Это сообщение приводит к уменьшению неопределённости нашего знания ровно в два раза , так как из двух возможных равновероятных событий реализовалось одно. Следовательно, полученное в результате этого опыта количество информации равно 1 биту.
В вычислительной технике за единицу информации принимают наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" или "1", и такую единицу, также, называют бит.
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Широко используются также ещё более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт
Подход к информации как мере уменьшения неопределённости знания позволяет количественно измерять информацию. В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула связывает число равновероятных событий N с количеством бит информации I в сообщении о том, что любое из этих N событий произошло, и имеет следующий вид:
N = 2I или I=log2N
В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями. Если I - количество информации, N - количество возможных событий, а рi - вероятности отдельных событий, то количество информации для событий с различными вероятностями можно определить по формуле:
I = - Sum (рi * log2 рi), где i принимает значения от 1 до N.
В случае равновероятных событий рi= 1/N, и формулу Хартли можно рассматривать как частный случай формулы Шеннона:
I = - Sum (1 / N *log2 (1 / N) ) = log2 N.
При равновероятных событиях получаемое количество информации максимально.