Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика / Лекция 2 Понятие информации, виды информации.doc
Скачиваний:
139
Добавлен:
31.05.2015
Размер:
168.45 Кб
Скачать

Информация (от лат. informatio, разъяснение, изложение, осведомленность) — любые сведения и данные, отражающие свойства объектов в природных, социальных и технических системах и передаваемые звуковым, графическим (в т. ч. письменным) или иным способом без применения или с применением технических средств.

Классификация информации

Информацию можно разделить на виды по различным критериям:

1. по способу восприятия:

  • Визуальная — воспринимаемая органами зрения.

  • Аудиальная — воспринимаемая органами слуха.

  • Тактильная — воспринимаемая тактильными рецепторами.

  • Обонятельная — воспринимаемая обонятельными рецепторами.

  • Вкусовая — воспринимаемая вкусовыми рецепторами.

2. по форме представления:

  • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.

  • Числовая — в виде цифр и знаков, обозначающих математические действия.

  • Графическая — в виде изображений, предметов, графиков.

  • Звуковая — устная или в виде записи и передачи лексем языка.

3. по назначению:

  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.

  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

  • Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

  • Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

4. по значению:

  • Актуальная — информация, ценная в данный момент времени.

  • Достоверная — информация, полученная без искажений.

  • Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.

  • Полная — информация, достаточная для принятия правильного решения или понимания.

  • Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

5. по истинности:

  • истинная

  • ложная

Информация обладает следующими свойствами:

  1. достоверность 

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация обладает свойством устаревать, т. е. переста­ет отражать истинное положение дел.

  1. полнота

Информация полна, если ее достаточно для понимания и принятия ре­шений. Как неполная, так и избыточная информация сдерживает принятие ре­шений или может повлечь ошибки.

  1. точность

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления.

  1. ценность

Ценность информации зависит от того, насколько она важна для реше­ния задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

  1. своевременность

Только своевременно полученная информация может принести ожидае­мую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

  1. понятность 

Если ценная и своевременная информация выражена непонятным обра­зом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

  1. доступность

Информация должна преподноситься в доступной (по уровню восприя­тия) форме. Поэтому одни и те же вопросы по-разному излагаются в школь­ных учебниках и научных изданиях.

  1. краткость

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозмож­ных инструкциях.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений. Это позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2i (формула Хартли). Иногда записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность  p = 1 / N, то N = 1 / p и формула имеет вид I = log2 (1/p) = - log2 p

Если события неравновероятные, то: hi = log2 1/pi = - log2 pi,

где pi - вероятность появления в сообщении i-го символа алфавита. Удобнее в качестве меры количества информации пользоваться не значением hi , а средним значением количества информации, приходящейся на один символ алфавита H = S pi hi = - S pi log2 pi

Значение Н достигает максимума при равновероятных событиях, то есть при равенстве всех pi pi = 1 / N

В этом случае формула Шеннона превращается в формулу Хартли.

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей - байт, причем:

1 байт = 8 битов = 23 битов.

В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам "Кило" (103), "Мега" (106), "Гига" (109) и т. д.

В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2n

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 килобайт (Кбайт) = 210 байт = 1024 байт;

1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт;

1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт.

Количество информации в сообщении. Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации.

Если знаки несут одинаковое количество информации, то количество информации Ic в сообщении можно подсчитать, умножив количество информации Iз, которое несет один знак, на длину кода (количество знаков в сообщении) К:

Ic = Iз  K

Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры - в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода

Двоичный компьютерный код

1

0

1

0

1

Количество информации

1 бит

1 бит

1 бит

1 бит

1 бит

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Энтропия стала использоваться как мера полезной информации в процессах передачи сигналов по проводам. Под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. Если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии. Отсутствие шума означает максимум информации. Взаимосвязь энтропии и информации нашло отражение в формуле: H + Y = 1

где Н – энтропия, Y – информация. Этот вывод количественно был обоснован Бриллюэном .

Для расчета энтропии Шеннон предложил уравнение, напоминающее классическое выражение энтропии, найденное Больцманом. H = ∑Pi log2 1/Pi = -∑Pi log2 Pi,

где Н – энтропия Шеннона, Pi - вероятность некоторого события.

Информационная двоичная энтропия для независимых случайных событий с возможными состояниями (от до , — функция вероятности) рассчитывается по формуле:

Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только -e состояние.

Таким образом, энтропия события является суммой с противоположным знаком всех произведений относительных частот появления события , умноженных на их же двоичные логарифмы. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.