Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
информатика 2.docx
Скачиваний:
1
Добавлен:
01.04.2025
Размер:
41.51 Кб
Скачать

Понятие информации, виды информации. Ее свойства.

Информация (сведения, разъяснения)— сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Информатика — наука о способах получения, накопления, хранения, преобразования, передачи, защиты и использования информации. Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях.

Данные — это результат фиксации, отображения информации на каком-либо материальном носителе.

Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

Что можно делать с информацией

  • создавать

  • передавать

  • копировать

  • искать

  • использовать и т.д.

Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами.

Информационное общество - общества, уровень которого в решающей степени определяется количеством и качеством накопленной информации, ее свободой и доступностью.

Свойства информации.

Информация обладает следующими свойствами:

  • достоверность

  • полнота

  • точность

  • ценность

  • своевременность

  • понятность и т.д.

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Информация полна, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом.

1 килобайт (Кбайт) = 210 байт = 1024 байт;

1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт;

1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт.

Количеством информации называют числовую характеристику информации, отражающую ту степень неопределенности, которая исчезает после получения информации.

В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:

I = log2 K ,

Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I. Иногда формулу Хартли записывают так:

I = log2 K = log2 (1 / р) = - log2 р, т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.

Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Формулу для вычисления количества информации в случае различных вероятностей событий предложил К. Шеннон в 1948 году. В этом случае количество информации определяется по формуле: где I - количество информации; N - количество возможных событий; рi - вероятность i-го события.