Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория информатика_1.doc
Скачиваний:
13
Добавлен:
24.09.2019
Размер:
380.42 Кб
Скачать

3. Понятие информации, ее свойства и виды

Понятие информации В переводе с латинского слово «информация» означает сообщение о каком-либо факте, событии, объекте, явлении и т.п. Основоположник кибернетики Винер дает следующее определение информации: информация – это обозначение содержания сообщения, полученного из внешнего мира в процессе приспособления к нему наших чувств.

Основные виды информации

1. По способу передачи и восприятия: зрительная, слуховая, тактильная, вкусовая, машинноориентированная.

2. По формам отображения: символьная, текстовая, звуковая, графическая.

3. По содержанию (в зависимости от вида обслуживаемой человеческой деятельности): научная, производственная, управленческая, правовая.

4. Для машинно-ориентированной информации характерны следующие формы представления: двоичная, текстовая, графическая, электронные таблицы, базы данных.

5. По виду представления информация подразделяется на одномерную и многомерную. Одномерная информация – сообщение, имеющее вид последовательности символов, каждый из которых несет только один признак.

Основные свойства информации

Объективность. Понятие объективности информации является относительным. Более объективной принято считать ту информацию, в которую методы восприятия вносят меньший субъективный элемент.

Достоверность – свойство информации быть правильно воспринятой, вероятность отсутствия ошибок. Пример. В записной книжке обнаружен адрес, в котором номер дома записан неразборчиво (1 или 4). Интерпретация неразборчивой цифры, как 1, представляется не достоверной.

Адекватность информации – это степень соответствия реальному объективному состоянию дела. Пример. Человек был осужден по ложному обвинению на основе ложных (недостоверных) свидетельских показаний.

Доступность – мера возможности получить ту или иную информацию.

Актуальность – это степень соответствия информации текущему моменту времени.

4. Способы измерения информации

Существует два способа измерения объема или количества информации: энтропийный и технический. Технический (объемный) способ используют, как правило, в технике. Он основан на подсчете числа символов в сообщении, т.е. связан с его объемом и не учитывает содержания. В вычислительной технике применяют две стандартные единицы измерения: бит и байт. Бит – это один символ двоичного алфавита. С его помощью можно полностью передать информацию о реализации события, которое может иметь два исхода. Например, бросание монеты. Байт – это количество информации, которое можно передать с помощью 8 двоичных символов, т.е. восьмиразрядного двоичного кода. С его помощью можно полностью передать информацию о реализации события, которое может иметь 28 = 256 исходов. Например, нажатие одной из клавиш компьютера. Производные единицы измерения информации:

1 Кбайт = 1024 байт

1 Мбайт = 1024 Кбайт

1 Гбайт = 1024 Мбайт

Энтропийный способ измерения информации устанавливает ценность информации, содержащейся в сообщении, и исходит из следующей модели. Получатель сообщения имеет представление о возможности наступления некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности называется энтропией и характеризуется некоторой математической зависимостью от совокупности этих вероятностей:

S = log2 W,

где S– мера неопределенности, W– число всевозможных комбинаций наступления некоторых событий. Например, при подбрасывании монеты возможно наступление двух событий: выпадение герба или цифры. Значит, мера неопределенности определяется как S= log2 2 = 1 бит.

Количество информации в сообщении определяется тем, насколько уменьшается эта мера неопределенности после получения сообщения. Из нашего обыденного опыта под информацией мы понимаем лишь такое сообщение, которое содержит неизвестные его получателю факты. Поэтому сообщение либо несет, либо не несет информацию, а объем информации зависит от субъекта, воспринимающего данное сообщение. Если сообщение не несет никакой информации, оно называется тривиальным.

5. Информационные процессы

1. Роль сигнала в информационном процессе Информационные процессы – это процессы восприятия, накопления, обработки и передачи информации. Как правило, информация проявляется в виде сигналов. В информационном процессе сигнал выполняет функцию переносчика информации от источника к приемнику и далее – к адресату (рис.1). Процесс передачи информации – многоступенчатый. Сигнал может на каждом из промежуточных этапов менять свою физическую природу.

2. Структура информационного процесса общая структура информационного процесса представлена наследующей схеме (рис. 2).

Рис. 2. Структура информационного процесса.

Информационный процесс начинается с восприятия и фиксации информации, содержащейся в том или ином источнике. Информация отделяется от шумов. Завершается процесс формирования сигнала, с помощью которого информация передается. Прием информации – вторичное ее восприятие другим субъектом или принимающим устройством. Обработка информации осуществляется человеком или техническим устройством (например, ЭВМ). Сущность обработки информации компьютером состоит в аналоговом или цифровом преобразовании поступающих данных по жесткой программе или алгоритму обработки. Информационный процесс завершается представлением информации потребителю, т.е. демонстрацией на индикаторах различного вида изображений, и принятием решения. Особая стадия – хранение информации. Она занимает промежуточное положение между другими стадиями и может реализовываться на любом этапе информационного процесса. Таким образом, ЭВМ может быть использована на любой стадии информационного процесса, начиная от восприятия и заканчивая представлением информации.