Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебное пособие Курс лекций по информатике (Гур....doc
Скачиваний:
17
Добавлен:
08.11.2018
Размер:
591.87 Кб
Скачать
  1. Виды информации. Свойства информации

ПРЕДСТАВЛЕНИЕ ИНФОРМАЦИИ В ЭВМ

ЕДИНИЦЫ ИНФОРМАЦИИ

Термин “информация” происходит от латинского слова INFORMATIO , означающего разъяснение, изложение, осведомленность.

ИНФОРМАТИКА – это франкоязычный синоним более распространенного в мире англоязычного названия “ Computer Science”, что означает “ компьютерная наука “ – т. е. наука о преобразовании информации, базирующаяся на вычислительной технике.

ИНФОРМАТИКА – это наука, которая занимается сбором, передачей и хранением информации.

ЧТО МОЖНО ДЕЛАТЬ С ИНФОРМАЦИЕЙ?

Информацию можно:

  • создавать - обрабатывать

  • передавать - измерять

  • запоминать - разрушать

  • искать - делить на части

  • принимать - упрощать

  • копировать - воспринимать

ВИДЫ ИНФОРМАЦИИ.

1. ЧИСЛОВАЯ

2. ТЕКСТОВАЯ (газеты, и т. д.)

3. ГРАФИЧЕСКАЯ (выставки, плакаты)

4. ЗВУКОВАЯ

Эти четыре вида информации обрабатывает современная ЭВМ.

ИНФОРМАЦИЯ СУЩЕСТВУЕТ:

- в форме световых, звуковых, радиоволн

- в форме электрического тока или напряжения

- в форме магнитных полей

- в виде знаков на бумаге и др.

СВОЙСТВА ИНФОРМАЦИИ.

- Достоверность

- Полнота

- Ценность

- Актуальность

- Ясность

- Понятность

- Измеримость

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Информация полна, если ее достаточно для понимания и принятия решений.

Ценность информации зависит от того, насколько она важна для решения задачи.

Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Любую информацию можно разделить на небольшие элементарные части. Например, текст в книге состоит из букв и других символов. Буква – это элементарная часть текстовой информации.

Информация называется закодированной, если любая её элементарная часть представлена в виде числа. Такие числа называются кодами. ЭВМ может обрабатывать информацию только в закодированном виде.

Обработка информации в ЭВМ основана на обмене сигналами между различными устройствами машины. Эти сигналы возникают в определенной последовательности. Признак наличия сигнала обозначают цифрой 1, признак отсутствия - 0.

С помощью определенных наборов цифр 0 и 1 можно закодировать любую информацию. Каждый такой набор 0 и 1 называется двоичным кодом, а система счисления в которой работает ЭВМ - двоичной.

Известны три способа измерения информации:

1-способ отражает вероятностный подход к измерению информации.

Рассмотрим некоторый алфавит из m символов, где pi (i=1, 2, …,m)-вероятность выбора из этого алфавита какой-то i-буквы для описания (кодирования) какого-то состояния объекта. Каждый такой выбор уменьшит степень неопределённости в сведениях об объекте и, следовательно, увеличит количество информации о нём. Для определения среднего значения количества информации, приходящейся в данном случае на один символ алфавита, применяется формула

H=- pi*log2pi

В случае равновероятных выборов pi=1/m

Подставляя это значение в исходное равенство, мы получим:

H=-log2* = - log2*(++….+)==-log2= log2m

2-способ подразумевает рассмотрение степени сложности информации по выбранному её представлению, и замену этой качественной характеристики, количественной. Например, можно судить о длине некоторого представления алгоритма, то есть о количестве информации, содержащейся в нём, исходя из сложности алгоритма: чем алгоритм сложнее, тем длиннее его представление, а следовательно, он содержит информации больше, чем алгоритм, более короткий.

3-способ, так называемый объёмный. При алфавитно-цифровом представлении информации любое слово, являющееся последовательностью символов, становится информацией. Число символов в слове называется его длиной. Каждый новый символ увеличивает количество информации, представленной последовательностью символов выбранного алфавита. Эталонным для подсчёта количества информации, представленной последовательностью символов, логично считать слово минимальной длины, то есть состоящее из одного символа. Количество информации, содержащеёся в слове из одного символа, принимают за единицу.

Единицей информации является 1 БИТ от английского Binary Digit, т.е. двоичный разряд, который может принимать значения 0 или 1. Восемь последовательных битов составляют 1 БАЙТ.

В качестве стандарта принята кодировка ASCII

(American Standard Code for Information Interchange) –- Американский стандартный код для обмена информацией. Код позволяет получить 256 различных последовательностей из 8 нулей и единиц. Это позволяет закодировать

66 русских букв: 33 прописных и 33 строчных

52 английские буквы: 26 прописных и 26 строчных

цифры от 0 до 9

+ 128 различных символов.

Более крупной единицей информации является:

1 Кбайт = 1024 Байта

1 Мбайт = 1024 Кбайта

1 Гбайт = 1024 Мбайта  400 млн. страниц текста