Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
УМК1 Выполнение работ (Восстановлен).doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
10.75 Mб
Скачать

Свойства информации

Одним из важнейших параметров информации является её адекватность, т.е. степень соответствия создаваемого с помощью полученной информации образа реальному объекту (процессу, явлению). Различаются три формы адекватности информации: синтаксическая, семантическая и прагматическая.

1.Синтаксическая адекватность отображает формально-структурные характеристики информации и не затрагивает её смыслового содержания.

2. Семантическая (смысловая) адекватность определяет степень соответствия информации об объекте самому объекту.

3. Прагматическая (потребительская) адекватность отражает отношение информации и её потребителя. Прагматический аспект связан с ценностью, полезностью использования информации потребителем для достижения поставленной цели.

Возможность и эффективность использования информации обуславливаются её потребительскими свойствами:

  • содержательность,

  • репрезентативность,

  • достаточность,

  • доступность,

  • актуальность,

  • своевременность,

  • точность,

  • достоверность,

  • устойчивость.

Многие из этих показателей очевидны и не требуют их интерпретации. Поэтому остановимся лишь на некоторых из них.

Содержательность информации отражает семантическую ёмкость, равную отношению величины семантической информации в сообщении к объёму обрабатываемых данных.

Репрезентативность информации связана с правильностью её отбора и формирования в целях адекватного отражения свойств объекта.

Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых пользователем решений.

Меры информации

Информация (в смысле данных) всегда связана с материальным носителем: это может быть сигнал в любой материальной форме, числовой, символьный код на печатной основе и т.д. Поскольку, любой материальный объект можно измерить, то это относится и к информации. Что же в ней можно измерить? Во-первых, количественно синтаксическую форму адекватности информации реальному объекту. Степень адекватности описываемого объекта зависит от количества слов (символов), затраченных на описание модели объекта.

Чтобы стандартизировать измерение количества информации, договорились за единицу измерения брать бит – количество информации, которое можно передать в сообщении, состоящем из одного двоичного знака. С другой стороны 1 бит – это количество информации, уменьшающее неопределенность ситуации в 2 раза. Такой подход отвечает на вопрос, какое количество «новой» информации мы получаем из сообщения. Так, сообщение о том, что подброшенная монета упала «решкой» вверх, несет в себе 1 бит информации. На практике чаще используется 1 байт=8 битам. Так, один байт информации можно передать с помощью одного символа кодировки ASCII. Например, неопределенность бросания одного кубика равна 6 исходам, а двух кубиков одновременно 36. Поскольку, каждый символ естественного языка можно закодировать одним байтом (8 бит), то легко вычислить полный объём информации, связанный с описанием любого объекта, процесса, явления. Это так называемый алфавитный подход измерения количества информации.

Есть другой количественный подход - кибернетический, который учитывает ценность информации (прагматическая адекватность). Впервые он был предложен в работах К.Шеннона и Н.Винера. Изучая системы передачи информации, К.Шеннон пришёл к выводу, что каждое элементарное сообщение на выходе системы уменьшает неопределённость исходного множества сообщений, при этом смысловой аспект сообщения не имеет никакого значения. Неопределенность некоторого события – это количество возможных результатов (исходов) данного события. За единицу количества информации было предложено принять "количество информации, передаваемое при одном выборе между равновероятными альтернативами". Эта наименьшая единица информации называется бит. Информация в один бит уменьшает неопределённость информационной системы в 2 раза. Для вычисления средней величины количества информации, связанного с положительным исходом некоторого события x из множества N событий К.Шеннон предложил формулу:

, где Рi -вероятность i-го события.

Эта формула характеризует энтропию системы (В теории информации мерой неопределенности является Энтропия- удельное количество информации, приходящееся на один элемент сообщения (на букву первичного алфавита)). Изначально это понятие появилось в физике и характеризует оно степень неупорядоченности, т.е. неопределённости микросостояния, в котором система (например, термодинамическая) может находиться в данный момент времени. Значение H достигает максимума для равновероятных событий, т.е. при Рi = 1∕m формула К.Шеннона упрощается:

(формула Р.Хартли).

Таким образом, если при передаче информации не было информационных потерь, то количество информации на символ сообщения будет точно равно Н, а количество информации при передаче символов I=k*H. Количество информации вычисляется относительно первичного алфавита, а объем информации – относительно вторичного алфавита. Объем информации зависит от длины сообщения во вторичном алфавите n и равен Q=k*n, где k-число символов первичного алфавита в сообщении; n – число символов вторичного алфавита для кодирования 1 символа первичного алфавита.

Пример. Тексты, составленные из 32 букв украинского алфавита, передаются по телетайпу при помощи двух качественных признаков: наличия и отсутствия тактовой посылки. Чему равно количество информации, приходящееся на одну принятую букву, на k принятых букв.

Решение. Основание логарифма равно 2 (наличие(1) и отсутствие(0) тактовой посылки), n=32 символа.

H=log232=5 бит (вероятность появления символов равновероятна, количество информации на одну букву или длина двоичной записи одного любого символа украинского алфавита равна 5 двоичным знакам).

I=k*5 бит (количество информации на k символов).

Пример. Определить объем и количество информации при передаче русского текста из 350 букв при помощи пятизначного двоичного кода.

Решение. Количество символов во вторичном алфавите n=25=32 (то есть количество информации, которое несет 1 символ для 32-х элементного русского алфавита, равно 5 битам), k=350 букв. Q=350*5=1750 бит. I=350*log232=350*5=1750 бит.

Пример: Рассмотрим систему с 256 возможными состояниями, например расширенную кодовую таблицу символов, тогда H будет равно 8 битам (log2256 = 8). Другими словами, восемь бит достаточно, чтобы точно описать исход любого события (например, выборку определённого символа из таблицы).

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.

В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs - двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные единицы количества информации: двоичное слово из восьми знаков содержит один байт информации, 1024 байта образуют килобайт (Кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

1 Килобайт =1024 байт

1 Мегабайт =1024 Кбайт

1 Гигабайт =1024 Мбайт

1 Терабайт = 1024Гбайт

1 Петабайт =1024 Тбайт

1 Экзабайт =1024Пбайт

1 байт = 8 бит

1 Кбит =1024 бит

1 Мбит =1024 Кбит

1 Гбит =1024 Мбит

Содержательный (субъективный) подход. Содержание информации кроме количественного (объективного) параметра имеет ещё и семантическую (смысловую) характеристику, которая определяется способностью пользователя понимать поступившее сообщение. Эта способность зависит от тезауруса пользователя, т.е. совокупности сведений и знаний, которыми располагает пользователь. Если тезаурус пользователя близок к нулю, то любая новая информация им не воспринимается (он её не понимает) и в этом случае семантическая компонента информации для него равна нулю. Если поступившая информация не даёт ему новые (полезные) знания, то и в этом случае семантическая информация также равна нулю. Максимальное значение семантической информации пользователь воспринимает в случае, когда поступившая информация понята пользователем и несёт ему новые сведения, знания. Таким образом, одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного.

Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это наддисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту. В философском плане познание следует рассматривать как один из функциональных аспектов управления.

Обработка информации – получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.

Средства обработки информации— это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

Кодирование данных. Системы счисления

Информация в ЭВМ хранится и отрабатывается в определенном, закодированном виде. ЭВМ оперируется числами, представленными в некоторой системе счисления.

Системой счисления – называется способ представления чисел посредством знаков, способ наименования и изображения чисел с помощью символов, имеющих определенные количественные значения.

Всякая система счисления характеризуется основаниям – количеством цифр (знаков), используемых для изображения чисел.

Счисление представляет собой частный случай кодирования, где слово, записанное с использованием определенного алфавита и по определенным правилам, называется кодом. Применительно к счислению - это код числа. Совокупность приемов кодирования и записи чисел называется счислением

Таблица 1.Система представления чисел в различных системах счисления

Десятичная

Двоичная

Восьмеричная

Шестнадцатеричная

0

0000

0

0

1

0001

1

1

2

0010

2

2

3

0011

3

3

4

0100

4

4

5

0101

5

5

6

0110

6

6

7

0111

7

7

8

1000

10

8

9

1001

11

9

10

1010

12

А

11

1011

13

B

12

1100

14

C

13

1101

15

D

14

1110

16

E

15

1111

17

F

16

10000

20

10

17

10001

21

11

18

10010

22

12

19

10011

23

13

20

10100

24

14

Информация в ЭВМ кодируется, как правило, в двоичной или в двоично-десятичной системе счисления.

Различают позиционные и непозиционные системы счисления.

Привычная для нас 10-я система счисления использует для записи чисел 10 цифр: 0-9.Это позиционная система счисления, т.е. значение цифры в числе зависит от положения (позиции) (в отличие от римской).

Например, число 55,5 можно представить:

55,5=5*101+5*100+5*10-1

десятки единицы десятые доли единицы

Если g – принять за основание системы, тот любое число можно представить

Помимо десятичной существуют другие позиционные системы счисления, и некоторые из них нашли применение в информатике.

Наибольшее распространение для представления чисел в ЭВМ, получили двоичная, восьмеричная и шестнадцатеричная системы счисления.

Основной системой кодирования чисел в ЭВМ является двоичная система счисления, то есть представление чисел с помощью двух чисел: 0 и 1.

Пример

Позиционная система счисления — арабская десятичная система, в которой: основание Р=10, для изображения чисел используются 10 цифр (от 0 до 9). Непозиционная система счисления — римская, в которой для каждого числа используется специфическое сочетание символов (XIV, CXXVII и т.п.)