Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методическое пособие 336

.pdf
Скачиваний:
4
Добавлен:
30.04.2022
Размер:
909.45 Кб
Скачать

2. ПРЕДСТАВЛЕНИЕ ИНФОРМАЦИИ В ЭВМ

Информационное сообщение может существовать в разнообразных формах – в виде знаков и символов, звуковых, световых и радиосигналов, устной речи, магнитных полей, импульсов электрического тока и напряжения, биоили энергоинформационных полей и т.д.

Информация, как материя и энергия, обладает определенным объемом, который может быть измерен. Наименьшей единицей измерения информации является Бит (binary digit) – это количество информации, заключенное в двоичной ячейке памяти. Ячейка может находиться в двух состояниях: «0», если напряжение отсутствует, и «1», если амплитуда импульса близка к напряжению источника питания. Блоки данных (8 двоичных разрядов) называются Байтами, а их номера – адресами.

Чаще используются более крупные единицы измерения инфор-

мации:

1КБайт = 210 Байт;

1МБайт = 220 Байт; 1ГБайт = 230 Байт и т.д.

Для представления дискретной информации в ЭВМ применяется алфавитный способ, основу которого составляет использование конечного фиксированного набора символов, называемого алфавитом (буквы, цифры, знаки арифметических операций, знаки пунктуации, специальные символы, которые переводятся в цифровую форму).

Аналоговая (непрерывная) информация также подвергается преобразованию в сигналы двоичного кода, после чего они могут обрабатываться или передаваться по каналам связи, телекоммуникационным и компьютерным сетям.

Задание. Ответьте на следующие вопросы:

1.В каких формах может быть представлена информация?

2.Назовите наименьшую единицу информации.

3.Чему равен 1 Байт информации?

4.Что такое алфавит?

5.Как представляется дискретная информация в ЭВМ?

6.С помощью каких устройств осуществляется преобразование непрерывных сообщений в дискретные и наоборот?

7.Что такое кодирование?

11

2.1. Двоичная арифметика

Ключевые слова: преобразование информации, двоичный, система счисления, позиционная система счисления, десятичная система счисления, процессор, кодирование.

Key word: conversion information, binary, notation, radix notation, decimal notation, processor, coding.

Преобразование информации из одной формы в другую осуществляется с помощью кодирования. Наши знания об окружающем мире в известной степени определяются способностью воспринимать и анализировать информацию, то есть умением правильно истолковывать код.

Системой счисления называется система записи чисел с помощью определенного набора цифр. В любой системе счисления для представления чисел выбираются некоторые символы (их называют цифрами), а остальные числа получаются в результате каких-либо операций над цифрами данной системы счисления.

Система называется позиционной, если значение каждой цифры (ее вес) изменяется в зависимости от ее положения (позиции) в последовательности цифр, изображающих число.

Число единиц какого-либо разряда, объединяемых в единицу более старшего разряда, называют основанием позиционной системы счисления. Если количество таких цифр равно Р, то система счисления называется Р - ичной. Основание системы счисления совпадает с количеством цифр, используемых для записи чисел в этой системе счисления. Арифметические действия над числами в любой позиционной системе счисления производятся по тем же правилам, что и в десятичной системе, так как все они основываются на правилах выполнения действий над соответствующими многочленами, представляющими собой представление числа в виде ряда по степеням основания соответствующей системы счисления. При этом нужно только пользоваться теми таблицами сложения и умножения, которые соответствуют данному основанию Р системы счисления.

Для обеспечения высокой надежности и простоты, наибольшего быстродействия (производительности) и минимальных затрат (экономичности) лучше всего использовать систему двоичного кодирования, в которой любая информация представляется последовательностью только двух символов – цифр 0 и 1.

12

В привычной десятичной системе счисления используются десять цифр – 0,1,2,3,4,5,6,7,8,9. Когда необходимо изобразить число, больше девяти, используется позиционный способ записи числа; значение, определяемое той или иной цифрой, зависит от ее положения (позиции) в последовательности цифр числа. Например, десятичное число 5279 представляет собой сумму, слагаемые которой являются степенями числа 10, то есть

5279 = 5∙103 + 2∙102 + 7∙101 + 9∙100.

Позиционный принцип используется и при записи двоичных чисел. В этом случае коэффициентами при степенях числа 2 будут двоичные цифры 0 и 1. Число 5279 в двоичной системе счисления изображается следующим образом:

1∙212 + 0∙211 + 1∙210 + 0∙29 + 0∙28 + 1∙27 + 0∙26 + 0∙25 + 1∙24 +

 

+ 1∙23 + 1∙22 + 1∙21 + 1∙20 = 5279,

(1)

или в сокращенном виде

10100100111112 = 527910

(индексы, записанные рядом с изображением числа, указывают на основание системы счисления). Двоичное представление первых шестнадцати чисел показано в табл. 1.

Способ перевода чисел из десятичной системы счисления в двоичную, с помощью которого можно было бы не только продолжить эту таблицу, но и преобразовать любое десятичное число в двоичное, несложен:

шаг 1: разделить делимое (в самом начале это число N) пополам; зафиксировать остаток (0 или 1) и частное;

шаг 2: сравнить частное с нулем: если частное не равно нулю, то продолжить действия – вернуться к шагу 1, предварительно отправив частное на место делимого; если частное равно нулю, то перейти к шагу 3;

шаг 3: зафиксированные в процессе выполнения предыдущих шагов остатки записать в обратном порядке в виде двоичного числа.

Полученная таким образом последовательность нулей и единиц

13

дает представление десятичного числа N в системе счисления с основанием 2.

 

Таблица 1

 

 

 

Десятичные числа

Двоичные числа

0

0000

 

1

0001

 

2

0010

 

3

0011

 

4

0100

 

5

0101

 

6

0110

 

7

0111

 

8

1000

 

9

1001

 

10

1010

 

11

1011

 

12

1100

 

13

1101

 

14

1110

 

15

1111

 

Обратное представление можно выполнить суммированием степеней двойки, соответствующих ненулевым позициям в изображении двоичного числа (1).

Описанное выше правило перевода десятичного числа в двоичное, то есть точное, формальное описание выполняемого шаг за шагом процесса, который завершается через конечное число шагов и приводит к решению задачи, представляет собой пример алгоритма (см. раздел 5). Алгоритмом называют систему правил, выполнение которых приводит за конечное число шагов к достижению поставленной цели. Перевод из одной системы счисления в другую прост, но тем не менее эту работу неразумно возлагать на человека, так как переводить из системы в систему приходится огромное количество числовой информации. Этим переводам «обучили» компьютер. Поступающие в ЭВМ десятичные числа процессор преобразует в их двоичные эквиваленты, то есть происходит перевод исходных данных

14

задачи на язык, понятный ЭВМ. После того как компьютер выполнит обработку информации в соответствии с требованиями программы, потребуется сделать обратное преобразование: полученные в двоичной форме результаты опять с помощью процессора будут переведены в десятичную систему счисления.

Пример. Перевести числа 148 и 0,149 из десятичной системы счисления в двоичную

148(10) = 10010100(2)

0, 149 х 2

0298 х 2

0596 х 2

1192 х 2

0384 х 2

0768 х 2

1536 х 2

1072 х 2

0144 х 2

0288 х 2

0 576 0,149(10) = 0,0010011000(2)

Оперируя с двоичными эквивалентами десятичных чисел, процессор руководствуется правилами двоичной арифметики. Для сло-

жения эти правила определяются так:

 

0

+ 0

=0

1 + 0 = 1

0

+ 1

= 1

1 + 1 = 10 (перенос +1 в сле-

дующий старший разряд).

15

Например, сложение двух двоичных чисел 0101 и 0001 даст

0101 +0001 0110.

Правила двоичного вычитания имеют вид:

 

0 – 0 = 0

1 – 1 = 0

1 – 0 = 1

10 – 1 = 1.

Правила двоичного умножения выглядят

более лаконично по

сравнению с десятичной:

 

 

0 ∙ 0 = 0

0 ∙ 1

= 0

1 ∙ 0 = 0

1 ∙ 1

= 1,

а правила деления не отличаются от правил деления в десятичной системе

0 / 1 = 0 1 / 1 = 1 (деление на нуль не определено).

Несложные правила двоичной арифметики обеспечивают простоту тех узлов процессора, которые выполняют арифметические операции. Удобная для компьютера двоичная система счисления не употребляется людьми в быту из-за того, что большие числа в этой системе представляются уж очень длинными и однообразными последовательностями цифр. Было найдено компромиссное решение – переводить в двоичную систему не все число целиком, а каждую его

цифру отдельно

 

 

 

5

2

7

9

0101

0010

0111

1001.

Для изображения одной десятичной цифры в этом случае используются четыре двоичные (одна тетрада). Такой способ кодирования называется двоично-десятичным. Двоично-десятичная система не единственная из применяемых в ЭВМ вспомогательных систем счисления. Достаточно широкое распространение получили восьмеричная и шестнадцатеричная системы счисления, позволяющие получить более компактную запись числа. В восьмеричной используются цифры 0,1,2,3,4,5,6,7, а для шестнадцатеричной системы десяти арабских цифр недостаточно, и для изображения шести старших цифр в этой системе используют шесть начальных прописных букв латин-

ского алфавита

 

 

 

10102 = 1010 = А16

11012

= 1310

= D16

10112 = 1110 = В16

11102

= 1410

= Е16

16

11002 = 1210 = С16 11112 = 1510 = F16.

Например, десятичное число 5279 записывается в системе счисления с основанием 16

527910 = 1∙163 + 4∙162 + 9∙161 + 15∙160 = 149F16.

Чтобы преобразовать двоичное число в шестнадцатеричную систему, двоичные разряды группируются влево и вправо от запятой и при необходимости неполные группы могут дополняться нулями спереди (в целой части числа) или сзади (в дробной части числа). Преобразование завершается заменой каждой группы эквивалентной шестнадцатеричной цифрой. Так, двоичное число

11 0110 1101,1000 1112

имеет шестнадцатеричный эквивалент 36D,8Е16.

Обратная операция переводит числа из шестнадцатеричной системы в двоичную. Например,

8Е1,С16 соответствует 1000 1110 0001,11002.

С помощью цепочек двоичных чисел можно закодировать не только десятичные числа, но также буквы русского и латинского алфавитов, знаки операций, специальные символы, что позволяет компьютеру выводить в качестве результатов не только числовые, но и текстовые значения, снабжая решения удобочитаемыми текстовыми комментариями.

Задание. Ответьте на следующие вопросы.

1.Что такое система счисления?

2.Что такое основание системы счисления?

3.Какие системы счисления называются позиционными?

4.Какие системы счисления применяются в ЭВМ?

5.Как определены правила выполнения арифметических операций в двоичной системе счисления?

6.В чем состоят достоинства и недостатки двоичной системы счисления?

7.Что такое двоично-десятичный код?

8.Когда и почему применяются восьмеричная и шестнадцатеричная системы счисления?

2.2. Количество информации и его мера

Для количественной оценки процессов преобразования и пере-

17

дачи информации и изучения свойственным этим процессам закономерностей необходимо ввести количественную меру информации. Количеством информации называют числовую характеристику информации, отражающую ту степень неопределенности, которая исчезает после получения информации. Процессам обработки информации свойственны элементы случайности, ибо обычно содержание передаваемого сообщения неизвестно (в противном случае не возникла бы необходимость самой передачи ее по каналам связи). Поэтому изучение закономерностей преобразования и передачи информации производится методами теории вероятностей.

Внастоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно трактовать в смысле уменьшения неопределенности наших знаний об объекте.

Внаучном плане понятие «информация» связывается с вероятностью осуществления того или иного события.

Вероятность – числовая характеристика степени возможности наступления события. Вероятность достоверного события (обязательно должно произойти) равна 1, невозможного события (не произойдет никогда) – 0, то есть вероятность любого случайного события лежит в интервале (0,1). Случайным называется событие, которое может произойти, а может и не произойти. Примерами случайных событий могут служить выпадение «орла» при подбрасывании монеты или числа очков (то есть выпадение определенной грани) при игре в кости.

Объектом, о котором передается информация, обычно является некоторая физическая система, которая может случайным образом оказаться в том или ином состоянии. Синонимами термина «случайное состояние» являются термины «случайное событие», «случайный исход».

Втеории передачи информации всегда рассматривают системы

событий хi (i = 1,2,…,m), когда при каждом испытании наступает одно и только одно из событий. Такие системы называют полными. Если события х12, …,хm некоторой полной системы заданы вместе с их вероятностями р(х1),р(х2), …,р(хm), то их совокупность Х называют конечной системой событий. Примерами конечных систем являются ансамбли передаваемых Х и принимаемых Y дискретных сообщений (буквенный или цифровой текст и т.п.). Так при передаче по каналу

18

связи текста, состоящего из букв русского алфавита, в каждый момент времени передаются сигналы, отображающие появление какойлибо одной из букв хi. Вероятность ее появления р(хi) зависит от статистических свойств русского языка (например, известно, что в русском тексте вероятность появления буквы «О» составляет 0.11, буквы «Ф» - 0.002 и т.д.). Таким образом, при передаче дискретных сообщений на приемной стороне заранее известны как набор возможных событий (например, передаваемых символов), так и вероятности появления каждого из них.

До получения сообщения в месте приема существует неопределенность в отношении того, какое из возможных событий реализуется. При приеме сообщения, содержащего информацию о наступившем событии, эта неопределенность снимается полностью или частично в зависимости от достоверности принятого сообщения. Чем больше существовавшая ранее и снимаемая при получении сообщения неопределенность, тем большее количество информации оно содержит. Сообщение о событии, наступление которого заранее известно, не содержит информации; его передача вообще не имеет смысла. Из двух сообщений, одно из которых содержит сведения о результатах броска монеты, а другое – о результатах бросания игральной кости, второе содержит больше информации. В первом случае, еще не получив сообщения о том, что, например, выпал «орел», с большой вероятностью (рi = 1/2) можно предугадать наступление этого события. Во втором случае (рi = 1/6) начальная неопределенность была значительно больше, а поэтому полученное сообщение в большей мере содержит элемент неожиданности, новизны.

Таким образом, количество информации, содержащееся в сообщении, может быть количественно оценено по вероятности его поступления. Это позволяет установить объективную численную меру количества информации, содержащегося в любых возможных сообщениях независимо от их конкретного смысла. Такая постановка не является единственно возможной, так как она не учитывает ценности информации, ее полезности для достижения заданной цели и т.п. Однако, требования, предъявляемые к цифровой обработке в компьютере, обычно не зависят от конкретного содержания преобразуемой информации.

Вопрос о численной мере количества информации рассмотрим сначала при упрощающем предположении, что все возможные сооб-

19

щения (а следовательно, и соответствующие им события) равновероятны, то есть

1 p p1 p2 ... pN N ,

где N – число равновероятных событий.

Каждое из N сообщений может быть передано в виде кодовой комбинации длиной n, представляющей собой сочетание из m возможных символов. При этом N = mn. Например, пятизначным кодом (m=2, n=5) может быть передано 32 различных сообщения (то есть можно закодировать 32 различных символа). Чем больше число возможных равновероятных сообщении N, тем большее количество информации содержится в каждом из них. Однако за меру количества информации удобно принять не саму величину N, а ее логарифм: I = log N = n log m. При этом выполняются естественные требования: количество информации в сообщении а) является линейной функцией его длины и б) равно нулю, если в интересующей нас системе возможно только одно сообщение. В рассматриваемом случае равновероятных сообщений, учитывая, что, N = 1/p, получим I = log N = log 1/p = – log p (формула Ральфа Хартли, 1928 год).

Выбор основания логарифма несущественен, так как переход от одной системы логарифмов к другой сводится лишь к умножению логарифма с данным основанием на соответствующий множитель. Он равен 1,443 при переходе от натуральных логарифмов к двоичным и 3,32 при переходе от десятичных логарифмов к двоичным. Обычно пользуются двоичными логарифмами. При N = 2 получим I = log22 = 1 и в соответствии с этим за единицу количества информации принято такое количество информации, которое снимает неопределенность в отношении наступления одного из двух возможных равновероятных независимых событий (бит). Другими словами, это количество информации, при котором неопределенность, то есть количество вариантов выбора, уменьшается вдвое, иначе говоря, это ответ на вопрос, требующий односложного разрешения – да или нет.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации. Но данная единица используется редко в компьютерной технике, что связано с аппаратными особенностями компьютеров.

20