Процесс кодирования — это преобразование формы представления информации в новую форму, удобную для ее хранения, передачи и обработки.
Особенно широко понятие «кодирование» стало употребляться с развитием технических средств хранения, передачи и обработки информации (телеграф, радио, компьютеры). Например, в начале XX века телеграфные сообщения кодировались и передавались с помощью азбуки Морзе. Иногда кодирование производится в целях засекречивания содержания текста. В таком случае его называют шифровкой.
Еще одной разновидностью процесса обработки информации является ее сортировка (иногда говорят — упорядочение). Например, вы решили записать адреса и телефоны всех своих друзей на отдельные карточки. В каком порядке нужно сложить эти карточки, чтобы затем было удобно искать среди них нужные сведения? Наверняка вы разложите их в алфавитном порядке по фамилиям.
Еще одна разновидность процесса обработки — поиск информации. Нам с вами очень часто приходится этим заниматься: в словаре искать перевод иностранного слова, в телефонном справочнике — номер телефона, в железнодорожном расписании - время отправления поезда, в учебнике математики — нужную формулу, на схеме метро — маршрут движения, в библиотечном каталоге — сведения о нужной книге. Можно привести еще много примеров. Все это — процессы поиска информации на внешних носителях: книгах, схемах, таблицах, картотеках.
3. Кодирование информации. Единицы измерения количества информации.
Чтобы компьютер мог обработать информацию, она должна быть представлена в закодированном виде, понятном ему. Причём, понятна единственным образом. То есть, информация, вводимая в компьютер, должна быть конкретной и однозначной.
Для обработки компьютером любая информация представляется в виде чисел, записанных с помощью цифр. Цифрам соответствуют электрические сигналы, с которыми работает компьютер. Для простоты технической реализации в компьютере используются сигналы двух уровней. Один из них соответствует цифре 1, другой цифре – 0. Цифры 0 и 1 называют двоичными. Они являются символами, из которых состоит язык, понимаемый и используемый компьютером. Информация, с которой работает компьютер, кодируется с помощью этого языка. Любой компьютер должен иметь запоминающее устройство, в которое можно было бы записывать двоичные коды. С другой стороны, нужны устройства для декодирования, то есть для представления информации в исходном, привычном для нас виде. Такие устройства называются устройствами ввода-вывода.
Таким образом, вся информация в компьютере представлена в двоичных кодах (используется двоичная система счисления). Двоичная система счисления обладает такими же свойствами, что и десятичная, только для представления чисел используется не 10 цифр, а всего 2. Рассмотрим представление чисел в двоичной системе счисления.
Запись числа в двоичной системе:
an·2n + an-1·2n-1 + an-2·2n-2 + ... + a2·22 + a1·21 + a0·20 , где коэффициенты an … a0 – либо 0, либо 1, причём an=1.
Простыми вычислениями можно показать, что используя n битов, можно записывать двоичные коды чисел от 0 до 2n-1, то есть всего 2n чисел.
Рассмотрим для примера запись некоторых чисел в двоичной системе:
десятичная |
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
25 |
120 |
двоичная |
0 |
1 |
10 |
11 |
100 |
101 |
110 |
111 |
11001 |
1111000 |
Например, 1101 = 1·23 + 1·22 + 0 · 21 + 1· 20 = 8 + 4 + 0 + 1 = 13
Для перевода чисел из десятичной системы счисления в двоичную используют так называемый "алгоритм замещения", состоящий из следующей последовательности действий:
-
Делим десятичное число А на 2. Частное Q запоминаем для следующего шага, а остаток a записываем как младший бит двоичного числа.
-
Если частное q не равно 0, принимаем его за новое делимое и повторяем процедуру, описанную в шаге 1. Каждый новый остаток (0 или 1) записывается в разряды двоичного числа в направлении от младшего бита к старшему.
-
Алгоритм продолжается до тех пор, пока в результате выполнения шагов 1 и 2 не получится частное Q = 0 и остаток a = 1.
Например, требуется перевести десятичное число 247 в двоичное. В соответствии с приведенным алгоритмом получим:
24710 : 2 = 12310 |
24710 - 24610 = 1, остаток 1 записываем в МБ двоичного числа. |
12310 : 2 = 6110 |
12310 - 12210 = 1, остаток 1 записываем в следующий после МБ разряд двоичного числа. |
6110 : 2 = 3010 |
6110 - 6010 = 1, остаток 1 записываем в старший разряд двоичного числа. |
3010 : 2 = 1510 |
3010 - 3010 = 0, остаток 0 записываем в старший разряд двоичного числа. |
1510 : 2 = 710 |
1510 - 1410 = 1, остаток 1 записываем в старший разряд двоичного числа. |
710 : 2 = 310 |
710 - 610 = 1, остаток 1 записываем в старший разряд двоичного числа. |
310 : 2 = 110 |
310 - 210 = 1, остаток 1 записываем в старший разряд двоичного числа. |
110 : 2 = 010, остаток 1 записываем в старший разряд двоичного числа. |
Таким образом, искомое двоичное число равно 11110111.
Для перевода двоичного числа в десятичное необходимо это число представить в виде суммы произведений степеней основания двоичной системы счисления на соответствующие цифры в разрядах двоичного числа.
Например, требуется перевести двоичное число 10110110 в десятичное. В этом числе 8 цифр и 8 разрядов (разряды считаются, начиная с нулевого, которому соответствует младший бит). В соответствии с уже известным нам правилом представим его в виде суммы степеней с основанием 2:
101101102 = (1·27)+(0·26)+(1·25)+(1·24)+(0·23)+(1·22)+(1·21)+(0·20)=128+32+16+4+2=182
Наименьшим количеством информации является одно из двух возможных значений – 0 или 1. такое количество информации называется бит (от англ. binary digit двоичная цифра). То есть, бит – наименьшая единица измерения количества информации в компьютере. Бит можно понимать как ячейку в которой помещается либо 0, либо 1.
Обработка информации происходит в процессоре - устройстве, которое может обработать сразу несколько бит (8, 16, 32, 64, ...). Чем больше бит информации одновременно обрабатывается, тем быстрее работает компьютер. Первые компьютеры обрабатывали одновременно 8 бит информации, поэтому появилась новая единица измерения - байт.
1 байт = 8 бит
С помощью одного байта можно записывать двоичные коды 28 = 256 чисел от 0 до 255.По сравнению с книгой, в которой хранится огромное количество страниц текста, один символ очень маленькая единица. Необходимы более крупные единицы измерения информации.
Основные единицы измерения количества информации в компьютере:
1 килобайт=1024 байта,
1 мегабайт=1024 Кбайта,
1 гигабайт=1024 Мбайта,
1терабайт=1024Гбайта.
Для сокращения записей и удобства пользования кодами символов используют шестнадцатеричную систему счисления, состоящую из 16 символов – 10 цифр и 6 первых букв латинского алфавита. Цифры кодируются в шестнадцатеричной системе при вводе-выводе и если они встречаются в тексте. Если они участвуют в вычислениях, то осуществляется их преобразование в другой двоичный код.
|