Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Тема 1 Теоретические основы информации.doc
Скачиваний:
57
Добавлен:
01.05.2015
Размер:
174.08 Кб
Скачать

Процесс кодирования — это преобразование формы представления информации в новую форму, удобную для ее хранения, передачи и обработки.

Особенно широко понятие «кодирование» стало употребляться с развитием технических средств хранения, передачи и обработки информации (телеграф, радио, компьютеры). Например, в начале XX века телеграфные сообщения кодировались и передавались с помощью азбуки Морзе. Иногда кодирование производится в целях засекречивания содержания текста. В таком случае его называют шифровкой.

Еще одной разновидностью процесса обработки информации является ее сортировка (иногда говорят — упорядочение). Например, вы решили записать адреса и телефоны всех своих друзей на отдельные карточки. В каком порядке нужно сложить эти карточки, чтобы затем было удобно искать среди них нужные сведения? Наверняка вы разложите их в алфавитном порядке по фамилиям.

Еще одна разновидность процесса обработки — поиск информации. Нам с вами очень часто приходится этим заниматься: в словаре искать перевод иностранного слова, в телефонном справочнике — номер телефона, в железнодорожном расписании - время отправления поезда, в учебнике математики — нужную формулу, на схеме метро — маршрут движения, в библиотечном каталоге — сведения о нужной книге. Можно привести еще много примеров. Все это — процессы поиска информации на внешних носителях: книгах, схемах, таблицах, картотеках.

3. Кодирование информации. Единицы измерения количества информации.

Чтобы компьютер мог обработать информацию, она должна быть представлена в закодированном виде, понятном ему. Причём, понятна единственным образом. То есть, информация, вводимая в компьютер, должна быть конкретной и однозначной.

Для обработки компьютером любая информация представляется в виде чисел, записанных с помощью цифр. Цифрам соответствуют электрические сигналы, с которыми работает компьютер. Для простоты технической реализации в компьютере используются сигналы двух уровней. Один из них соответствует цифре 1, другой цифре – 0. Цифры 0 и 1 называют двоичными. Они являются символами, из которых состоит язык, понимаемый и используемый компьютером. Информация, с которой работает компьютер, кодируется с помощью этого языка. Любой компьютер должен иметь запоминающее устройство, в которое можно было бы записывать двоичные коды. С другой стороны, нужны устройства для декодирования, то есть для представления информации в исходном, привычном для нас виде. Такие устройства называются устройствами ввода-вывода.

Таким образом, вся информация в компьютере представлена в двоичных кодах (используется двоичная система счисления). Двоичная система счисления обладает такими же свойствами, что и десятичная, только для представления чисел используется не 10 цифр, а всего 2. Рассмотрим представление чисел в двоичной системе счисления.

Запись числа в двоичной системе:

an·2n + an-1·2n-1 + an-2·2n-2 + ... + a2·22 + a1·21 + a0·20 , где коэффициенты an … a0 – либо 0, либо 1, причём an=1.

Простыми вычислениями можно показать, что используя n битов, можно записывать двоичные коды чисел от 0 до 2n-1, то есть всего 2n чисел.

Рассмотрим для примера запись некоторых чисел в двоичной системе:

десятичная

0

1

2

3

4

5

6

7

25

120

двоичная

0

1

10

11

100

101

110

111

11001

1111000

Например, 1101 = 1·23 + 1·22 + 0 · 21 + 1· 20 = 8 + 4 + 0 + 1 = 13

Для перевода чисел из десятичной системы счисления в двоичную используют так называемый "алгоритм замещения", состоящий из следующей последовательности действий:

  1. Делим десятичное число А на 2. Частное Q запоминаем для следующего шага, а остаток a записываем как младший бит двоичного числа.

  2. Если частное q не равно 0, принимаем его за новое делимое и повторяем процедуру, описанную в шаге 1. Каждый новый остаток (0 или 1) записывается в разряды двоичного числа в направлении от младшего бита к старшему.

  3. Алгоритм продолжается до тех пор, пока в результате выполнения шагов 1 и 2 не получится частное Q = 0 и остаток a = 1.

Например, требуется перевести десятичное число 247 в двоичное. В соответствии с приведенным алгоритмом получим: 

24710 : 2 = 12310

24710 - 24610 = 1, остаток 1 записываем в МБ двоичного числа.

12310 : 2 = 6110

12310 - 12210 = 1, остаток 1 записываем в следующий после МБ разряд двоичного числа.

6110 : 2 = 3010

6110 - 6010 = 1, остаток 1 записываем в старший разряд двоичного числа.

3010 : 2 = 1510

3010 - 3010 = 0, остаток 0 записываем в старший разряд двоичного числа.

1510 : 2 = 710

1510 - 1410 = 1, остаток 1 записываем в старший разряд двоичного числа.

710 : 2 = 310

710 - 610 = 1, остаток 1 записываем в старший разряд двоичного числа.

310 : 2 = 110

310 - 210 = 1, остаток 1 записываем в старший разряд двоичного числа.

110 : 2 = 010, остаток 1 записываем в старший разряд двоичного числа.

Таким образом, искомое двоичное число равно 11110111

Для перевода двоичного числа в десятичное необходимо это число представить в виде суммы произведений степеней основания двоичной системы счисления на соответствующие цифры в разрядах двоичного числа. 

Например, требуется перевести двоичное число 10110110 в десятичное. В этом числе 8 цифр и 8 разрядов (разряды считаются, начиная с нулевого, которому соответствует младший бит). В соответствии с уже известным нам правилом представим его в виде суммы степеней с основанием 2: 

101101102 = (1·27)+(0·26)+(1·25)+(1·24)+(0·23)+(1·22)+(1·21)+(0·20)=128+32+16+4+2=182

Наименьшим количеством информации является одно из двух возможных значений – 0 или 1. такое количество информации называется бит (от англ. binary digit двоичная цифра). То есть, бит – наименьшая единица измерения количества информации в компьютере. Бит можно понимать как ячейку в которой помещается либо 0, либо 1.

Обработка информации происходит в процессоре - устройстве, которое может обработать сразу несколько бит (8, 16, 32, 64, ...). Чем больше бит информации одновременно обрабатывается, тем быстрее работает компьютер. Первые компьютеры обрабатывали одновременно 8 бит информации, поэтому появилась новая единица измерения - байт.

1 байт = 8 бит

С помощью одного байта можно записывать двоичные коды 28 = 256 чисел от 0 до 255.По сравнению с книгой, в которой хранится огромное количество страниц текста, один символ очень маленькая единица. Необходимы более крупные единицы измерения информации.

Основные единицы измерения количества информации в компьютере:

1 килобайт=1024 байта,

1 мегабайт=1024 Кбайта,

1 гигабайт=1024 Мбайта,

1терабайт=1024Гбайта.

Для сокращения записей и удобства пользования кодами символов используют шестнадцатеричную систему счисления, состоящую из 16 символов – 10 цифр и 6 первых букв латинского алфавита. Цифры кодируются в шестнадцатеричной системе при вводе-выводе и если они встречаются в тексте. Если они участвуют в вычислениях, то осуществляется их преобразование в другой двоичный код.

  1. Дайте определение информатики. Когда появилась эта наука? Что способствовало её появлениию?

  2. Что же такое «информация» для каждого из нас? Приведите примеры источников, из которых за сегодняшний день вы получали информацию.

  3. Дайте определение информации.

  4. Перечислите виды информации: 1) по способу восприятия; 2) по форме представления информации; 3) по общественному значению информации.

  5. Каковы свойства информации? Поясните их и приведите примеры.

  6. Назовите виды информационных процессов; поясните их подробнее.

7

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]