- •Введение.
- •1. Основы информационных технологий.
- •1.1. Информационное общество
- •1.2. Базовые понятия
- •1.2.1. Информация и данные
- •1. Определение из фундаментального курса «Информатика» под редакцией с.В. Симоновича.
- •1.2.2. Информационные технологии
- •1. Прикладные (внешние) направления.
- •2) Служебные (внутренние) направления.
- •1.2.3. Информационные системы
- •1.2.4. Информационные ресурсы
- •Электронные цифровые материалы, представленные в виде двоичного цифрового кода, воспринимаются человеком через выводные устройства компьютера.
- •Печатные материалы, на бумаге или иной поверхности;
- •3. Обработка запроса клиента и выдача ему результата в виде ранжированного (расположенного по номерам) списка веб-страниц.
- •1.3. Классификация эвм по мощности и месту в информационных системах.
- •1.4. Архитектура пк
- •1.4.1. Аппаратные платформы
- •1.4.2. Операционные системы
- •2. Представление данных в компьютере
- •2.1. Арифметические основы эвм
- •2.1.1. Системы счисления
- •2.1.2. Понятия бит, байт
- •2.1.3. Кодирование данных в компьютере
- •Нанотехнологии
- •2.3. Аналоговый и цифровой сигналы
- •2.2.1. Преимущества цифровых технологий
- •1. Искажения аналогового сигнала за счет помех невосстановимы, цифровой сигнал и при помехах позволяет передать информацию полностью без искажений.
- •2. Точность измерения аналогового сигнала определяется техническими возможностями аппаратуры. Точность задания цифрового сигнала от характеристик аппаратуры зависит очень слабо.
- •2.4. Кодирование текстовых данных
- •2.4.1. Системы кодировки текста
- •Имеется две системы кодировки: на основе ascii и Unicode.
- •2.4.2. Основные характеристики шрифтов
- •Характеристики шрифтов
- •2.4.3. Текстовые форматы.
- •3.5. Базы данных
- •4.5.1. Определение, виды баз данных.
2.1.2. Понятия бит, байт
Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления. Для этого обычно используется прием кодирования, то есть выражение данных различных типов одинаковым образом.
Человеческие языки — это не что иное, как системы кодирования понятий и мыслей посредством речи. Человеческий язык состоит из букв, которые складываются в слова.
Потому что в русском алфавите одной буквой можно выразить только 33 понятия10. Двумя буквами – 332, семью буквами – 337. То есть, комбинируя буквы в слова, можно выразить практически неограниченное число понятий.
В двоичной системе самой мельчайшей единицей измерения данных служит один бит. По-английски binarydigit – двоичная цифра или сокращенно bit.
Один бит – это выбор одного из двух равновозможных состояний. В двоичной системенформации меньшей, чем один бит, не существует. Выбор между "да" или "нет", + или –, 1 или 0 это все один бит.
Одним битом могут быть выражены два значения, назовем их 0 и 1. Если количество битов увеличить до двух, то, меняя в каждом бите 0 и 1, получаем кодировку четырех значений, или кодов:
00 01 10 11
Объединив в один разряд по три бита, можно закодировать "алфавит" из восьми значений:
000 001 010 011 100 101 110 111.
Общая формула имеет вид:
N=2m,
где N — количество независимых кодируемых значений;
m — разрядность двоичного кодирования.
Разряд – это несколько битов, объединенных в одну группу. Понятие о разряде, как группе взаимосвязанных битов, появилось вместе с первыми образцами электронной вычислительной техники. В начале развития вычислительной техники для разных ЭВМ длина разряда была разной. При этом программы и данные, получаемые на разных машинах, были абсолютно несовместимы. Для каждой машины составлялись свои собственные программы.
В конце 50-х годов был введен стандартный разряд для всех ЭВМ: байт. Было принято, что один байт равен восьми битам. Стандартизация существенно облегчила обмен информацией между различными типами ЭВМ.
Биты объединяются в байты для того же для чего буквы объединяются в слова: чтобы иметь возможность давать имя объектам и операциям обработки информации (кодировать их). 11
Наименьшей единицей представления данных в компьютере является байт, поскольку это минимальная порция информации, служащая для кодирования в технических устройствах тех или иных понятий и величин.
Производные от байта величины килобайт, мегабайт, гигабайт и т.д.
Что значит приставка кило? Кило – единица измерения. которая в 1000 раз больше исходной Килограмм, километр и пр.
Что значит мега? Мега – единица измерения, которая в миллион раз больше исходной (по-гречески мега – большой).
Что значит гига? Гига – единица измерения, которая в миллиард раз больше исходной (по-гречески гига – гигантский).
Следующая единица называется тера-, она в триллион раз больше исходной (по-гречески тера – чудовищный).
103, 106, 109, 1012 – разница между единицами, имеющими названия, всегда составляет 3 порядка.
Однако у килобайта есть отличие от килограмма или километра. В 1 Кбт не 1000, а 210 байт или 1024 байт.
Почему так? Потому что в компьютере используется двоичная система, и введение туда десятичной системы, даже только для обозначения размера файлов, приведет к существенному замедлению работы компьютера.
Аналогично 1Мбт = 210Кбт или 1024 Кбт или 1048576 байт;
1 Гбт = 210 Мбт. или 1024 Мбт или 1073741824 байт
Обычно при умножении на 1000 об этой разнице в 2,4 процента забывают, но бывают случаи, когда это принципиально.
С помощью одного стандартного байта, или 8-разрядного кодирования можно получить 256 кодов, поскольку 28 = 256.
