Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
lektsii.docx
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
162.4 Кб
Скачать

Понятие количества информации

Информация, вводимая в компьютер должна быть конкретной и однозначной. Издавна люди пользовались шифрами. Самыми простыми и удобными из них были цифровые шифры. Самая разнообразная информация - цвета, ноты, дни недели - может быть представлена в виде цифр.

Для обработки компьютером любая информация кодируется с помощью цифр. Цифры представляются электрическими сигналами, с которыми работает компьютер. Для удобства различения в компьютере используют сигналы двух уровней. Один из них соответствует цифре 1, другой - 0. Цифры 1 и 0 называются двоичными и являются символами, из которых состоит язык, понимаемый и используемый компьютером. Любая информация в компьютере представляется с помощью двоичных цифр.

Под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.

Наименьшей единицей информации является бит (от англ. binary digit (bit)).

Бит - это наименьшая единица памяти, необходимая для хранения одного из двух знаков 0 и 1, используемых для внутримашинного представления данных и команд.

В современных компьютерах помимо двоичной системы счисления применяют и другие: восьмеричную и шестнадцатеричную системы счисления – для компактной записи двоичных кодов чисел и команд.

В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом (1 байт=8 битам).

Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ.

С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.

Широко используются также еще более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

История создания и развития вычислительной техники.

Ещё 1500 лет назад для облегчения вычислений стали использовать счёты. В 1642 г. Блез Паскаль изобрёл устройство, механически выполняющее сложение чисел, а в 1694 г. Готфрид Лейбниц сконструировал арифмометр, позволяющий механически производить четыре арифметических действия.

Первая счетная машина, использующая электрическое реле, была сконструирована в 1888 г. американцем немецкого происхождения Германом Холлеритом и уже в 1890 г. применялась при переписи населения. В качестве носителя информации применялись перфокарты. Они были настолько удачными, что без изменений просуществовала до наших дней.

Первой электронной вычислительной машиной принято считать машину ENIAC (Electronic Numerical Integrator and Computer - электронный числовой интегратор и вычислитель), разработанную под руководством Джона Моучли и Джона Экера в Пенсильванском университете в США. ENIAC содержал 17000 электронных ламп, 7200 кристаллических диодов, 4100 магнитных элементов и занимал площадь в 300 кв. метром. Он в 1000 раз превосходил по быстродействию релейные вычислительные машины и был построен в 1945 г.

Первой отечественной ЭВМ была МЭСМ (малая электронная счетная машина), выпущенная в 1951 г. под руководством Сергея Александровича Лебедева. Её номинальное быстродействие—50 операций в секунду.

Компьютеры 40-х и 50-х годов были доступны только крупным компаниям и учреждениям, так как они стоили очень дорого и занимали несколько больших залов. Первый шаг к уменьшению размеров и цены компьютеров стал возможен с изобретением в 1948 г. транзисторов. Через 10 лет, в 1958 г. Джек Килби придумал, как на одной пластине полупроводника получить несколько транзисторов. В 1959 г. Роберт Нойс (будущий основатель фирмы Intel) изобрел более совершенный метод, позволивший создать на одной пластинке и транзисторы, и все необходимые соединения между ними. Полученные электронные схемы стали называться интегральными схемами, или чипами. В 1968 г. фирма Burroughs выпустила первый компьютер на интегральных схемах, а в 1970 г. фирма Intel начала продавать интегральные схемы памяти.

В 1971 г. был сделан ещё один важный шаг на пути к персональному компьютеру—фирма Intel выпустила интегральную схему, аналогичную по своим функциям процессору большой ЭВМ. Так появился первый микропроцессор Intel-4004. Уже через год был выпущен процессор Intel-8008, который работал в два раза быстрее своего предшественника.

Вначале эти микропроцессоры использовались только электронщиками-любителями и в различных специализированных устройствах. Первый коммерчески распространяемый персональный компьютер Altair был сделан на базе процессора Intel-8080, выпущенного в 1974 г. Разработчик Altair—крохотная компания MIPS из Альбукерка (шт. Нью-Мексико)—продавала машину в виде комплекта деталей за 397 долл., а полностью собранной—за 498 долл. У компьютера была память объёмом 256 байт, клавиатура и дисплей отсутствовали. Можно было только щёлкать переключателями и смотреть, как мигают лампочки. Вскоре у Altair появились и дисплей, и клавиатура, и добавочная оперативная память, и устройство долговременного хранения информации (сначала на бумажной ленте, а затем на гибких дисках).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]