Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Приложение к заданию 1

.docx
Скачиваний:
2
Добавлен:
28.03.2015
Размер:
26.44 Кб
Скачать

НАЧАЛО ИНФОРМАЦИОННОГО ВЕКА

Впервые услышав выражение "информационный век", я основательно приза-

думался. Я знал о железном и бронзовом веках - исторических периодах,

названных так по тем новым материалам, из которых тогда делали инстру-

менты и оружие. Тут все понятно. Но вот я читаю пророчества ученых о

том, что скоро государства будут бороться за контроль над информацией, а

не над природными ресурсами. Звучит весьма интригующе, но что подразуме-

вается под "информацией" ?

Утверждение о том, что будущее за информацией, напомнило мне знамени-

тую сцену из фильма The Graduate (Выпускник), вышедшего на экраны в 1967

году. Некий бизнесмен трогает за пуговицу Бенджамена, выпускника коллед-

жа (его играл Дастин Хофман), и произносит всего одно слово: "Пластмас-

сы". Так он напутствует молодого человека в начале его карьеры. Интерес-

но, если бы эту сцену написали несколько десятилетий спустя, не сказал

бы тот бизнесмен иначе: "Информация" ?!

Представляю, какие абсурдные разговоры могли бы вестись в деловом ми-

ре: "Сколько у Вас информации ?", "Швейцария - великая страна, у них

столько информации !", "Я слышал, индекс стоимости информации пошел

вверх !" Абсурдны они потому, что информация, хотя и играет все более

значимую роль в нашей жизни, не является чем-то осязаемым и не поддается

точному измерению, как материалы - "лица" прежних эпох.

Информационная революция только начинается. Средства связи неизбежно

подешевеют - так же резко, как в свое время вычислительная техника. Ког-

да их стоимость достаточно снизится и "срезонирует" с другими достижени-

ями технологии, ретивые администраторы и нервные политики перестанут

упоминать выражение "информационная магистраль" просто потому, что оно

модно и престижно. Магистраль станет реальностью и, как электричество,

вызовет далеко идущие последствия. Чтобы понять, почему информация ста-

новится и центр всего и вся, важно понять, как технология изменяет спо-

собы ее обработки.

Об этом главным образом и пойдет речь в данной главе. Слабо подготов-

ленные читатели, не знающие принципов работы вычислительной техники и

истории ее развития, получат необходимый минимум сведений, чтобы продол-

жить чтение книги. А если Вы знаете, как работают цифровые компьютеры,

можете спокойно пролистать несколько страниц и перейти сразу к третьей

главе.

Самая фундаментальная отличительная черта информации в будущем - поч-

ти вся она станет цифровой. Уже сейчас во многих библиотеках печатные

материалы сканируют и хранят как электронные данные на обычных или на

компакт-дисках. Газеты и журналы теперь зачастую готовят в электронной

форме, а печатают на бумаге только для распространения. Электронную ин-

формацию можно хранить вечно - или столько, сколько нужно - в компьютер-

ных базах данных. Гигантские объемы репортерской информации легко дос-

тупны через оперативные службы. Фотографии, фильмы и видеозаписи тоже

преобразуются в цифровую информацию. С каждым годом совершенствуются ме-

тоды сбора информации и превращения ее в квадрильоны крошечных пакетов

данных. Как только цифровая информация помещается в то или иное "храни-

лище", любой, у кого есть персональный компьютер и средства доступа к

базам данных, может мгновенно обратиться к ней и использовать ее по сво-

ему усмотрению. Характерная особенность нашего периода истории как раз в

том и заключается, что информацию мы изменяем и обрабатываем совершенно

новыми способами и гораздо быстрее. Появление компьютеров, "быстро и де-

шево" обрабатывающих и передающих цифровые данные, обязательно приведет

к трансформации обычных средств связи в домах и офисах.

Идея применять для манипуляций с числами какой-нибудь инструмент не

нова. До 1642 года, когда девятнадцатилетний французский ученый Блез

Паскаль изобрел механическое счетное устройство - суммирующую машину, в

Азии уже почти 5000 лет пользовались счетами. Три десятилетия спустя не-

мецкий математик Готфрид Лейбниц усовершенствовал конструкцию машины

Паскаля. Его "шаговый вычислитель" позволял умножать, делить и вычислять

квадратные корни. Весьма надежные механические арифмометры, напичканные

шестеренками и наборными счетчиками, наследники шагового вычислителя,

служили главной опорой бизнесу вплоть до их замены электронными аналога-

ми. Например, кассовые аппараты в годы моего детства, по сути, были

арифмометрами с отделениями для наличности.

Более полутора столетий назад видного британского математика озарила

гениальная идея, которая прославила его имя уже при жизни. Чарлз Беббидж

(Charles Babbage), профессор математики Кембриджского университета, по-

нял, что можно построить механическое устройство, способное выполнять

последовательность взаимосвязанных вычислений, - своего рода компьютер !

Где-то в начале тридцатых годов прошлого столетия он пришел к выводу,

что машина сможет манипулировать информацией, если только ту удастся

преобразовать в числа. Беббидж видел машину, приводимую в действие па-

ром, состоящую из штифтов, зубчатых колес, цилиндров и других механичес-

ких частей - в общем, настоящее детище начинавшегося тогда индустри-

ального века. По мысли Беббиджа, "аналитическая машина" должна была из-

бавить человечество от монотонных вычислений и ошибок, с ними связанных.

Для описания устройства машины ему, конечно, не хватало терминов -

тех, которыми мы пользуемся сегодня. Центральный процессор, или "рабочие

внутренности" этой машины, он называл "мельницей", а память - "хранили-

щем". Беббиджу казалось, что информацию будут обрабатывать так же, как

хлопок: подавать со склада (хранилища) и превращать во что-то новое.

Аналитическая машина задумывалась как механическая, но ученый предви-

дел, что она сможет следовать варьируемым наборам инструкций и тем самым

служить разным целям. В том же и смысл программного обеспечения. Совре-

менная программа - это внушительный набор правил, посредством которых

машину "инструктируют", как решать ту или иную задачу. Беббидж понимал,

что для ввода таких инструкций нужен совершенно новый тип языка, и он

изобрел его, использовав цифры, буквы, стрелки и другие символы. Этот

язык позволил бы "программировать" аналитическую машину длинными сериями

условных инструкций, что, в свою очередь, позволило бы машине реагиро-

вать на изменение ситуации. Он - первый, кто увидел, что одна машина

способна выполнять разные функции.

Следующее столетие ученые математики работали над идеями, высказанны-

ми Беббиджем, и к середине сороковых годов нашего века электронный

компьютер наконец был построен - на основе принципов аналитической маши-

ны. Создателей современного компьютера выделить трудно, поскольку все

исследования проводились во время второй мировой войны под покровом пол-

ной секретности, главным образом - в Соединенных Штатах и Великобрита-

нии. Основной вклад внесли три человека: Алан Тьюринг (Alan Turing),

Клод Шеннон (Claude Shannon) и Джон фон Нейман (John von Neumann).

В середине тридцатых годов Алан Тьюринг - блестящий британский мате-

матик, как и Беббидж, получивший образование в Кембридже, предложил свой

вариант универсальной вычислительной машины, которая могла бы в зависи-

мости от конкретных инструкций работать практически с любым видом инфор-

мации. Сегодня она известна как машина Тьюринга.

А в конце тридцатых Клод Шеннон, тогда еще студент, доказал, что ма-

шина, исполняющая логические инструкции, может манипулировать информаци-

ей. В своей магистерской диссертации он рассмотрел, как с помощью элект-

рических цепей компьютера выполнять логические операции, где единица -

"истина" (цепь замкнута), а нуль - "ложь" (цепь разомкнута).

Здесь речь идет о двоичной системе счисления, иначе говоря, о коде.

Двоичная система - это азбука электронных компьютеров, основа языка, на

который переводится и с помощью которого хранится и используется вся ин-

формация в компьютере. Эта система очень проста и в то же время нас-

только важна для понимания того, как работают компьютеры, что, пожалуй,

стоит на этом задержаться.

Представьте, что в Вашей комнате должна гореть лампа мощностью в 250

ватт. Однако Вы хотите регулировать освещение от 0 ватт (полная темнота)

до максимума. Один из способов добиться этого - воспользоваться выключа-

телем с регулятором. Чтобы погасить лампу, Вы поворачиваете ручку против

часовой стрелки в положение "выкл" (0 ватт), а чтобы включить ее "на всю

катушку", - по часовой стрелке до упора (250 ватт). Ну а чтобы добиться

полумрака или просто уменьшить яркость, Вы устанавливаете регулятор в

какое-то промежуточное положение.

Такая система проста, но имеет свои ограничения. Если регулятор нахо-

дится в промежуточном положении - скажем, Вы приглушили свет для ужина в

интимной обстановке, - останется лишь гадать, каков сейчас уровень осве-

щения. Вам не известно ни то, какую мощность "берет" лампа в данный мо-

мент, ни то, как точно описать настройку регулятора. Ваша информация

приблизительна, что затрудняет ее сохранение и воспроизведение.

Вдруг на следующей неделе Вам захочется создать то же освещение ? Ко-

нечно, можно поставить отметку на шкале регулятора, но навряд ли это по-

лучится точно. А что делать, если понадобится воспроизвести другую наст-

ройку ? Или кто-то придет к Вам в гости и захочет отрегулировать свет ?

Допустим, Вы скажете: "Поверни ручку примерно на пятую часть по часовой

стрелке" или "Поверни ручку, пока стрелка не окажется примерно на двух

часах". Однако то, что сделает Ваш гость, будет лишь приблизительно со-

ответствовать Вашей настройке. А может случиться и так, что Ваш друг пе-

редаст эту информацию своему знакомому, а тот - еще кому-нибудь. При

каждой передаче информации шансы на то, что она останется точной, убыва-

ют.

Это был пример информации, хранимой в "аналоговом" виде. Положение

ручки регулятора соответствует уровню освещения. Если ручка повернута

наполовину, можно предположить, что и лампа будет гореть вполнакала. Из-

меряя или описывая то, насколько повернута ручка, Вы на самом деле сох-

раняете информацию не об уровне освещения, а о его аналоге - положении

ручки. Аналоговую информацию можно накапливать, хранить и воспроизво-

дить, но она неточна и, что хуже, при каждой передаче становится все ме-

нее точной.

Теперь рассмотрим не аналоговый, а цифровой метод хранения и передачи

информации. Любой вид информации можно преобразовать в числа, пользуясь

только нулями и единицами. Такие числа (состоящие из нулей и единиц) на-

зываются двоичными. Каждый нуль или единица - это бит. Преобразованную

таким образом информацию можно передать компьютерам и хранить в них как

длинные строки бит. Эти-то числа и подразумеваются под "цифровой инфор-

мацией".

Пусть вместо одной 250-ваттной лампы у Вас будет 8 ламп, каждая из

которых в 2 раза мощнее предыдущей - от 1 до 128 ватт. Кроме того, каж-

дая лампа соединена со своим выключателем, причем самая слабая располо-

жена справа.

Включая и выключая эти выключатели, Вы регулируете уровень освещен-

ности с шагом в 1 ватт от нуля (все выключатели выключены) до 255 ватт

(все включены), что дает 256 возможных вариантов. Если Вам нужен 1 ватт,

Вы включаете только самый правый выключатель, и загорается 1-ваттная

лампа. Для 2 ватт Вы зажигаете 2-ваттную лампу. Если Вам нужно 3 ватта,

Вы включаете 1- и 2-ваттную лампы, поскольку 1 плюс 2 дает желаемые 3

ватта. Хотите 4 ватта, включите 4-ваттную лампу, 5 ватт - 4- и 1-ваттную

лампы, 250 ватт - все, кроме 4- и 1-ваттной ламп.

Если Вы считаете, что для ужина идеально подойдет освещение в 137

ватт, включите 128-, 8- и 1-ваттную лампы.

Такая система обеспечивает точную запись уровней освещенности для ис-

пользования в будущем или передачи другим, у кого в комнате аналогичный

порядок подключения ламп. Поскольку способ записи двоичной информации

универсален (младшие разряды справа, старшие - слева, каждая последующая

позиция удваивает значение разряда), нет нужды указывать мощность конк-

ретных ламп. Вы просто определяете состояние выключателей:

"вкл-выкл-выкл-выкл-вкл-выкл-выкл-вкл". Имея такую информацию, Ваш зна-

комый точно отрегулирует освещение в комнате на 137 ватт. В сущности,

если каждый будет внимателен, это сообщение без искажений пройдет через

миллионы рук и на конце цепочки кто-то получит первоначальный результат

- 137 ватт.

Чтобы еще больше сократить обозначения, можно заменить "выкл" нулем

(0), а "вкл" - единицей (1).

Тем самым вместо "вкл-выкл-выкл-выкл-вкл-выкл-выкл-вкл" (подразуме-

вая, что надо включить первую, пятую и восьмую лампы, а остальные выклю-

чить), Вы запишете то же самое иначе: 1, 0, 0, 0, 1, 0, 0, 1 или двоич-

ным числом 10001001. Оно равно десятичному 137. Теперь Вы скажете своему

знакомому: "Я подобрал изумительное освещение ! 10001001. Попробуй". И

он точно воспроизведет Вашу настройку, зажигая и гася соответствующие

лампы.

Может показаться, что этот способ чересчур сложен для описания яркос-

ти ламп, но он иллюстрирует теорию двоичного представления информации,

лежащую в основе любого современного компьютера.

Двоичное представление чисел позволяет составление чисел позволяет

создавать калькуляторы, пользуясь преимуществами электрических цепей.

Именно так и поступила во время второй мировой войны группа математиков

из Moore School of Electrical Engineering при Пенсильванском университе-

те, возглавляемая Дж. Преспером Эккертом (J. Presper Eckert) и Джоном

Моучли (John Mauchly), начав разработку электронно-вычислительной машины

ENIAC (Electronic Numerical Integrator And Calculator - электронный чис-

ловой интегратор и калькулятор). Перед учеными поставили цель - ускорить

расчеты таблиц для наведения артиллерии. ENIAC больше походил на элект-

ронный калькулятор, чем на компьютер, но двоичные числа представляли уже

не примитивными колесиками, как в арифмометрах, а электронными лампами -

"переключателями".

Солдаты, приписанные к этой огромной машине, постоянно носились вок-

руг нее, скрипя тележками, доверху набитыми электронными лампами. Стоило

перегореть хотя бы одной лампе, как ENIAC тут же вставал и начиналась

суматоха: все спешно искали сгоревшую лампу. Одной из причин - возможно,

и не слишком достоверной - столь частой замены ламп считалась такая: их

тепло и свечение привлекают мотыльков, которые залетают внутрь машины и

вызывают короткое замыкание. Если это правда, то термин "жучки" (bugs),

под которым имеются в виду ошибки в программных и аппаратных средствах

компьютеров, приобретает новый смысл.

Когда все лампы работали, инженерный персонал мог настроить ENIAC на

какую-нибудь задачу, вручную изменив подключения 6000 проводов. Все эти

провода приходилось вновь переключать, когда вставала другая задача. В

решении этой проблемы основную заслугу приписывают Джону фон Нейману,

американцу венгерского происхождения, блестящему ученому, известному

многими достижениями - от разработки теории игр до вклада в создание

ядерного оружия. Он придумал схему, которой до сих пор следуют все циф-

ровые компьютеры. "Архитектура фон Неймана", как ее теперь называют, ба-

зируется на принципах, сформулированных им в 1945 году. В их число вхо-

дит и такой: в компьютере не придется изменять подключения проводов, ес-

ли все инструкции будут храниться в его памяти. И как только эту идею

воплотили на практике, родился современный компьютер.

Сегодня "мозги" большинства компьютеров - дальние потомки того мик-

ропроцессора, которым мы с Полом так восхищались в семидесятых, а "рей-

тинг" персональных компьютеров зачастую определяется тем, сколько бит

информации (переключателей - в нашем примере со светом) способен единов-

ременно обрабатывать их микропроцессор и сколько у них байт (групп из

восьми бит) памяти и места на диске. ENIAC весил 30 тонн и занимал

большое помещение. "Вычислительные" импульсы бегали в нем по 1500 элект-

ромеханическим реле и 17000 электронным лампам. Он потреблял 150000 ватт

электроэнергии и при этом хранил объем информации, эквивалентный всего

лишь 80 символам.

К началу шестидесятых годов транзисторы начали вытеснять электронные

лампы из бытовой электроники. Это произошло через десятилетие после то-

го, как в Bell Labs открыли, что крошечный кусочек кремния способен де-

лать то же, что и электронная лампа. Транзисторы - подобно электронным

лампам - действуют как электрические переключатели, потребляя при этом

намного меньше электроэнергии, в результате выделяя гораздо меньше тепла

и занимая меньше места. Несколько транзисторных схем можно объединить на

одной плате, создав тем самым интегральную схему (чип). Чипы, используе-

мые в современных компьютерах, представляют собой интегральные схемы,

эквивалентные миллионам транзисторов, размещенных на кусочке кремния

площадью менее пяти квадратных сантиметров.

В 1977 году Боб Нойс (Bob Noyce), один из основателей фирмы Intel, в

журнале Scientific American сравнил трехсотдолларовый микропроцессор с

ENIAC, кишащим насекомыми мастодонтом. Крошка-микропроцессор не только

мощнее, но и, как заметил Нойс, "в 20 раз быстрее, обладает большей па-

мятью, в 1000 раз надежнее, потребляет энергии столько же, сколько лам-

почка, а не локомотив, занимает 1/30000 объема и стоит в 10000 раз де-

шевле. Его можно заказать по почте или купить в местном магазине".

Конечно, микропроцессор 1977 года теперь кажется просто игрушкой.

Ведь сегодня во многих недорогих игрушках "сидят" более мощные

компьютерные чипы, чем микропроцессоры семидесятых, с которых начиналась

микрокомпьютерная революция. Но все современные компьютеры, каков бы ни

был их размер или мощность, оперируют с информацией в виде двоичных чи-

сел.

Двоичные числа используются для хранения текста в персональных

компьютерах, музыки на компакт-дисках и денег в сети банковских автома-

тов. Прежде чем отправить информацию в компьютер, ее надо преобразовать

в двоичный вид. А машины, цифровые устройства, возвращают информации ее

первоначальную форму. Каждое такое устройство можно представить как на-

бор переключателей, управляющих потоком электронов. Эти переключатели,

обычно изготавливаемые из кремния, крайне малы и срабатывают под

действием электрических зарядов чрезвычайно быстро - тем самым воспроиз-

водя текст на экране персонального компьютера, музыку на проигрывателе

компакт-дисков и команды банковскому автомату, который выдает Вам налич-

ность.

Пример с выключателями ламп продемонстрировал, что любое число можно

представить в двоичном виде. А вот как то же самое сделать с текстом. По

соглашению, число 65 кодирует заглавную латинскую букву A, 66 - B и т.д.

В компьютере каждое из этих чисел выражается двоичным кодом, поэтому

заглавная латинская буква A (десятичное число 65) превращается в

01000001, а буква B (66) - в 01000010. Пробел кодируется числом 32, или

00100000. Таким образом, выражение "Socrates is a man" ("Сократ есть че-

ловек") становится 136-разрядной последовательностью единиц и нулей.

Здесь легко проследить, как строка текста превратилась в набор двоич-

ных чисел. Чтобы понять, как преобразуют другие виды данных в двоичную

форму, разберем еще один пример. Запись на виниловой пластинке - это

аналоговое представление звуковых колебаний. Аудиоинформация хранится на

ней в виде микроскопических бугорков, расположенных в длинных спиральных

канавках. Если в каком-то месте музыка звучит громче, бугорки глубже

врезаются в канавку, а при высокой ноте бугорки располагаются теснее.

Эти бугорки являются аналогами исходных колебаний звуковых волн, улавли-

ваемых микрофоном. Двигаясь по канавке, иголка проигрывателя попадает на

бугорки и вибрирует. Ее вибрация - все то же аналоговое представление

исходного звука - усиливается и звучит из динамиков как музыка.

Виниловой пластинке, подобно всякому аналоговому устройству хранения

информации, свойствен ряд недостатков. Пыль, следы пальцев или царапины

на поверхности пластинки могут приводить к неадекватным колебаниям иглы,

вызывая в динамиках потрескивание и другие шумы. Если скорость вращения

пластинки хотя бы немного отклоняется от заданной, высота звука сразу же

меняется. При каждом проигрывании пластинки игла постепенно "снашивава-

ет" бугорки в канавке, и качество звучания соответственно ухудшается.

Если же какую-нибудь песню записать с виниловой пластинки на кассетный

магнитофон, то все "шероховатости" переносятся на пленку, а со временем

к ним добавятся новые, потому что обычные магнитофоны сами являются ана-

логовыми устройствами. Таким образом, при каждой перезаписи или передаче

информация теряет в качестве.

На компакт-диске музыка хранится как последовательность двоичных чи-

сел, каждый бит которых представлен микроскопической впадинкой на по-

верхности диска. На современных компакт-дисках таких впадинок более 5

миллиардов. Отраженный лазерный луч внутри проигрывателя компакт-дисков

- цифрового устройства - проходит по каждой впадинке, а специальный дат-

чик определяет ее состояние (0 или 1). Полученную информацию проигрыва-

тель реконструирует в исходную музыку, генерируя определенные электри-

ческие сигналы, которые динамики преобразуют в звуковые волны. И сколько

бы такой диск ни проигрывали, его звучание не меняется.

Было бы удобно преобразовать всю информацию в цифровую форму, но воз-

никает проблема обработки ее больших объемов. Слишком большое число бит

может переполнить память компьютера или потребовать много времени на пе-

редачу между компьютерами. Вот почему так важна (и становится все важ-

нее) способность компьютера сжимать цифровые данные и хранить или пере-

давать их в таком виде, а затем вновь разворачивать сжатые данные в ис-

ходную форму.

Рассмотрим вкратце, как компьютер справляется с этим. Для этого надо

вернуться к Клоду Шеннону, математику, который в тридцатых годах осоз-

нал, как выражать информацию в двоичной форме. Во время второй мировой

войны он начал разрабатывать математическое описание информации и осно-

вал новую область науки, впоследствии названную теорией информации. Шен-

нон трактовал информацию как уменьшение неопределенности. Например, Вы

не получаете никакой информации, если кто-то сообщает Вам, что сегодня

воскресенье, а Вы это знаете. С другой стороны, если Вы не уверены, ка-

кой сегодня день недели, и кто-то говорит Вам - воскресенье, Вы получае-

те информацию, так как неопределенность уменьшается.

Теория информации Шеннона привела в конечном счете к значительным

прорывам в познании. Один из них - эффективное сжатие данных, принципи-

ально важное как в вычислительной технике, так и в области связи. Ска-

занное Шенноном, на первый взгляд, кажется очевидным: элементы данных,

не передающие уникальную информацию, избыточны и могут быть отброшены.

Так поступают репортеры, исключая несущественные слова, или те, кто пла-

тит за каждое слово, отправляя телеграмму или давая рекламу. Шеннон при-

вел пример: в английском языке буква U лишняя в тех местах, где она сто-

ит после буквы Q. Поэтому, зная, что U следует за каждой Q, в сообщении

ее можно опустить.

Принципы Шеннона применяли к сжатию и звуков, и фильмов. В тридцати

кадрах, из которых состоит секунда видеозаписи, избыточной информации

чрезвычайно много. Эту информацию при передаче можно сжать примерно с 27

миллионов бит до 1 миллиона, и она не потеряет ни смысла, ни красок.

Однако сжатие не безгранично, а объемы передаваемой информации все

возрастают и возрастают. В скором будущем биты будут передаваться и по

медным проводам, и в эфире, и по информационной магистрали, в основу ко-

торой лягут волоконно-оптические кабели. Волоконно-оптический кабель

представляет собой пучок стеклянных или пластмассовых проводов настолько

однородных и прозрачных, что на другом конце стокилометрового кабеля Вы

сможете разглядеть горящую свечу. Двоичные сигналы в виде модулированных

световых волн смогут без затухания распространяться по этим кабелям на

очень длинные расстояния. Естественно, по волоконно-оптическим кабелям