Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции по TURBO PASCAL.doc
Скачиваний:
18
Добавлен:
04.11.2018
Размер:
1.13 Mб
Скачать

1.3. Устройство компьютера и его компоненты.

ЭВМ - это электронная вычислительная машина, предназначенная для сбора, хранения, переработки и выдачи информации, следовательно, все устройства компьютера предназначены для решения вопросов, связанных с информацией. Любой компьютер состоит из следующих устройств: памяти, устройств ввода/вывода, процессора.

К устройствам ввода/вывода относятся: клавиатура, мышь - устройство ввода, монитор или дисплей, принтер, графопостроитель - устройства вывода.

Процессор – основное устройство ЭВМ, предназначенное для обработки различной информации. Без него невозможна была бы работа ЭВМ. Процессор выполняет команды, записанные в памяти ЭВМ. Под управлением процессора работают все устройства ЭВМ. Основными характеристиками процессора являются быстродействие (число выполняемых операций в секунду) и разрядность. Разрядность характеризует объём информации, который процессор обрабатывает за одну операцию: 8-разрядный процессор обрабатывает за одну операцию 8 бит информации, 16-разрядный – 16 бит и т.д.

Устройство "память" предназначено для хранения информации. Она делится на две части: внутреннюю – оперативную и внешнюю – долговремен­ную. Основной характеристикой памяти является её объём (количество запоминаемой информации). Объём оперативной памяти очень ограничен, кроме того, при выключении ЭВМ вся информация, хранящаяся в этой памяти, теряется. Поэтому ценную информацию надо предварительно перенести на внешнюю память: на жёсткий диск (винчестер), дискеты, кассеты, стриммеры или компакт-диски. Самым удобным запоминающим устройством является винчестер, т.к. он обладает жестким магнитным диском, вмещающим большие объемы информации. Он физически надежнее защищен, чем дискета.

Помимо основных устройств ЭВМ может обладать другими периферийными устройствами. К ним относятся: джойстики, модемы, факс-модемы, сканеры, принтеры.

Связь и обмен информацией между компонентами ЭВМ осуществляется с помощью системной магистрали (шины).

1.4. Информация

1.4.1. Измерение информации.

Информация, наряду с веществом и энергией, является важнейшей сущностью нашего мира. В жизни человека информация играет исключительно важную роль. Первую информацию человек получает еще до рождения - это генетическая информация его родителей. В дальнейшем все жизненные процессы человека в той или иной степени связаны с информацией. Заметим, что именно потребность выразить и передать информацию привела к появлению речи, письменности, изобразительного искусства, вызвала к жизни книгопечатание, почтовую связь, радио, ТВ и др. Как видим, всемирный прогресс непосредственно связан с информацией и немыслим без неё. Понятно, что вопрос измерения информации является совсем не праздным. Но прежде, чем к нему перейти, следует договориться об определении информации. Достаточно лаконичное толкование находим в книге известных литовских авторов Dagiene и Grigas'a:

Информация – это сведения, которые можно передать, принять, запомнить.

Получая информацию, мы узнаем что-то новое. Значит, до ее получения мы знали меньше, а стали знать больше. Нельзя ли узнать, сколько приняли информации, на сколько увеличились наши знания, т.е. измерить её количество?

Для измерения длины, массы, времени придуманы приборы и единицы измерения. Например, для того чтобы узнать длину стержня, достаточно приложить к нему линейку. А как узнать количество информации в сообщении и в каких единицах ее измерять? Ответ на эти вопросы предложил в 1948 К.Шеннон, основатель теории информации – раздела кибернетики, в котором при помощи математических методов изучаются способы измерения количества информации, а также методы её кодирования при передаче.

Поясним на примере, как измеряют информацию. Предположим, первый человек загадывает число от 1 до 8, а второй его отгадывает, задавая вопросы, ответом на которые могут быть только ДА или НЕТ. Второй пытается задать как можно меньше вопросов. Самая примитивная стратегия – это спрашивать: “это 1?”, затем: “это 2?” и т. д. В общем случае, чтобы наверняка угадать число придется задать 7 вопросов.

Нельзя ли придумать более оптимальный способ? Оказывается, можно: это вопросы, по ответам на которые интервал, где искомое число может находиться, каждый раз уменьшается наполовину. Например. Это число больше 4? – Да. Больше 6? – Нет. Больше 5? – Нет. Значит это 5. Вместо 7 вопросов – 3.

Количество информации, которое даёт один из двух возможных ответов на вопрос (ДА или НЕТ), называется битом. Значит, в разобранном примере мы с каждым ответом получали один бит информации, всего получили три бита. Для того, чтобы угадать число от 1 до 16 потребуется 4 вопроса. Вообще, если загадано число от 1 до 2n, то его можно угадать за n попыток, это значит, что необходимо получить n бит информации, чтобы узнать загаданное число.

Деля пополам исходный интервал, длину которого нельзя представить в виде степени двойки, получим промежуточные интервалы, длины которых не всегда равны. Такие интервалы приходится делить пополам приблизительно и число необходимых вопросов может различаться на единицу. Например, если угадываем число между 1 и 6, то потребуется 2 или 3 вопроса, поскольку ближайшие к шестёрке числа, выражающиеся натуральной степенью двойки, – это 22 = 4 и 23 = 8 т.е. 22<5<23.

Если длина исходного интервала не может быть представлена в виде степени двойки, то количество информации выражается дробным числом. Изучая информатику, больше придется иметь дело с дискретными вычислительными машинами, потому это дробное число будем заменять ближайшим превышающим его натуральным числом. То есть, будем считать, что количество информации, необходимое для отгадывания числа от 1 до 6, равно 3 битам.

Оговоримся, что делить исходный интервал необязательно на две части. Это можно сделать и по-другому, например, по признаку чётности и др. Главное, чтобы каждый вопрос делил все числа интервала на две равные или приблизительно (на сколько возможно точно) равные части.

В жизни чаще имеем дело не с интервалами чисел, а с множествами, содержащими конечное число возможных ответов на вопрос, но принципы, изложенные выше, остаются в силе. Так, узнав ответ на вопрос: “Под каким знаком зодиака вы родились?” – получим 4 бита информации, так как 23<12<24. А сколько информации нужно для записи одной буквы алфавита? Так как в русском алфавите 32 буквы (без буквы Ё), то для одной буквы нужно 5 бит информации. Однако в тексте бывают маленькие и большие буквы, пробелы, знаки препинания, цифры, специальные значки и т.п. Кроме того, часто встречаются буквы латинского алфавита. Если перечислить все эти символы, используемые для записи текстов, получится около 200 символов. Для удобства используют 256 (два в восьмой степени) символов – 8 бит информации. Объём информации в 8 бит называют байтом.

Существуют и ещё более крупные единицы измерения:

1 килобайт = 1024 байт,

1 мегабайт = 1024 килобайт,

1 гигабайт = 1024 мегабайт.9

К единицам измерения многих физических величин мы привыкли. А бит, байт, килобайт – много это или мало? При использовании современных методов кодирования информации, когда для кодирования одного символа текста требуется один байт, получим, что на странице учебника содержится около 2500 байт информации (примерно 2.5 килобайт), а во всем учебнике - около 500 кбайт текста (0.5 Мбайт). Если человек говорит по два часа в день, то за 70 лет он наговорит 2.5 гигабайта информации (это примерно 1.25 млн. страниц - стопка бумаг высотой 125 м).

1.4.2. Дискретные и непрерывные величины, сообщения

Сообщения – это конкретное выражение информации. Сообщения могут передаваться разными способами: светом, звуком, запахом, температурой. Отправляющий сообщения называется отправителем, а получающий - получателем. Сообщения должны посылаться такими сигналами, которые может передавать отправитель и принимать получатель. Сами сигналы во время передачи могут меняться сигналами другого типа. Важны только окончательные сигналы, а промежуточные могут быть неизвестными. Природа сигналов физическая. Поэтому сигналы можно измерить, определить характеризующую их величину, например, силу, частоту повторений. Эти величины и служат для выражения (высказывания) сообщения. Отправитель передаёт сообщение нужной для этого величиной сигнала, а тот, кому предназначена эта информация, измеряет полученный сигнал и узнаёт, что было передано. И отправитель, и получатель должны использовать тот же код, чтобы одинаково понять сообщение. Этот код называется языком. По характеру выраженной информации величины делятся на непрерывные (или аналоговые) и дискретные.

Непрерывные - это такие величины, число значений которых на любом интервале бесконечно. Например, между 10 и 12 существует бесконечно много рациональных чисел. Непрерывные величины выражаются непрерывными сигналами.

Противоположность непрерывным величинам составляют дискретные величины. Слово дискретные (лат. discretus) обозначает отделённые, составленные из отдельных частей. Дискретные величины - это такие величины, число значений которых на любом закрытом интервале конечно. Например, в любом интервале натуральных чисел находится конечное множество натуральных чисел. Дискретные величины выражаются дискретными сигналами. Дискретный сигнал имеет конечное, чётко ограниченное число значений. Например, светофор имеет три значения: красный, жёлтый, зелёный. Никаких других промежуточных цветов быть не может, разве что их комбинации.

Непрерывный сигнал на любом интервале имеет бесконечно много значений. Чтобы передаваемая и обрабатываемая непрерывная информация не искажалась при передаче, она дискретизируется, т.е. преобразуется в дискретную. Например: звук, записанный на магнитную ленту, – пример аналоговой информации. При многократной перезаписи качество звука теряется. А если звук дискретизировать, записать его в виде нулей и единиц, то при перезаписи хоть и можно сделать ошибку, но её легко можно обнаружить при сравнении, чего нельзя сделать с аналоговыми данными.

Дискретизируя, мы вносим ошибки, так как непрерывную величину, число значений которой бесконечно, выражаем дискретной величиной, имеющей конечное число значений. Для минимизации этих потерь стараются увеличить уровень дискретизации, то есть разбить непрерывный интервал на как можно большее число отрезков.

В современной технике всё более преобладает дискретный способ. Даже в магазине стрелочные весы вытесняются весами с электронной индикацией. Поэтому и продавец, и покупатель воспринимают показания одинаково. Кстати, цифры в индикации также состоят из дискретных элементов – сегментов, когда написанные от руки цифры состоят из непрерывной линии, которая каждый раз может быть написана по-разному.

Дискретные данные создаются на основе непрерывных не только в компьютерах. Примером может служить письменность. Символы - дискретные элементы, хотя каждый из них состоит из комбинаций тёмных и светлых пятен, которые являются непрерывной информацией.

Дискретные вычислительные машины выполняют с величинами точные и безошибочные действия. С развитием электроники и технологии производства, используются только дискретные вычислительные машины: калькуляторы, персональные компьютеры, крупные ЭВМ.

1.4.3. Кодирование информации.

Информация – это сведения, которые можно передать, принять, запомнить, сохранить.

Информация передается в форме сообщений. Одно и то же сообщение можно представить по-разному, поэтому если мы хотим его передать или сохранить, то нужно договориться о том, как его выражать.

Древнейший способ общения людей - разговорная речь. Информация при этом выражается звуками, которые образуют слова. Речь является хорошим средством для передачи информация, но плохо подходит для её хранения. Чтобы было возможно зафиксировать информацию (сохранить) на достаточно продолжительный срок, была изобретена письменность. Первые используемые символы напоминали рисунки тех вещей, которые они обозначают. Со временем рисунки видоизменялись, становились всё более абстрактными и превратились в иероглифы, которые до сих пор использует ряд народов Востока. Каждый символ здесь, как правило, выражает одно понятие и это не вполне удобно, т. к. алфавит при этом состоит из нескольких тысяч символов и их нелегко запомнить.

Алфавит – это множество символов, употребляемых при обозначении информации.

Различные народы по-разному видоизменяли свой алфавит, но общий принцип характерен для многих - слова делятся на определенные части: слоги, звуки; а значки подбираются уже для выражения этих частей. Большинство народов Европы использует в наши дни латинский алфавит с теми или иными изменениями (например, в литовском языке добавлены носовые и ряд шипящих, а буквы Q, W, X исключены). Латинский алфавит состоит из 26 букв. Преимущества такого способа записи очевидны: гораздо легче научиться читать и писать, ведь число символов невелико, а их форма достаточно проста.

В информатике понятие алфавита не ограничивается буквами какого-либо языка. Алфавит в этом смысле – это конечное множество символов, используемых для выражения сообщений. Примерами алфавита являются:

  • множество цифр для записи целых чисел ;

  • множество из 12 символов, выражающих знаки Зодиака ;

  • 4 символа, выражающих масти карт .

Информация, обрабатываемая компьютером, должна быть представлена в удобном для него виде. Компьютеру удобнее всего использовать алфавит из 2 символов, так как их проще простого записывать, сохранять и передавать.

Понятно, что символы одного алфавита можно записать символами другого алфавита, например, логическим выражениям ИСТИНА и ЛОЖЬ можно сопоставить 1 и 0 соответственно. Замену символов одного алфавита символами другого называют кодированием, а правила, по которым этот процесс происходит, – кодом.

Кодировать просто, когда количество символов в обоих алфавитах одинаково – их достаточно разбить на пары. Если же число букв в алфавитах не совпадает и в первом алфавите букв меньше, то нам придется обозначать каждый символ первого алфавита комбинацией из нескольких символов второго. Например, из двух двоичных символов можем составить 4 различные комбинации (00, 01, 10, 11) и, следовательно, закодировать некий четырехсимвольный алфавит. Из трех двоичных символов можно составить 8 различных комбинаций (000, 001, 010, 011, 100, 101, 110, 111) и, следовательно, закодировать некий восьмисимвольный алфавит. В общем случае, из n двоичных символов можем составить 2n комбинаций и закодировать алфавит, содержащий не более 2n символов. Для кодирования русского алфавита (32 буквы без "Ё") необходимо 5 двоичных символов (5 бит).

В печатном тексте содержится до 100 различных знаков, значит, каждый его элемент можно закодировать семью двоичными элементами (т.к. 26 < 100, а число 100<27). А в компьютерном алфавите для удобства используют 256 символов (этот алфавит называется расширенной таблицей ASCII), так как там есть буквы русского и английского алфавита, символы псевдографики для рисования таблиц, математические знаки и др. Потому компьютерный алфавит кодируют последовательностью из восьми двоичных символов (28 = 256). Поскольку двоичный элемент выражает количество информации, равное одному биту, то каждый символ, выраженный восемью двоичными, несёт 8 бит или 1 байт информации. Например, в этой статье содержится порядка 4400 символов, т.е. 4400 байт (35200 бит). Конкретным способом закодированная информация называется данными.

Добавим, что от способа кодирования информации зависит её количество в одном и том же сообщении. Например, если ответу ДА (один бит) поставим в соответствие 1, то это - один бит информации, а если запишем его буквами, каждая из которых кодируется восемью двоичными символами, то это уже 16 бит.

Для обеспечения обмена информации принимаются определенные национальные и стандартные международные коды. Наибольшее распространение получил код ASCII (American Standart Code for Information Interchange).