Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Обзорка1.doc
Скачиваний:
33
Добавлен:
02.05.2015
Размер:
398.34 Кб
Скачать

4. Принцип двоичного кодирования

Согласно этому принципу, вся информация, поступающая в ЭВМ, кодируется с помощью двоичных сигналов.

Отсюда следует возможность давать имена областям памяти, так, чтобы к запомненным в них значениям можно было бы впоследствии обращаться или менять их в процессе выполнения программы с использованием присвоенных имен.

Согласно фон Нейману, ЭВМ состоит из следующих основных блоков:

  • Устройства ввода/вывода информации

  • Память компьютера

  • Процессор, состоящий из устройства управления (УУ) и арифметико-логического устройства (АЛУ)

Машины, построенные на этих принципах, называются ФОН-НЕЙМАНОВСКИМИ.

Функциональные возможности и взаимодействие аппаратурных средств, определяющие общие принципы работы обработки и перемещения данных в компьютере, называют его архитектурой. Архитектура показывает пользователю, какие основные и дополнительные аппаратурно-программные средства компьютера можно привлечь для наиболее эффективной организации вычислительного процесса.

В современных компьютерах архитектуру и производительность определяет так называемая системная или материнская плата. На нее устанавливаются центральный процессор, основная память – оперативное запоминающее устройство ОЗУ, являющееся памятью с произвольным доступом, вспомогательные схемы и слоты – щелевые разъемы, служащие для подключения плат (карт) расширения, с помощью которых с системной платой через внешние разъемы соединяются нужные внутренние и внешние периферийные устройства (ПУ). Внутренние ПУ располагаются в системном блоке, а внешние – вне его. Внешние разъемы карт расширения закрепляются на их боковой металлической скобе. С помощью этой скобы карты расширения устанавливаются в конструкцию системного блока.

В компьютерах IBM PC в виде слотов реализованы следующие шины расширения:

- универсальные шины ISA-8 и ISA-16, служащие для подключения медленных периферийных адаптеров;

- шина EISA – 32-битная шина средней производительности для подключения контролеров дисков и адаптеров локальных сетей в серверах;

- шина PCI, являющаяся самой распространенной высокопроизводительной 32/64-разрядной шиной; она используется для подключения адаптеров дисков, контроллеров системной шины, графических, видео- , коммуникационных и других адаптеров.

Шины кабельного соединения:

- последовательная шина среднего быстродействия, используемая для подключения принтеров, сканеров, различных дисков, цифровых акустических систем;

- интерфейсная шина системного уровня, она обеспечивает высокоскоростное подключение внутренних и внешних периферийных устройств к адаптеру системной платы с помощью ленточного кабеля-шлейфа;

- шина для подключения видеоаппаратуры и объединения компьютеров в сеть.

Центральное место в организации взаимодействия блоков компьютера занимает интерфейс: совокупность унифицированных аппаратурных, программных и конструктивных средств, необходимых для реализации алгоритмов совместной работы различных функциональных устройств компьютера.

К основным характеристикам интерфейса относят: функциональное назначение; технологии и линии связи; принцип обмена информацией; способ обмена; режим обмена; количество линий; число подключаемых устройств.

В архитектуру системной платы входят: процессор, вторичный кэш, системный контроллер, оперативное запоминающее устройство (ОЗУ), собственное коммутируемая шина адреса и данных ОЗУ, коммутаторы данных, высокопроизводительный междушинный мост, устройства шин ISA и PCI, выполняющие функции интегрированных в чипсет адаптеров. Чипсетом называется набор больших интегральных схем, при подключении которых друг к другу формируется сложный функциональный блок компьютера, выполняющий практически все функции вычислительной системы.

Важнейшим из устройств ввода является клавиатура. При нажатии клавиши генерируется связанный с ней код, заносимый в соответствующий буфер памяти, а при ее отпускании – другой код, что позволяет перепрограммировать назначение клавиш, вводя новую таблицу соответствия этих кодов.

Большинство клавиатур имеют стандартные группы клавиш:

  • клавиши пишущей машинки – для ввода букв, цифр и других знаков;

  • служебные клавиши (переключатели регистров, переходы с латинского шрифта на русский и др.);

  • функциональные клавиши F1-F12;

  • дополнительные цифровые клавиши для большего удобства в работе.

В состав ПК входит мышь – устройство ввода и управления.

Все чаще с компьютером оказывается сканер – устройство для ввода с листа бумаги документов (текстов, чертежей и др.). Сканеры бывают цветными и монохромными, с разной разрешающей способностью, разным размером обрабатываемых изображений, настольными и ручными.

Не так давно появились средства речевого ввода, которые позволяют пользователю вместо клавиатуры, мыши и других устройств использовать речевые команды (или проговаривать текст, который должен быть занесен в память в виде текстового файла). Возможности таких устройств достаточно ограничены, хотя они постоянно совершенствуются.

Самым популярным из устройств вывода информации является дисплей – устройство визуального отображения текстовой и графической информации. Бывают дисплеи монохромные и цветные. Монохромный дисплей производит отображение в двух цветах – черном и белом, либо зеленом и черном и т.д. Высококачественный цветной дисплей может воспроизводить десятки основных цветов и сотни оттенков. Бывают также дисплеи графические и алфавитно-цифровые. Графический дисплей может отображать как символы, так и любое изображение.

В настоящее время начался промышленный выпуск плазменных дисплеев.

Огромную роль при выводе информации играют печатающие устройства – принтеры. Существуют ударные точечно-матричные принтеры цветной печати. В них используется 4-цветные ленты, и каждая точка изображения формируется четырьмя последовательными ударами иголки разной силы. Таким образом, можно сформировать на бумаге точки всех основных цветов и множества оттенков. Крупнейший производитель точечно-матричных принтеров – фирма «Epson».

Существуют струйные и лазерные принтеры. Достоинство струйных принтеров – меньший уровень шума при работе. Самые высококачественные изображения на бумаге на сегодняшний день дают лазерные принтеры. Лазерный принтер работает почти бесшумно.

К принтерам близки по назначению плоттеры – специализированные устройства для вывода на бумагу чертежей и рисунков. Они необходимы для проектировщика, инженера-конструктора, архитектора.

Своеобразные устройства вывода – синтезаторы звука. Простейшие из них есть в арсенале почти у всех ПК и представляют собой обычный малогабаритный динамик, напряжение сигнала на котором с большой частотой изменяется компьютером. Таким способом удается подать простой звуковой сигнал, указывающий на наступление какого-либо события.

  1. Микропроцессор. Система команд и форматы данных МП.

Микропроцессор является «мозгом» компьютера. Он осуществляет выполнение программ, работающих на компьютере, и управляет работой остальных устройств компьютера. Скорость его работы во многом определяет быстродействие компьютера. В IBM PC используются МП, разработанные фирмой Intel.

МП отличаются друг от друга двумя характеристиками: типом (моделью) и тактовой частотой. Чем выше тактовая частота, тем выше производительность и цена. Тактовая частота указывает, сколько элементарных операций (тактов) МП выполняет в одну секунду. Тактовая частота измеряется в МГц.

Перечислим некоторые форматы данных, типичные для 16-разрядной ЭВМ.

8-битовые целые числа без знака. Каждое такое число занимает 1 байт и воспринимается процессором как целое положительное число.

8-битовые целые числа со знаком. В этом случае величина числа задается семью битами, а значение старшего бита определяет знак числа (0-положтельное, 1-отрицательное).

16-битовые целые числа со знаком и без знака. Они в точности аналогичны 8-битовым, но код имеет вдвое большую длину.

8-битовые символы. В этом формате двоичный код интерпретируется обрабатывающей его командой как код символа.

Битовые поля. В этом формате значащим является не весь 8- или 16-разрядный код в целом, а каждый из составляющих его битов. Один из примеров битового поля – форма хранения множеств в языке «Паскаль».

Существуют и другие форматы данных – двоично-десятичные числа, строки и т.д.

На примере процессоров семейства PDP (производства США) рассмотрим систему команд МП. Этот процессор имеет достаточно удобный и широкий набор команд. Основная их часть является двухадресными и одноадресными, т. е. они обрабатывают два или один операнд. Для выполнения некоторых управляющих команд данные не требуются – такие команды не содержат ссылок и операнды.

Наиболее важные команды:

1) остановка (выполнение программы прекращается);

2) очистить А (А:=0 (в операнд А засылается 0));

3) увеличить А на 1;

4) уменьшить А на 1;

5) переписать А в В (В:=А);

6) сложить А в В (В:=В+А);

7) вычесть А из В;

8) сравнить А с В;

9) Безусловный переход на К слов;

10) вызов подпрограммы по адресу А;

11) возврат из подпрограммы.

  1. Понятие информации....

ИНФОРМАЦИЯ – это совокупность сведений, уменьшающих неопределенность в выборе различных возможностей. Это такое общее определение, не относящееся к конкретной области. В переводе с латинского информация – это разъяснение, осведомление.

Информацию можно создавать, передавать, запоминать, искать, принимать, копировать (в какой-то форме), обрабатывать и, наконец, утаивать или разрушать

Формы представления информации следующие: числовая, текстовая, графическая, звуковая.

Хранение информации – это запись на какое-то запоминающее устройство, для последующего использования, в любой, необходимый момент (чтобы не создавать заново). Это средство обеспечения ее доступности. Информация записывается в файл. Файл – это место постоянного хранения информации на внешних носителях. Независимо от того, какого вида информацию мы хотим сохранить, в память компьютера информация всегда записывается в числовой форме, в двоичном виде. Для записи в память машины используется два символа «0» и «1», т.е. используется двоичный код. Это простейший язык, алфавит которого состоит из двух символов, они называются битами (величина способная принимать лишь два значения). Бит, принят за минимальную единицу измерения информации. Дальше байт, Кбайт, Мбайт, Гбайт – соответствующие степени двойки (8бит, 2 в 10 степени, 2 в 100 и т.д.).

Еще одна операция, осуществляемая над информацией – это поиск информации, извлечение хранимой информации.

Количество информации – это одна из основных характеристик информации, но это субъективная характеристика. Использование терминов «больше информации» или «меньше информации» подразумевает некоторую возможность ее измерения. В тоже время в информатике нельзя провести точную параллель между объемом информации и количеством информации, точнее нельзя установить такую порядковую шкалу. Поэтому информация воспринимается через определенный набор свойств: важность, достоверность, своевременность, доступность и т.д. С точки зрения информатики наиболее важными считаются следующие свойства: объективность, полнота, достоверность, адекватность, доступность и актуальность.

Объективность и субъективность информации. Более объективной принято считать ту информацию, в которой применяемые методы вносят наименьшие субъективные элементы (фотография и рисунок, вынужденная выборка и т.д.).

Полнота информации. Полнота информации во многом характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся.

Достоверность информации. Информация возникают в момент получения сообщения, но не всякое сообщение является «полезным» - всегда присутствует какой-то уровень посторонних сообщений, в результате чего полезная информация сопровождается определенным количеством «информационного мусора». Если полезное сообщение зарегистрировано более четко, чем постороннее, достоверность информации может быть более высокой.

Адекватность информации – это степень соответствия реальному объективному состоянию дела. Неадекватная информация может образоваться при создании новой информации на основе неполных или недостоверных данных.

Доступность информации – это мера возможности получить ту или иную информацию.

Актуальность информации – это степень соответствия информации текущему моменту времени. Нередко с актуальностью, как и с полнотой, связывают коммерческую ценность информации.

Существует несколько подходов к определению количества информации. Практически каждому объяснению понятия «информация» соответствует свой подход к определению её количества. Остановимся на двух подходах: 1. Содержательный (смысловой, вероятностный) и 2. Алфавитный (объёмный).

1. вероятностный подход к определению количества информации определяет её информативность. Процесс познания окружающего мира приводит к накоп­лению информации в форме знаний (фактов, научных теорий и т. д.) Получение новой информации приводит к расшире­нию знания или, как иногда говорят, к уменьшению неопре­деленности знания. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно го­ворить, что такое сообщение содержит информацию. Количество инфор­мации, заключенное в сообщении, должно быть тем больше, чем больше оно пополняет наши знания.

Для человека сообщение может содержать много информации, мало информации, а может не содержать её совсем. В этом случае речь идёт об информативности сообщения. Она зависит от многих причин. Например, от особенностей того, кто это сообщение принимает: для человека, не знакомого с китайским языком, количество информации в любом китайском тексте равно нулю. Информативность является внутренней, смысловой мерой для определения количества информации.

Например, после сдачи зачета или выполнения конт­рольной работы вы мучаетесь неопределенностью, вы не знаете, какую оценку получили. Наконец, учитель объяв­ляет результаты, и вы получаете одно из двух информаци­онных сообщений: «зачет» или «незачет», а после контроль­ной работы одно из четырех информационных сообщений: «2», «3», «4» или «5». Информационное сообщение об оценке за зачет приво­дит к уменьшению неопределенности вашего знания в два раза, так как получено одно из двух возможных информа­ционных сообщений. Информационное сообщение об оцен­ке за контрольную работу приводит к уменьшению неопре­деленности знания в четыре раза, так как получено одно из четырех возможных информационных сообщений.

Ясно, что чем более неопределенна первоначальная си­туация (возможно большее количество информационных сообщений), тем больше мы получим новой информации при получении информационного сообщения (тем в большее количество раз уменьшится неопределенность знания).

Рассмотренный подход к информации как мере умень­шения неопределенности знания позволяет количественно измерять информацию.

Выходит, что количество информации (информативность) - это мера уменьшения неопределенности в некоторой ситуации. Количество информации, уменьшающее неопределённость знаний в 2 раза, несёт 1 бит информации. Значит, узнав результат бросания монеты, вы получили 1 бит информации. Проблема измере­ния информации исследована в теории информации, основатель кото­рой — Клод Шеннон.

Связь между ко­личеством возможных равновероятных событий N и коли­чеством информации i, которое несет одно событие, выражается формулой Хартли: N =2i. Значение этой формулы столь велико, что её называют главной формулой информатики.

Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности.

2. В алфавитном подходе к определению количества информации определяют информационный объём сообщения – количество информации в сообщении пропорциональное количеству переданных символов.

Вопрос об измерении количества информации является очень важным как для науки, так и для практики. В самом деле, информация является предметом нашей деятельности: мы ее храним, передаем, принимаем, об­рабатываем. Поэтому важно договориться о способе ее измерения, позволя­ющем, например, ответить на вопросы: достаточно ли места на носителе, чтобы разместить нужную нам информацию, или сколько времени потре­буется, чтобы передать ее по имеющемуся каналу связи. Величина, кото­рая нас в этих ситуациях интересует, называется объемом информации. В таком случае говорят об объемном подходе к измерению информации.

При подсчёте информационного объёма поступают следующим образом: абстрагируются от смысла сообщения (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3) и считают количество символов, затем определяют, сколько информации несёт один символ (ёмкость символа) и перемножают полученные числа. Последовательному ряду из 100 букв, например, соответствует определенное значение информации, при этом не учитывается, имеет ли эта последовательность смысл. Таким образом, 100 букв «А», фраза из 100 букв в русской газете или учебнике имеет совершенно одинаковое количество информации.

Такое определение количества информации является очень практичным. Оно соответствует задаче инженера связи, который должен передать информацию, содержащуюся в телеграмме, вне зависимости от известности этой информации для адресата, и взять за это соответствующую плату. Канал связи смысла не понимает. Передающей системе важно лишь передать нужное количество информации за определенное время. Оно подходит и для компьютера, так как он смысла информации также не понимает.

Представим себе, что необходимо передать информационное сообщение по кана­лу передачи информации от отправителя к получателю. Пусть сообщение кодируется с помощью алфавита, состоящего из N знаков. Формула Хартли N =2i связывает между собой мощность алфавита N и количество ин­формации i, которое несет один символ этого алфавита (информационный объём символа). С помощью этой формулы можно, например, опреде­лить количество информации, которое несет знак в двоич­ной знаковой системе: N=2, 2=2i , 21=2i , i=1

Информация представляет собой произвольную последовательность символов. Каждый новый символ увеличивает количество имеющейся информации. Часто используют двухсимвольный алфавит. Например, он может состоять из цифр 0 и 1. Эталоном считается слово, состоящее из одного символа такого алфавита. Количество информации, содержащееся в этом слове, принимают за единицу, названную 1 бит. Интересно, что сама единица измерения количества информации «бит» (bit) получила свое название от английского словосочетания «Binary digiT» — «двоич­ная цифра». Более крупная единица – 1 байт.

Рассмотрим соотношения между единицами измерения сообщений:

1 бит – это «0» или «1» в двоичном алфавите.

1 байт = 8 бит=23 бит

1 килобайт (1К) = 1024 байт=210 байт=213бит

1 мегабайт (1 М) = 1024 К=210 К=220 байт=223 бит

1 гигабайт (1 Г) = 1024 М=210 М=220 К=230 байт=233 бит

1 терабайт (1 Т) = 1024 Г=210 Г=220 М=230 К=240 байт=243бит

1 петабайт (1П) = 1024 Т=210 Т=220 Г=230 М=240К=250 байт=253 бит

Так известно, что количество информации, которое нервная система человека способна передавать в мозг при чтении текстов, составляет примерно 16 бит/с. Эта порция удерживается в сознании примерно 10 сек. Значит, одновременно в сознании человека удерживается 160 бит информации.