Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Lektsia1 (1).doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
6.64 Mб
Скачать

93

Глава 1. Принципы построения современных эвм.

Краткая история развития и понятие архитектуры современных вычислитель­ных машин

Сейчас трудно представить себе то время, когда электронные вычислительные машины (ЭВМ) не имели столь широкого распространения и были доступны лишь программистам и персоналу, обслуживающему их. Между тем, история развития вы­числительной техники насчитывает немногим более шестидесяти лет. Несмотря на столь небольшой по историческим меркам срок сменилось несколько поколений элек­тронных вычислительных устройств. ЭВМ первого поколения создавались на электро­вакуумных лампах и строились до 1955 г. Далее, с появлением полу­проводниковых диодов и транзисторов, стали создаваться ЭВМ на базе этих приборов, и, с этого мо­мента, стали говорить о втором поколении вычислительных машин. С 1965 г. началось серийное производство систем на интегральных микросхемах, и речь пошла об ЭВМ третьего поколения. К подобным ЭВМ относят семейство IBM/360 (IBM/370), PDP-11, отечественные аналоги данных машин: семейства ЕС ЭВМ (ЕС-1030, ЕС-1045 и т.д.) и СМ ЭВМ (CM-4, СМ-1420).

С 1980 г., то есть с момента начала массового производства устройств, создан­ных на базе микропроцессоров, речь пошла об ЭВМ четвертого поколения, то есть о вычислительных системах, построенных на сверхбольших интегральных схемах. Все современные вычислительные машины как персональные, так и суперкомпьютеры принято относить к этому поколению.

Заметим, что первоначально выпускавшиеся даже одним производителем раз­личные ЭВМ, например IBM-7094 и IBM-1401 или отече­ственные Минск-32, Мир-2, БЭСМ, были несовместимы друг с другом, то есть программы, написанные для реали­зации на одной машине, нельзя было использовать без существенных переделок на другой. Различные ЭВМ выпускались для решения разных классов задач. К концу 50-х годов в компании IBM пришли к выводу, что производство семейства компьютеров, каждый из которых выполняет одни и те же команды, имеет много преимуществ и для самой компании, и для пользователей. Чтобы описать этот уровень совместимости, компания IBM ввела термин архитектура. Новое семейство компьютеров должно было иметь одну общую архитектуру: различные модели, раз­личающихся по цене и быстродействию могли выполнять одну и ту же программу. Первым таким семейством стала серия ЭВМ IBM/360, предназначенная как для научных, так и для коммерческих расчетов. Это было целое семейство компьютеров с одним и тем же языком (ассембле­ром). Каждая новая модель была больше по размеру и по мощ­ности, чем предыдущая. Модель 75 была больше по размеру, чем мо­дель 30, работала быстрее и стоила дороже, но программы, написан­ные для одной из них, могли использоваться и на другой.

На практике программы, написанные для менее мощной модели, выполнялись более мощной без особых затруднений, правда, в случае переноса программного обес­печения со старшей модели на младшую могло не хватить памяти. И все, же создание такой серии стало большим достижением. Следует отметить, что в IBM/360 было вве­дено важное новшество — мультизадачность, то есть одновременное вы­полнение не­скольких программ. В дальнейшем по этому же пути пошли и другие разработчики вычислительных систем, и, прежде всего, фирма DEC (семейство мини-ЭВМ VAX).С 80-х годов прошлого века, в связи с массовым производством IBM PC-совместимых персо­нальных компьютеров, понятие архитектура компьютера или архи­тектура вычис­лительных систем стало неотделимо от самих компью­теров, или создаваемых на их базе вычислительных систем.

Понятие информации

Несмотря на достаточно широкое распространение термина «информация» до сих пор нет общепринятого определения этого понятия. Понятие информации тесно связано с понятием системы. Согласно системному подходу система представляет со­бой объект (несколько объектов) находящийся в материальной среде и взаимодейст­вующий с ней. При этом под информацией понимается некоторый продукт отражения системой окружающей среды, или продукт отражения системой самой себя. В ходе взаимодействия объекта со средой в нем происходят изменения, и он становится ис­точником информации либо об окружающей среде, либо о протекающих в нем самом процессах. Сама информация не имеет материальной природы, однако она переносится с помощью материальных носителей, в качестве которых, может выступать любое со­стояние материи – вещество, поле и т.д. Передача информации присуща всем явлениям природы. В естественных неживых системах она является пассивным отражением про­текающих в них процессах. Однако, в искусственных системах, именно она становится причиной их функционирования, в соответствии с их назначением. Без передачи и об­работки информации системой невозможно представить ни одну систему, созданную человеком. С этой точки зрения компьютер представляет собой устройство для обработки информа­ции, в отличие от орудий труда и двигателей, являющихся устройствами для обработки вещества и энергии соответственно.

Основоположник теории информации К. Шенннон писал, что основная идея теории информации состоит в том, что с информацией можно обращаться почти также, как с физическими величинами, такими как масса или энергия []. Однако «почти так же» не означает «точно так же». Действительно для характеристики «транспортной» способ­ности электрического тока произвольной формы при переносе им вещества, например при электролизе, является его среднее значение

При использовании того же тока для транспортировки «энергии» его оценка будет непригодна, поскольку, например, для синусоидальной формы перемен­ного тока, используемой во всех энергетических сетях, его среднее значение равно нулю, а энергия все же доставляется потребителям. Поэтому в этом случае коли­чество переносимой энергии обусловлено действующим значением этого тока и опи­сывается следующим функционалом

Н. Винер отмечал, что «информация есть информация, а не вещество и не энер­гия». Поэтому можно предположить, что для характеристики процессов транс­пор­ти­ровки информации необходим функционал другого вида. Анализ процессов пе­ре­дачи сигналов и дезинформационного действия случайных помех привел К. Шен­нона к вы­воду, что вносимая помехой дезинформация определяется не только её мощ­ностью, но и зависит от вида закона распределения вероятности этой помехи. Этот вывод К. Шеннон сформулировал в виде теоремы, которая утверждает, что если по­меха в веро­ятностном смысле не зависит от сигнала, то независимо от закона распре­деления и мощности сигнала дезинформационное действие помехи определяется ее энтропией

Где, - закон распределения вероятности случайной помехи . Из этой тео­ремы видно, что дезинформационное действие помехи также описывается функциона­лом, однако его вид отличается от двух предыдущих.

Простейшим законом распределения вероятности является равномерный закон, при котором любое значение случайной величины из интервала может появ­ляться с одинаковой вероятностью. Дискретным аналогом закона распределения веро­ятности является частота появления того или иного значения дискретной величины в опыте. Например, при бросании обычного шестигранного игрального кубика, вероят­ности появления каждой грани кубика при очередном броске одинаковы и равны 1/6. Этот пример показывает дискретный аналог равномерного закона распределения веро­ятности.

Количество видов законов распределения случайных величин, отличных от равномерного, бесконечно велико. Среди законов распределения следует отметить нормальный закон или закон распределения Гаусса, описывающий случайные вели­чины вероятность появления определенного центрального значения которых макси­мальна, а вероятности появления других значений плавно спадают – чем дальше от­стоит значение от центрального, тем меньше вероятность его появления. По нормаль­ному закону распределены, например величины ошибки при стрельбе по мишени.

Предложенная Шенноном энтропия выступает как численная мера неопреде­ленности, остающаяся после проведения того или иного опыта, после передачи сиг­нала, после некоторых измерений и т.д. Шеннон предложил также определять количе­ство информации переданное сигналом как разность энтропий сигнала до передачи и после его приема или, в случае измерений какой либо величины как разность энтропий этой величины до и после измерений. Например, до открытия книги неизвестно, какая буква окажется первой на странице. Однако, открыв книгу на некоторой странице, эта буква уже известна. Мы знаем, что напряжение в электрической сети должно быть около 220 вольт, после его измерения вольтметром мы будем знать, чему оно равно на самом деле с точностью, определяемой точностью прибора.

Итак, количество информации определяется как разность энтропий

,

где - энтропия сигнала до передачи (измерения), - энтропия сиг­нала после передачи (измерения), при условии, что переданный (измеренный) сигнал принял значение .

Рассмотрим пример определения количества информации, полученной в ре­зультате измерения некоторой физической величины с помощью прибора. Пусть известно, что эта измеряемая величина распределена равномерно в пределах от до . Прибор может измерять эту величину с точностью . Будем считать, что ошибка при измерениях — это случайная величина с равномерным законом распреде­ления. В этом случае законы распределения для измеряемой величины до и после из­мерения будут

Вычислим энтропию до измерения

Аналогично получим энтропию после измерения

Тогда в результате измерения получили следующее количество информации

Здесь - количество различимых градаций сигнала или, по количество возмож­ных состояний сигнала. Можно показать, что это соотношение справедливо и для лю­бых других законов распределения.

Таким образом, информация это мера уменьшения неопределенности, вы­числяемая как логарифм от числа возможных состояний сигнала.

В примере с книгой и первой буквой на странице, в случае русского алфавита мы получаем информацию при открытии книги равную . Рассмотрим двоичную величину, принимающую значение либо 0, либо 1. Число состояний этой величины равно 2, поэтому в тот момент, когда она примет конкретное значение будет получена информация равная .

Основание логарифма не имеет значения, оно показывает в каких единицах из­меряется информация.

Основание

логарифма

Единица

измерения

2

Бит

10

Дит

Нит

Поскольку число состояний величины целое число, то минимальная двоичная единица информации составляет 1 бит.

При таком подходе к измерению информации, можно сделать вывод, что посто­янная величина не несет никакой информации, поскольку они уже известны. Это хо­рошо согласуется логарифмом числа состояний. Так как у постоянной величины со­стояние всего одно, то и логарифм от единицы равен нулю и следовательно информа­ция равна нулю.

Позиционные системы счисления

В ЭВМ арифметические действия производятся над числами, представленными в виде специальных (машинных) кодов, в принятой для данной машины позиционной системе счисления, под которой понимается способ наименования и изображения чи­сел с помощью символов, имеющих определенные количественные значения—цифр. В зависимости от способа изображения чисел с помощью цифр системы счисления де­лятся на позиционные и непозиционные. Позиционной называется система счис­ления, в которой количественное значение каждой цифры зависит от ее места (пози­ции) в числе. Примером такой системы может служить общепринятая десятичная сис­тема счисления. В непозиционной системе счисления цифры не меняют своего количе­ст­венного значения при изменении положения в записи числа, как, например, в рим­ской системе счисления.

В позиционной системе счисления любое число записывается в виде последова­тельности цифр: Позиции, пронумерованные индек­сами, называются разрядами числа. Сумма равна количеству разрядов числа, — число разрядов целой, а — число разрядов дробной части. Каждая цифра может принимать одно из некоторого количества возможных значений, то есть Количество различных цифр, применяемых для изображения чисел в позиционной системе счисления, называется основанием системы счисления. В пози­ционной системе счисления любое число можно представить в виде суммы:

Основание позиционной системы счисления определяет ее название. Историче­ски так сложилось, что именно десятичная система оказалась общепринятой, но для ЭВМ удобнее использовать другие системы счисления (например, двоичная, восьмеричная и шестнадцатеричная с основаниями два, восемь и шестнадцать). Для записи чисел в двоичной системе счисления используются только две цифры: 0 и 1, в восьмеричной системе — восемь: 0, 1, 2, 3, 4, 5, 6, 7, а в шестнадцатеричной — шест­надцать: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, А, В, С, D, Е, F. В ЭВМ наиболее просто реали­зуются процессы выполнения арифметических и логических операций над числами, представ­ляемыми в двоичной системе счисления. Это объясняется следующими факторами. Во-первых, для представления двоичных чисел в машинах можно использовать доста­точно простые и надежные электронные элементы, имеющие лишь два устойчивых со­стояния. Одно из таких состояний принимается соответствующим коду 1, а другое - 0. Во-вторых, в двоичной системе счисления очень просто выполня­ются арифметические и логические операции над числами. Неудобство заключается в необходимости пере­вода данных, представляемых обычно в десятичной системе, в двоичную систему счисления.

При переводе смешанное число разбивается на целую и дробную части. Пере­вод целой часть производится путем последовательного деления целой части и обра­зующихся целых частных на основание новой системы счисления, до получения в ча­стном единицы. При переводе целой части, полученные в результате последователь­ного деления, остатки являются цифрами младших разрядов целой части числа в новой системе счисления, записанные цифрами исходной системы счисления. Последний не­равный нулю остаток (последнее частное равное 1) является старшей цифрой переве­денного числа.

При переводе дробной части производится последовательное умножение дроб­ной части исходного числа и дробных частей получившихся произведений. При пере­воде дробной части числа целые части, получающиеся при каждом умножении, не уча­ствуют в последующих умножениях. Эти целые части представляют собой цифры дробной части исходного числа в новой системе. Значение первой целой части явля­ется первой цифрой после запятой переведенного числа. Рассмотрим перевод в двоич­ную систему десятичного числа 29,6. Переводим целую часть:

Окончательный результата имеет вид: . Далее переведем дробную часть:

Получаем периодическую двоичную дробь: Обратный пере­вод осуществляется по следующему алгоритму:

Для автоматического перевода десятичных чисел в двоичную систему счисле­ния необходимо сначала ввести в ЭВМ эти десятичные числа, то есть представить их с помощью комбинаций состояний двухпозиционных элементов, из которых построена вычислительная машина. Для этой цели используется двоично-десятичная запись (ко­дирование) чисел. При двоично-десятичной записи каждая цифра десятичного числа заменяется четырехразрядным двоичным числом (тетрадой). Напри­мер, десятичное число 610 в двоично-десятичной записи имеет вид: Перевод двоично-десятичного числа в двоичную систему счисления осуществляется по следующему правилу, проиллюстрированному на следующем примере:

Для обработки экономической информации предусматривается возможность выполнения операций непосредственно в десятичной системе счисления над числами, представленными в двоично-десятичной форме. В современных компьютерах широко используется шестнадцатеричная система счисления, позволяющая делать еще более компактные записи двоичных кодов, что очень важно, так как диапазоны разрядности чисел, команд и специальных двоичных слов, которыми оперируют эти компьютеры, стали значительно шире. Кроме того, в качестве основной единицы информации ис­пользуется восьмиразрядный двоичный код-байт. Переменные разрядности чисел и команд устанавливаются кратными байту. Двоичные коды байтов удобно представля­ются двухразрядными шестнадцатеричными числами. Поэтому при подготовке к вводу в эти компьютеры программ, различных специальных слов и при печати выдаваемой информации, не переводимой в десятичную систему, используется шестнадцатеричная система счисления. При переводе в шестнадцатеричную систему счисления двоичные числа разбиваются влево и вправо от запятой на тетрады, а при обратном переводе ка­ждая шестнадцатеричная цифра заменяется двоичной тетрадой. Например, двоичному числу соответствует шестнадцатеричное число AC7F и наобо­рот.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]