
- •Цели и задачи дисциплины. Основные понятия архитектуры вс. История развития вс. Экономические факторы появления и развития вычислительных систем.
- •Эволюция и тенденции развития вычислительных систем. Современные вычислительные системы и области их применения.
- •11. Системы телеобработки, вычислительные сети. Технология распределенной обработки данных.
- •20 Многомашинные вычислительные комплексы (ммвк) и многопроцессорные вычислительные комплексы (мпвк)
- •21. Векторные, матричные, ассоциативные вычислительные системы. Однородные и функционально – распределенные вычислительные системы.
- •16 Системы массового обслуживания.
- •19 Параллельная обработка информации.
- •10. Архитектура и способы организации вычислительных систем.
- •14 Методы коммутации
10. Архитектура и способы организации вычислительных систем.
Раскрывая более глубоко с функциональной точки зрения понятие архитектуры ВС, можно сказать, что под этим термином подразумевается распределение функций, реализуемых системой, по отдельным ее уровням и точное определение границ между этими уровнями. Архитектура ВС предполагает многоуровневую организацию. Таким образом, если архитектуре системы отведен некоторый уровень, то в первую очередь необходимо установить, какие системные функции полностью или частично выполняются компонентами ВС, находящимися выше и ниже заданного уровня. (1 шаг) После решения этой задачи следующий шаг заключается в точном определении интерфейсов. (2 шаг) (Интерфейс – это определенная стандартами граница между взаимодействующими объектами. Задачей интерфейса является определение параметров, процедур и характеристик взаимодействия объектов). 3 основных уровня – программные средства, микропрограммные средства и аппаратные средства.
Типы вычислительных систем. Применительно к современным условиям- вычислительная система – это совокупность одного или нескольких компьютеров, программного обеспечения и периферийного оборудования, организованная для совместного выполнения вычислительных процессов. В вычислительной системе (ВС) компьютер может быть один, но агрегированный с многофункциональным периферийным оборудованием. В качестве распространенного примера одномашинной ВС можно привести систему телеобработки информации. Но все же классическим вариантом ВС являются многомашинные и многопроцессорные системы. (МПВК и ММВК) (1) ВС бывают: - однородные; - неоднородные. Однородная ВС строится на основе однотипных компьютеров или процессоров, позволяет использовать стандартные наборы программных средств, типовые протоколы сопряжения устройств. Их организация сравнительно проста, система легко обслуживается и модернизируется. Неоднородная ВС включает в свой состав различные типы компьютеров или процессоров. При построении системы приходится учитывать их различные технические и функциональные характеристики, что существенно усложняет создание и обслуживание таких систем (2) ВС работают: - в оперативном режиме (on-line); - в неоперативном режиме (off-line). Оперативные системы функционируют в реальном масштабе времени, в них используется оперативный режим обмена информацией – ответы на запросы поступают незамедлительно. В неоперативных ВС допускается режим «отложенного ответа», когда результаты выполнения запроса можно получить с некоторой задержкой, иногда даже в следующем сеансе работы системы. (3) По методам управления элементами ВС различают централизованные, децентрализованные и со смешанным управлением ВС. В первом случае управление выполняет выделенный компьютер или процессор, во втором случае – все компоненты равноправны и могут брать управление на себя. В третьем случае совмещаются процедуры централизованного и децентрализованного управления. Перераспределение функций осуществляется в ходе вычислительного процесса исходя из сложившейся ситуации. (4) ВС также классифицируются на - территориально-сосредоточенные (все компоненты размещены в непосредственной близости друг от друга); - распределенные (компоненты могут располагаться на значительном расстоянии друг от друга, например, вычислительные сети); - структурно-одноуровневые (имеется лишь один общий уровень обработки данных); - многоуровневые (иерархические) структуры. В них машины или процессоры распределены по разным уровням обработки информации, некоторые из них могут специализироваться на выполнении отдельных функций. По назначению вычислительные системы делят на универсальные и специализированные.
17 функционирование СОД. СОД = технические средства + ПО Структура СОД определяется составом технических средств и связями между ними. ПО строится по многоуровневому, иерархическому принципу. Многоуровневая организация СОД. Функционирование СОД проявляется в виде процессов. Процесс - это динамический объект, реализующий целенаправленный акт обработки данных. Прикладные процессы реализуют основные функции СОД, заданные прикладными
программами, или обрабатывающими программами ОС (решение прикладных задач,
трансляция, сборка).
Системные процессы реализуют выполнение функций, обеспечивающих работу СОД.
Процесс Pi описывается тройкой
Pi = <ti, Ai, Ti>
где:
ti - момент инициализации
Ai - атрибуты (имя процесса, режим работы, права доступа, приоритет и другие
Ti - трасса процесса
Трасса процесса Ti - последовательность событий, связанных с изменением состояния
процесса.
Трасса может быть представлена в виде временной диаграммы, на рис. 1.10
изображающей выполнение программы процессором и внешним устройством. Отрезки,
выделенные на осях жирными линиями, соответствуют периодам, когда процессор и
внешнее устройство заняты выполнением программы. Дугами обозначены интервалы
времени, в течение которых процесс находится в состоянии ожидания, т. е. не
обслуживается ни одним устройством, ожидая момента освобождения устройства.
Таким образом, функционирование СОД выражается в форме процессов
выполнения программ. Процесс выполнения программы связан с использованием
ресурсов СОД, а также наборов данных и самих программ. Следовательно, характерной
чертой процесса является его одновременная связь и с выполнением программ и с работой
технических средств СОД.
Рабочая нагрузка СОД - весь объем поступающей на нее информации.
При проектировании и эксплуатации СОД наибольший интерес представляет
потребность заданий в ресурсах: оперативной и внешней памяти, процессорном
времени, устройствах ввода/вывода и других.
Рабочую нагрузку, относящуюся к периоду времени T, относящуюся к промежутку
времени Т, определяют в виде множества характеристик заданий
22 Системы с перестраиваемой структурой. Универсальный способ создания высокопроизводительных и высоконадежных вычислительных систем – объединение ЭВМ (процессоров) в многомашинные (многопроцессорные) комплексы, обеспечивающие:
Параллелизм вычислительных процессов и процессов управления создает основу для повышения производительности системы;
Распределенность процессов позволяет строить высокопроизводительные системы из достаточно простых модулей, например из микро-ЭВМ с относительно небольшим быстродействием н ограниченной емкостью памяти;
Перестраиваемость структуры обеспечивает, с одной стороны, высокую производительность системы за счет ее адаптации к вычислительным процессам и составу обрабатываемых задач и, с другой стороны, живучесть системы при отказах элементов;
Открытость системы позволяет в рамках фиксированной архитектуры создавать системы разной производительности за счет изменения числа модулей от единиц до десятков, сотен и, возможно, тысяч;
Модульность технических и программных средств существенно упрощает разработку и производство элементов системы, за счет чего снижается ее стоимость, а также порождает регулярность структуры и, следовательно, упрощает управление системой (процессами и ресурсами) и ее эксплуатацию. Организация вычислительных процессов. Основные проблемы организации вычислений в системах с перестраиваемой структурой связаны с обеспеченном параллелизма вычислений и распределенного децентрализованного управлении процессами и ресурсами. Параллельная обработка задач, т. е. мультипрограммный режим функционирования системы, обеспечиваемся достаточно простыми средствами. После ввода задания в систему модуль, принявший задание, посылает через коммутационное поле запрос на поиск свободного обрабатывающего модуля. Когда свободный модуль найден, ему посылается задание, определяющее имена наборов данных, в которых размещается программа, исходные данные и в которые должны быть помещены результаты вычислений. Из задания и программы модуль получает сведения о ресурсах, необходимых для выполнения задания: емкости операционной памяти, числе процессоров и неразделяемых наборах данных. Модуль закрепляет за собой необходимые ресурсы, и после обеспечения задания требуемыми ресурсами инициируется процесс выполнения задачи. По завершении обработки ресурсы освобождаются и в дальнейшем предоставляются очередным заданиям. Число процессов, реализуемых параллельно, определяется числом модулей, входящих в состав системы, и при наличии очереди заданий производительность системы пропорциональна числу модулей. Параллельные программы строятся традиционными способами:
выделением подзадач и ветвей программы;
операций над векторами и матрицами;
организацией конвейерной обработки данных.
Наиболее просто реализуются вычисления с выделением подзадач н параллельных ветвей. При возникновении ветви в ведущей программе модуль посылает запрос на поиск свободного модуля, в который загружается программа и данные ветви, и ветвь выполняется как самостоятельная задача, по завершении которой в ведущий модуль отсылаются результаты обработки. Параллельные вычисления по конвейерной и матричной схемам организуются за счет создания соответствующих конфигураций связей между модулями – линейных (кольцевых) и матричных структур. Обычно для матричных вычислений в систему встраивает в качестве специального модуля матричный процессор, обеспечивающий высокопроизводительную обработку блоков данных. В вычислительной системе с перестраиваемой структурой должно быть реализовано распределенное (децентрализованное) управление ресурсами. Это означает, что в системе не должно быть выделенного модуля, на который возложена задача централизованною управления функционированием системы. Распределенное управление основано на согласованной работе всех модулей системы, каждый из которых реализует одинаковый набор правил управления, обеспечивающий эффективное использование всех ресурсов системы.
Транспьютерные системы. Транспьютер (transputer = transfer (передатчик) + computer (вычислитель)) является элементом построения многопроцессорных систем, выполненном на одном кристалле СБИС (рис. 3.7, а). Он включает средства для выполнения вычислений (центральный процессор, АЛУ для операций с плавающей запятой, внутрикристальную память объемом 2...4 кбайта) и 4 канала для связи с другими транспьютерами и внешними устройствами. Встроенный интерфейс позволяет подключать внешнюю память объемом до 4 Гбайт.
3 Основные направления ускорения вычислений ВС. Цель разработчиков и пользователей средств вычислительной техники: создание и эксплуатация надежных, высокопроизводительных вычислительных систем с минимальными затратами. Техническая база: МП представляют собой средства для реализации множества оригинальных и эффективных теоретических архитектурных концепций. Архитектурная концепция: в основе лежит принцип параллельной обработки информации. Различные виды распараллеливания обработки: а) на внутри кристальном уровне б) на системном уровне. Основная задача: повышения производительности вычислительных систем за счет достижения высокой скорости выполнения программ. Основные направления ускорения вычислений: 1) На уровне электрических схем уменьшение времени задержки логического элемента связано с технологией изготовления сверхбольших ИС (СБИС). Это прямой путь к увеличению скорости, поскольку, если бы, например, удалось все задержки в машине сократить в k раз, то это привело бы к увеличению быстродействия в такое же число раз. Основным фактором, определяющим возможность увеличения числа транзисторов на кристалле СБИС, являются минимальные топологические размеры элементов, называемые также проектными нормами. Например, в большинстве 32-разрядных МП используются двухмикронная проектная норма, тогда как в МП предыдущего поколения эта норма составляла 4 мкМ. Такое различие определяет четырехкратное повышение плотности компоновки транзисторов. По мере уменьшения проектных норм увеличивается тактовая частота работы МП. Чтобы достичь проектных норм меньше 2 мкМ, необходимы перспективные методы литографии. Применение ультрафиолетовой, электронно-лучевой и рентгеновской литографии позволило внедрить в практику проектные нормы меньше, чем 1 мкМ. 2) На уровне логических схем повышение быстродействия достигается уменьшением числа логических уровней при реализации комбинационных схем. На данном этапе конструкторская задача состоит в создании схем с малым числом логических уровней, которые удовлетворяли бы ограничениям по числу вентилей и их коэффициентам соединений по входу и выходу. 3) Операционный уровень охватывает способы реализации основных операций, таких как сложение, умножение и деление. Для того чтобы увеличить скорость выполнения этих операций, необходимо использовать алгоритмы, которые приводили бы к быстродействующим комбинационным схемам и требовали бы небольшого числа циклов. Далее быстродействие вычислительных систем может быть повышено за счет реализации аппаратными или аппаратно-программными средствами встроенных сложных команд, соответствующих тем или иным функциям. К таким функциям относятся, например, корень квадратный, сложение векторов, умножение матриц, быстрое преобразование Фурье и т.д. 4) На структурном уровне повышение быстродействия можно достигнуть за счет сокращения временных затрат при обращениях к памяти. Это достигается, во-первых, в расширении путей доступа за счет разбиения памяти на модули, обращение к которым осуществляется одновременно, во-вторых, в применении дополнительной сверхбыстродействующей памяти (КЭШ - памяти) и, наконец, в увеличении числа внутренних регистров в процессоре. 5) Программный уровень определяется структурой алгоритма, на основе которого работает система. На этом уровне основной подход базируется на принципе параллельной обработки информации. Этот подход отличается от того, который был реализован в обычной фон-неймановской машине, где команды исполняются строго последовательно одна за другой. Принцип параллельной обработки приводит к различным вариантам архитектуры в зависимости от способа, по которому осуществляется задание очередности следования команд и управление их исполнением. Эти подходы касаются аппаратуры, структурной организации и архитектуры систем. Совершенствование этих направлений осуществляется с целью обеспечения необходимого ускорения вычислений на программно-аппаратном уровне. На этом уровне существуют два подхода увеличения скорости вычислений. Первый подход предполагает использование специальных языков программирования, который предоставляет средства для явного описания параллелизма. Второй подход использует методы выявления параллелизма в последовательных программах. Кроме того, алгоритм должен обладать внутренним параллелизмом, адекватным конкретной аппаратуре. Другие методы повышения быстродействия последовательного компьютера основаны на расширении традиционной неймановской архитектуры, а именно: применении RISC процессоров, то есть процессоров с сокращенным набором команд. В RISC процессорах большая часть команд выполняется за 1-2 такта; применении суперскалярных процессоров; применении конвейеров.