Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
АВС Лекция 8.doc
Скачиваний:
111
Добавлен:
25.03.2015
Размер:
149.5 Кб
Скачать

3. Интерфейсная вычислительная машина

Интерфейсная ВМ (ИВМ) соединяет матричную SIMD-cистему с внеш- ним миром, используя для этого какой-либо сетевой интерфейс, например Ethernet. Интерфейсная ВМ работает под управлением операционной системы (чаще всего OC UNIX). На ИВМ пользователи подготавливают, компилируют и отлаживают свои программы. В процессе выполнения программы сначала загружаются из интерфейсной ВМ в контроллер управления массивом про-цессоров, который выполняет программу и распределяет команды и данные по процессорным элементам массива. В некоторых ВС, например в Massively Parallel Computer MPP, при создании, компиляции и отладке программ КМП и интерфейсная ВМ используются совместно.

На роль ИВМ подходят различные вычислительные машины. Так, в сис-теме СМ-2 в этом качестве выступает рабочая станция SUN-4, в системе MasPar – DECstation 3000, а в системе МРР – DEC VAX-11/780.

4. Массив процессоров и его контроллер

Контроллер массива процессоров выполняет последовательный программ-ный код, реализует команды ветвления программы, транслирует команды и сигналы управления в процессорные элементы. Одну из возможных реализа- ций КМП, принятую в устройстве управления системы PASM, иллюстрирует рис. 8.2.

Рис. 8.2. Модель контроллера массива процессоров

При загрузке из ИВМ программа через интерфейс ввода/вывода заносит- ся в оперативное запоминающее устройство КМП (ОЗУ КМП). Команды для процессорных элементов и глобальная маска, формируемая на этапе компиля- ции, также загружаются через интерфейс ввода/вывода в ОЗУ команд и гло-бальной маски (ОЗУ КГМ). Затем КМП начинает выполнять программу, извле- кая либо одну скалярную команду из ОЗУ КМП, либо множественные коман- ды из ОЗУ КГМ. Скалярные команды (команды, осуществляющие операции над хранящимися в КМП скалярными данными), выполняются центральным процессором (ЦП) контроллера массива процессоров. В свою очередь коман- ды, оперирующие параллельными переменными, хранящимися в каждом ПЭ, преобразуются в блоке выборки команд в более простые единицы выполнения – нанокоманды. Нанокоманды совместно с маской пересылаются через шину команд для ПЭ на исполнение в массив процессоров. Например, команда сло-жения 32-разрядных слов в КМП системы МРР преобразуется в 32 нанокоман- ды одноразрядного сложения, которые каждым ПЭ обрабатываются последо-вательно.

В большинстве алгоритмов дальнейший порядок вычислений зависит от результатов и флагов условий предшествующих операций. Для обеспечения та-кого режима в матричных системах статусная информация, хранящаяся в про-цессорных элементах, должна быть собрана в единое слово и передана в КМП для выработки решения о ветвлении программы. Например, в предложении IF ALL (условие А) THEN DO B оператор B будет выполнен, если условие А справедливо во всех ПЭ. Для корректного включения/отключения процессор- ных элементов КМП должен знать результат проверки условия А во всех ПЭ. Такая информация передается в КМП по однонаправленной шине результата. В системе СМ-2 эта шина называется GLOBAL. В системе МРР для той же цели организована структура, называемая деревом SUM-OR. Каждый ПЭ по-мещает содержимое своего одноразрядного регистра признака на входы дере- ва, которое с помощью операции логического сложения комбинирует эту ин-формацию и формирует слово результата, используемое в КМП для принятия решения.

В матричных SIMD-системах получили распространение два основных типа архитектурной организации массива процессорных элементов (рис. 8.3).

В первом варианте, известном как архитектура типа «процессорный эле-мент-процессорный элемент» (ПЭ-ПЭ), N процессорных элементов (ПЭ) свя- заны между собой сетью соединений (рис. 8.3, а). Каждый ПЭ это процессор с локальной памятью. Процессорные элементы выполняют команды, получае- мые из КМП по шине широковещательной рассылки, и обрабатывают данные как хранящиеся в их локальной памяти, так и поступающие из КМП. Обмен данными между процессорными элементами производится по сети соедине- ний, в то время как шина ввода-вывода служит для обмена информацией меж- ду ПЭ и устройствами ввода-вывода. Для трансляции результатов из отдель- ных ПЭ в контроллер массива процессоров служит шина результата. Благода- ря использованию локальной памяти аппаратные средства ВС рассматривае- мого типа могут быть построены весьма эффективно. Во многих алгоритмах действия по пересылке информации локальны, то есть происходят между бли-жайшими соседями. По этой причине архитектура, где каждый ПЭ связан толь- ко с соседними, очень популярна. Примерами вычислительных систем с рас-сматриваемой архитектурой являются MasPar MP-1, Connection Machine CM-2, GF-11, DAP, MPP, STARAN, PEPE, ILLIAC IV.

Рис. 8.3. Модели массивов процессоров: а – «процессорный элемент-процессорный элемент»; б – «процессор-память»

Второй вид архитектуры – «процессор-память» показан на рис. 8.3, б. В такой конфигурации двунаправленная сеть соединений связывает N процессо- ров c М модулями памяти. Процессоры управляются КМП через широковеща-тельную шину. Обмен данными между процессорами осуществляется как через сеть, так и через модули памяти. Пересылка данных между модулями памяти и устройствами ввода/вывода обеспечивается шиной ввода/вывода. Для пере- дачи данных из конкретного модуля памяти в КМП служит шина результата. Примерами ВС с рассмотренной архитектурой служат Burroughs Scientific Processor (BSP) и Texas Reconfigurable Array Computer TRAC.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]