Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
оифтик 08-2012 готовый.docx
Скачиваний:
77
Добавлен:
11.05.2015
Размер:
7.45 Mб
Скачать
  1. Тема 6.2. Особенности многопроцессорных систем

  2. К ним относятся: массивно-параллельные системы (MPP), симметричные мультипроцессорные системы (SMP), системы с неоднородным доступом к памяти (NUMA), параллельные векторные системы (PVP), кластерные системы и комбинированные архитектуры.

  3. Основным параметром классификации параллельных компьютеров является наличие общей (как в SMP) или распределенной (как в MPP) памяти. Нечто среднее между SMP и MPP представляют собой NUMA-архитектуры, где память физически распределена, но логически общедоступна. Кластерные системы являются более дешевым вариантом MPP. При поддержке команд обработки векторных данных говорят о векторно-конвейерных процессорах, которые, в свою очередь, могут объединяться в PVP-системы с использованием общей или распределенной памяти. Все большую популярность приобретают идеи комбинирования различных архитектур в одной системе и построения неоднородных систем.

  4. При организациях распределенных вычислений в глобальных сетях (Интернет) говорят о мета-компьютерах, которые, строго говоря, не представляют из себя параллельных архитектур.

  5. Рассмотрим кратко особенности многопроцессорных систем. В таблицах 6.2.– 6.5 для каждого класса приводится следующая информация:

  6. - краткое описание особенностей архитектуры;

  7. - примеры конкретных компьютеров;

  8. - перспективы масштабируемости;

  9. - типичные особенности построения операционных систем;

  10. - наиболее характерная модель программирования (хотя возможны и другие).

  11. Таблица 6.1. Массивно-параллельные системы (MPP)

    1. Характеристика

    1. Описание характеристики

    1. Архитектура

    1. Система состоит из однородных вычислительных узлов, включающих:

    2. - один или несколько центральных процессоров (обычно RISC);

    3. - локальную память (прямой доступ к памяти других узлов невозможен);

    4. - коммуникационный процессор или сетевой адаптер;

    5. - иногда - жесткие диски и/или другие устройства ввода-вывода.

    1. К системе могут быть добавлены специальные узлы ввода-вывода и управляющие узлы. Узлы связаны через некоторую коммуникационную среду (высокоскоростная сеть, коммутатор и т.п.).

    1. Масштабируемость

    1. Общее число процессоров в реальных системах достигает нескольких тысяч (ASCI Red, Blue Mountain).

    1. Операционная система

    1. Существуют два основных варианта:

    1. 1. Полноценная ОС работает только на управляющей машине (front-end), на каждом узле работает сильно урезанный вариант ОС, обеспечивающие только работу расположенной в нем ветви параллельного приложения. Пример: Cray T3E.

    2. 2. На каждом узле работает полноценная UNIX-подобная ОС (вариант, близкий к кластерному подходу). Пример: IBM RS/6000 SP + ОС AIX, устанавливаемая отдельно на каждом узле.

    1. Модель программирования

    1. Программирование в рамках модели передачи сообщений (MPI, PVM, BSPlib).

  12. Примерами таких систем являются IBM RS/6000 SP2, Intel PARAGON/ASCI Red, SGI/CRAY T3E, Hitachi SR8000, транспьютерные системы Parsytec.

  13. Таблица 6.2. Симметричные мультипроцессорные системы (SMP)

    1. Характеристика

    1. Описание характеристики

    1. Архитектура

    1. Система состоит из нескольких однородных процессоров и массива общей памяти (обычно из нескольких независимых блоков). Все процессоры имеют доступ к любой точке памяти с одинаковой скоростью. Процессоры подключены к памяти либо с помощью общей шины (базовые 2-4 процессорные SMP-серверы), либо с помощью crossbar-коммутатора (HP 9000). Аппаратно поддерживается когерентность кэшей.

    1. Масштабируемость

    1. Наличие общей памяти сильно упрощает взаимодействие процессоров между собой, однако накладывает сильные ограничения на их число - не более 32 в реальных системах. Для построения масштабируемых систем на базе SMP используются кластерные или NUMA-архитектуры.

    1. Операционная система

    1. Вся система работает под управлением единой ОС (обычно UNIX-подобной, но для Intel-платформ поддерживается Windows NT). ОС автоматически (в процессе работы) распределяет процессы/нити по процессорам (scheduling), но иногда возможна и явная привязка.

    1. Модель программирования

    1. Программирование в модели общей памяти. (POSIX threads, OpenMP). Для SMP-систем существуют сравнительно эффективные средства автоматического распараллеливания.

  14. В качестве примеров таких систем можно привести: HP 9000 V-class, N-class; SMP-сервера и рабочие станции на базе процессоров Intel (IBM, HP, Compaq, Dell, ALR, Unisys, DG, Fujitsu и др.).

  15. Таблица 6.3. Системы с неоднородным доступом к памяти (NUMA)

    1. Характеристика

    1. Описание характеристики

    1. Архитектура

    1. Система состоит из однородных базовых модулей (плат), состоящих из небольшого числа процессоров и блока памяти. Модули объединены с помощью высокоскоростного коммутатора. Поддерживается единое адресное пространство, аппаратно поддерживается доступ к удаленной памяти, т.е. к памяти других модулей. При этом доступ к локальной памяти в несколько раз быстрее, чем к удаленной.

    2. В случае, если аппаратно поддерживается когерентность кэшей во всей системе (обычно это так), говорят об архитектуре cc-NUMA (cache-coherent NUMA)

    1. Масштабируемость

    1. Масштабируемость NUMA-систем ограничивается объемом адресного пространства, возможностями аппаратуры поддержки когерентности кэшей и возможностями операционной системы по управлению большим числом процессоров. На настоящий момент максимальное число процессоров в NUMA-системах составляет 256 (Origin2000).

    1. Операционная система

    1. Обычно вся система работает под управлением единой ОС, как в SMP. Но возможны также варианты динамического "подразделения" системы, когда отдельные "разделы" системы работают под управлением разных ОС (например, Windows NT и UNIX в NUMA-Q 2000).

    1. Модель программирования

    1. Аналогично SMP.

  16. Примерами таких систем являютсяHP HP 9000 V-class в SCA-конфигурациях, SGI Origin2000, Sun HPC 10000, IBM/Sequent NUMA-Q 2000, SNI RM600.

  17. Таблица 6.4. Параллельные векторные системы (PVP)

    1. Характеристика

    1. Описание характеристики

    1. Архитектура

    1. Основным признаком PVP-систем является наличие специальных векторно-конвейерных процессоров, в которых предусмотрены команды однотипной обработки векторов независимых данных, эффективно выполняющиеся на конвейерных функциональных устройствах.

    2. Как правило, несколько таких процессоров (1-16) работают одновременно с общей памятью (аналогично SMP) в рамках многопроцессорных конфигураций. Несколько таких узлов могут быть объединены с помощью коммутатора (аналогично MPP).

    1. Модель программирования

    1. Эффективное программирование подразумевает векторизацию циклов (для достижения разумной производительности одного процессора) и их распараллеливание (для одновременной загрузки нескольких процессоров одним приложением).

  18. Примерами таких систем являются: NEC SX-4/SX-5, линия векторно-конвейерных компьютеров CRAY: от CRAY-1, CRAY J90/T90, CRAY SV1, серия Fujitsu VPP.

  19. Отметим, что ограниченный вариант векторной архитектуры используется при разработке параллельных микропроцессоров. Впервые его применила корпорация Intel в микропроцессоре Pentium под названием MMX (Multi Media eXtension) для вычислений с фиксированной точкой. Данный тип процессора, по классификации Флинна, относится к классу ОКМД (SIMD). Метод ОКМД позволяет по одной команде обрабатывать несколько пар операндов (векторная обработка). Теперь многие производители микропроцессоров выпускают приборы с векторной архитектурой, причем в двух вариантах: как в виде сопроцессора на одном кристалле с универсальным процессором (например, Intel в микропроцессоре Pentium), так и в виде специализированного микропроцессора для цифровой обработки сигналов.

  20. Таблица 6.5. Кластерные системы

    1. Архитектура

    1. Набор рабочих станций (или даже ПК) общего назначения, используется в качестве дешевого варианта массивно-параллельного компьютера. Для связи узлов используется одна из стандартных сетевых технологий (Fast/Gigabit Ethernet, Myrinet и др.) на базе шинной архитектуры, или коммутатора.

    2. При объединении в кластер компьютеров разной мощности или разной архитектуры говорят о гетерогенных (неоднородных) кластерах.

    3. Узлы кластера могут одновременно использоваться в качестве пользовательских рабочих станций. В случае, когда это не нужно, узлы могут быть существенно облегчены и/или установлены в стойку.

    1. Операционная система

    1. Используются стандартные для рабочих станций ОС, чаще всего свободно распространяемые -Linux/FreeBSD, вместе со специальными средствами поддержки параллельного программирования и распределения нагрузки.

    1. Модель программирования

    1. Программирование, как правило, в рамках модели передачи сообщений (чаще всего - MPI). Дешевизна подобных систем оборачивается большими накладными расходами на взаимодействие параллельных процессов между собой, что сильно сужает потенциальный класс решаемых задач.

  21. Примерами таких систем являются: NT-кластер в NCSA, Beowulf-кластеры, семейство «СКИФ».

  22. Примечание. Информация о кластерах семейства «СКИФ» находится на сайтах: http://www.niievm.by/super.htm и http://www.skif.bas-net.by/и приведена в приложении Б к данному пособию и книге [16].

  23. Комбинированные архитектуры

  24. Возникли как попытки объединения архитектур с целью использовать их преимущества, сводя к минимуму их недостатки.

  25. В частности, есть MPP-системы (например система IBM RS/6000 SP), узлы (гиперузлы) которых представляют собой симметричные мультипроцессоры (вычислительные системы SMP-архитектуры).

  26. Другим вариантом комбинированной архитектуры является архитектура NUMA (например, системы Exemplar SPP1200 , Exemplar SPP2000 , Origin 2000 , Sequent NUMA-Q , RM600E). Она представляет собой попытку распространить на архитектуру MPP принципы архитектуры SMP с целью преодоления (точнее минимизации) ограничения на рост масштабируемости последней. Данный вариант комбинированной архитектуры отличается от предыдущего тем, что вся память (т.е. локальная память всех гиперузлов, являющихся SMP-мультипроцессорами) является общей, хотя и физически распределенной по гиперузлам. За счет введения дополнительных аппаратных (и программных) средств (каналов связи, кэшей) существенно (по сравнению с традиционной MPP-архитектурой) снижается (хотя и не исчезает) разница между временем доступа к локальной памяти и к памяти, расположенной на другом гиперузле. Это позволяет считать архитектуру NUMA расширением архитектуры SMP с существенно более высоким уровнем масштабирования.

  27. Применительно к проблематике машин переработки знаний указанные вычислительные системы используются в качестве аппаратной основы при реализации, например, СУБД, экспертных систем. При этом приложения (например СУБД) не только исполняются на параллельной технике, но и изначально ориентируются (разрабатываются) на распределенную параллельную реализацию. Отсутствие такой изначальной ориентации, очевидно, не является критичным при использовании вычислительных систем класса SMP с небольшим (не более десятка) количеством процессоров. Однако при использовании MPP и кластерных архитектур с большим количеством процессоров это существенно снижает эффективность их применения, что, очевидно, определяет необходимость учета распределенной параллельной обработки знаний, реализуемых на их основе.

  28. Тема 6.3. Графодинамические параллельные асинхронные машины

  29. Для современных систем, ориентированных на нечисловую обработку больших объемов сложноструктурированной информации, широкое использование мультимедиа-технологий, полиэкранных адаптивных интерфейсов и многоагентного взаимодействия в глобальных сетях, фон-неймановская архитектура не обеспечивает достаточной технологической гибкости, согласованности данных и реакции в реальном масштабе времени. Основными принципами организации современных архитектур вычислительных систем являются: открытость, параллельность, асинхронность, ассоциативность доступа (что обеспечивает поддержку асинхронизма), структурная перестраиваемость памяти.

  30. Однако, несмотря на интенсивность проводимых исследований и разнообразие подходов к реализации аппаратной поддержки решения информационно-логических задач, большинство существующих вычислительных систем с нетрадиционной архитектурой весьма далеки от эффективного практического применения. Среди основных причин такого положения можно указать [4]:

  31. 1) отсутствие математически строгих моделей вычислений, лежащих в основе их архитектуры. Определенным прорывом в этом плане стала концепция транспьютера, однако некоторые свойства транспьютера и той модели, которую он поддерживает (примитивизм межкомпонентных коммуникаций, ориентация на статическое планирование загрузки и разделения функций и т.д.), смещают мультитранспьютерные системы в область специализированных ЭВМ;

  32. 2) отсутствие комплексного подхода и адекватных решаемому классу задач инструментально-технологических средств при разработке системного (и, как следствие, прикладного) программного обеспечения. Программное обеспечение часто либо разрабатывается в отрыве от аппаратуры (так, первые практически пригодные операционные системы для транспьютеров появились лишь спустя 4-5 лет после их создания!), либо наоборот, жестко ориентировано на ее конкретную реализацию (многие Lisp-машины и Prolog-машины, машины баз данных). Инструментальные средства не поддерживают современные методологии разработки, что делает невозможным создание больших прикладных систем;

  33. 3) ориентация на узкий класс моделей представления/обработки информации и организации вычислительного процесса (Prolog, реляционные СУБД и т.д.). До настоящего времени в параллельных интеллектуальных системах коллективное поведение, использование знаний и ресурсов (вычислительных, коммуникационных и др.) не поддерживается на уровне базовых механизмов модели. Это приводит к неэффективности при разделении функций в динамически изменяемых коллективных структурах, при использовании различных по характеристикам коммуникаций, при реакции на отказы и т.п.

  34. Целостный анализ совокупности вышеописанных тенденций показывает, что использование параллельных технологий коллективной обработки и развитых форм ассоциативного доступа к информации является необходимым условием решения проблем проектирования современных систем обработки информации.

  35. Наиболее актуальным решение указанных проблем становится при проектировании современных интеллектуальных систем, в которых осуществляется обработка сложноструктурированных баз знаний и интеграция различных моделей решения интеллектуальных задач.

  36. В основе одного из подходов к созданию компьютерных архитектур и компьютерных систем, ориентированных на обработку знаний, лежит графодинамическая парадигма обработки информации, описанная в [4]. Абстрактные машины обработки информации, построенные в соответствии с этой парадигмой, названы графодинамическими ассоциативными машинами, принципы организации которых сводятся к следующему [5]:

  37. 1) память является структурно перестраиваемой (графодинамической), т.е. информация кодируется в виде графовой структуры специального вида, а обработка информации сводится не только к изменению состояния (содержимого) элементов (элементарных областей) памяти, но и к изменению конфигурации связей между ними;

  38. 2) операции представляют собой демонические абстрактные процессы, инициируемые появлением в памяти структуры заданного вида (для каждой операции – своя инициирующая структура);

  39. 3) операции взаимодействуют между собой только через память. Следовательно, память абстрактной машины должна полностью отражать всё текущее состояние машины, т.е. отсутствует какое-либо непосредственное взаимодействие между операциями;

  40. 4) операции выполняются асинхронно и могут выполняться параллельно;

  41. 5) разрешение противоречий между конкурирующими процессами осуществляется с помощью блокировок элементов памяти. Каждая блокировка однозначно связана с процессом, который её поставил, и является для других процессов запретом на те или иные действия с заблокированными элементами.

  42. Преимущество использования графодинамических параллельных асинхронных абстрактных машин в качестве инструмента для создания интеллектуальных систем нового поколения (систем, основанных на знаниях) обусловлено следующими обстоятельствами:

  43. 1) в них принципиально проще реализуется ассоциативный метод доступа к перерабатываемой информации;

  44. 2) существенно проще поддерживается открытый характер как самих машин, так и реализуемых на них формальных моделей. В частности, в графодинамических машинах существенно проще реализуются семиотические модели;

  45. 3) графодинамические параллельные асинхронные машины являются удобной основой для интеграции самых различных моделей обработки информации, ибо на базе графодинамических параллельных асинхронных абстрактных машин легко реализуются не только графодинамические, но и символьные формальные модели, не только параллельные, но и последовательные модели, не только асинхронные, но и синхронные модели, не только различные модели логического вывода, но и всевозможные модели реализации хранимых процедурных программ.

  46. Остальные достоинства графодинамических параллельных асинхронных машин обусловлены достоинствами графовых информационных конструкций и графовых языков [4].

  47. Приведенные обстоятельства позволяют сделать вывод о том, что графодинамические параллельные асинхронные абстрактные машины являются наиболее перспективной основой для реализации интеллектуальных систем нового поколения. При этом особое внимание следует уделить трем видам графодинамических параллельных асинхронных абстрактных машин, определяющим три уровня параллельных интеллектуальных систем:

  48. - графодинамическим параллельным асинхронным абстрактным машинам логического вывода. Перерабатываемая информация (перерабатываемые знания) в таких машинах представляется в виде семантических конструкций (семантических сетей) на некотором графовом семантическом языке представления знаний. А операциями в этих машинах являются операции логического вывода, поддерживающие самые различные стратегии решения задач в базах знаний;

  49. - графодинамическим параллельным асинхронным абстрактным машинам реализации хранимых процедурных программ, специально ориентированным на интерпретацию графодинамических параллельных асинхронных абстрактных машин логического вывода;

  50. - графодинамическим распределенным асинхронным абстрактным машинам реализации хранимых процедурных программ, определяющим крупнозернистую архитектуру графодинамического параллельного асинхронного компьютера, ориентированного на поддержку всевозможных графодинамических параллельных асинхронных моделей обработки информации. Операции абстрактных машин данного уровня в отличие от абстрактных машин второго уровня имеют ограниченную область действия, т.е. имеют доступ не ко всей памяти, а только к какой-то ее области. Следовательно, вся память абстрактной машины разбивается на области, каждой из которых ставится в соответствие набор работающих над ней операций. При этом наборы операций, работающих над разными областями памяти, абсолютно аналогичны и отличаются только областью действия операторов. Таким образом, графодинамическая распределенная асинхронная абстрактная машина реализации хранимых процедурных программ представляет собой коллектив графодинамических абстрактных машин (которые будем называть модулями распределенной машины), взаимодействующих между собой путем обмена сообщениями. Особенностями распределенных абстрактных информационных машин являются наличие: а) в каждом модуле входных и выходных буферов для приема и передачи сообщений; б) специальных операций пересылки сообщений из выходного буфера модуля-передатчика во входной буфер модуля-приемника (модуля-адресата); в) специальных операций обработки принятых сообщений.

  51. В настоящее время исследования по графовым языкам, графодинамическим машинам и графодинамическим формальным моделям в основном носят частный теоретический характер и пока не привели к широкому появлению практически пригодных и конкурентоспособных графовых языков программирования, графовых языков представления знаний, графодинамических логик и графодинамических компьютеров.

  52. Приложение А. Перечень ЭВМ, разработанных и изготовленных в г. Минске в 1960-2000 гг.

  53. В настоящем приложении приведены справочные данные об ЭВМ, разработанных и изготовленных в г. Минске в 1960-2000 гг., их основные характеристики, годы и объемы выпуска (Таблица А.1.).

  54. Кроме традиционных ЭВМ общего назначения, называемых иногда майнфрэймами, в Минске было разработано более 10 типов персональных ЭВМ: объем их выпуска составлял около 150 тыс. шт.

  55. С 2000 г. Республика Беларусь принимала участие в разработке и изготовлении суперкомпьютерных систем семейства «СКИФ», сведения о которых приведены в приложении Б настоящего пособия.

  56. Развитие технологии в области элементной базы и периферийных устройств позволяло улучшать характеристики ЭВМ. Для подтверждения этого в таблице А.2. приведены сравнительные характеристики первой (ЕС1020) и последней (ЕС1130) отечественных ЭВМ Единой системы (ЭВМ третьего поколения), реализованных на ИС и БИС, а также модели ЕС1230, реализованной на СБИС, в сравнении с самой мощной ЭВМ Единой системы (ЕС1066), реализованной на ИС.

  57. Из таблицы А.2. видно, что за годы разработки ЭВМ третьего поколения:

  58. - производительность ЭВМ увеличилась в 1700 раз;

  59. - емкость памяти увеличилась в 4000 раз;

  60. - емкость внешней памяти увеличилась в сотни тысяч раз;

  61. - потребляемая мощность уменьшилась в 14 раз;

  62. - занимаемая процессором площадь уменьшилась в 4,5 раза.

  63. Таблица А.1.

    1. Поко-ление ЭВМ

    1. Наименова-ние ЭВМ

    1. Основные характеристики

    1. Годы выпуска

    1. Кол-во изготовлен-ных ЭВМ

    1. Примечания

    1. ЭБ

    1. Производи-тельность

    1. Тип и емкость ОП

    1. Другие характеристики

    1. 1

    1. 2

    1. 3

    1. 4

    1. 5

    1. 6

    1. 7

    1. 8

    1. 9

    1. I

    1. «Минск-1»

    1. э/лампы800 шт.

    1. 2,5 т. оп/с

    1. Ферритовая ОП

    2. 1 К слов

    1. - длина слова – 31 бит;

    2. - двухадресная команда;

    3. - ФТ (ФЗ);

    4. - ВнУ:

    5. ВЗУ на МЛ емкостью 64 Кслов, ПЛ, УПЧ;

    6. - ПО:

    7. автокод «инженер»;

    8. автокод «экономист»

    1. 1960- 1963

    1. 220

    1. «Минск-11»

    1. - ″ -

    1. - ″ -

    1. - ″ -

    1. - ″ -

    1. 1963- 1964

    1. 11

    1. Для обработки сейсмической информации

    1. «Минск-12»

    1. - ″ -

    1. 2048 Кслов

    1. 1963- 1964

    1. 5

    1. «Минск-14»

    2. «Минск-16»

    1. - ″ -

    2. - ″ -

    1. Для обработки телеметрической информации

    1. 1963- 1964

    1. 34

    2. 1

    1. «Минск-100»

    1. - ″ -

    1. Для МВД (дактилоскопия)

    1. 1

  64. Продолжение таблицы А.1.

    1. 1

    1. 2

    1. 3

    1. 4

    1. 5

    1. 6

    1. 7

    1. 8

    1. 9

    1. II

    1. «Минск-2»

    1. Полу- провод- ники:

    2. -транзи-сторы (Т);

    3. - диоды (D)

    4. Т-740 шт. D-1550 шт.

    5. «Свой» комплект элементов (ТУ, ЧИ, ЧУ и др.)

    1. 5-6 т. оп/с

    1. ФерритоваяЕоп=4096 слов

    1. - Разрядность – 37 бит;

    2. - двухадресная команда;

    3. - новый НЛМ;

    4. - ПЛ, АЦПУ, РТА-50;

    5. - прерывание;

    6. - экстракоды;

    7. W=4кВа;

    8. S=40 кв.м

    1. 1962- 1964

    1. 118

    1. «Минск-22»

    2. «Минск-2/22»

    1. - ″ -

    1. - Трансляторы АКИ, Фортран, Алгол, Кобол;

    2. - дополнительные команды;

    3. - расширенный комплект ПФУ (появилось УПК);

    4. - библиотека программ

    1. 1964

    2. 1964

    1. 734

    2. 852

    1. «Минск-26»

    2. «Минск-27»

    1. Для обработки телеметрической информации, поступающей с метеоракет и ИСЗ

    1. 1963- 1964

    1. 1

    2. 1

    1. «Минск-222»

    1. Двухмашинный комплекс

  65. Продолжение таблицы А.1.

    1. 1

    1. 2

    1. 3

    1. 4

    1. 5

    1. 6

    1. 7

    1. 8

    1. 9

    1. II продолжение

    1. «Минск-23»

    1. D, T

    1. 7,0 т. оп/с

    1. Ферритовая Еоп=40 К 8-битных символов АЗУ – 127 ячеек по 19 бит

    1. - Новая система команд;

    2. - двоично-десятичная система счисления;

    3. - символьная информация;

    4. - переменная адресность команд и длина слов;

    5. - базирование и индексирование;

    6. - универсальная система ввода-вывода (влияние IBM-360);

    7. - мультипрограммный режим;

    8. - НМЛ-67

    1. 1966- 1968

    1. 28

    1. «Минск-32»

    1. D,T

    2. Новый ком-плекс элеме- нтов

    1. до 35,0 т. оп/с

    1. Ферритовая Еоп=64 Кслов

    1. - Разрядность – 37 бит;

    2. - совместимость с «Минск-2/22»;

    3. - универсальная система ввода-вывода (Мн-23);

    4. - защита ОП;

    5. - электронный датчик времени;

    6. - все лучшее из «Мн-22», «Мн-23», IBM/360;

    7. - свои программные средства (ОС, библиотека)

    1. 1968- 1975

    1. 2889

  66. Продолжение таблицы А.1.

    1. 1

    1. 2

    1. 3

    1. 4

    1. 5

    1. 6

    1. 7

    1. 8

    1. 9

    1. III

    1. ЕС1020

    1. Микро- схемы техно- логии ТТЛ

    1. 10,0 т. оп/с

    1. Ферритовая ОП

    2. 64 Кбайт

    1. - Длина слова – 4 байта;

    2. - система команд, совмес-тимая с ЭВМ семейства IBM/360;

    3. - ВнУ – ВЗУ на МД и МЛ, УПЧ

    4. - ПО: ДОС, СВМ, ОС

    1. 1973- 1975

    1. 755

    1. Разработана и производи-лась в Беларуси и Болгарии

    1. ЕС1022

    1. Микро- схемы ТТЛ

    1. 100,0 т. оп/с

    1. Ферритовая ОП

    2. 512 Кбайт

    1. Характеристики и состав аналогичны ЭВМ ЕС-1020

    1. 1975-

    1. 3828

    1. ЕС1035

    1. Микро- схемы техно- логии ЭСЛ

    1. 150,0 т. оп/с

    1. Микро- схемы ОП 1 Мбайт

    1. Совместимость с ЭВМ семейства IBM/370

    1. 1977- 1983

    1. 2138

    1. ЕС1036

    1. Микро- схемы ЭСЛ

    1. 300,0 т. оп/с

    1. Микро- схемы ОП Мбайт

    1. Совместимость с ЭВМ семейства IBM/370

    1. 1983

    1. 2073

    1. ЕС1061

    1. Микро- схемы ЭСЛ

    1. 1 млн. оп/с

    1. Микро- схемы ОП Мбайт

    1. Совместимость с ЭВМ семейства IBM/360

    1. 1982

    1. 600

    1. Модерниза-ция ЭВМ ЕС-1060

  67. Продолжение таблицы А.1.

    1. 1

    1. 2

    1. 3

    1. 4

    1. 5

    1. 6

    1. 7

    1. 8

    1. 9

    1. III

    2. продолжение

    1. ЕС1130

    1. Микро- схемы ЭСЛ и микро- процессоры серии К1800

    1. 20 млн. оп/с

    1. Микро- схемы ОП до 32 Мбайт

    1. - Совместимость с ЭВМ семейства IBM/370;

    2. - сервисный пульт на базе ПЭВМ

    1. 1989

    1. 268

    1. ЕС1230

    1. СБИС семей-ства IBM ES-9000

    1. 5-17 млн. оп/с

    1. СБИС памяти

    2. Еоп= 2048 Мбайт

    1. Совместимость с ЭВМ семейства IBM/390 (ES-9000 и IBM9672)

    1. 1996-

    1. 5

    1. ВМ2302

    2. ВМ2304

    1. СБИС

    1. 5,0 млн. оп/с

    1. СБИС памяти

    2. Еоп= 256 Мбайт

    1. Совместимость с ЭВМ семейства IBM/380 и персональными ЭВМ фирмы IBM

    1. 2000

    1. 2

  68. Таблица А.2.

    1. Показатели

    1. Значение показателей для ЭВМ ЕС

    1. ЭВМ своей разработки

    1. С применением ПКИ IBMES/9000

    1. ВМ2302.10

    1. ЕС1020

    1. ЕС1130

    1. ЕС1066

    1. ЕС1230

    1. 1. Производительность (т. оп/с)

    2. Емкость ОП

    1. 10,0

    2. 64 Кбайт

    1. 2000,0

    2. 32 Мбайт

    1. 5500,0

    2. 8 Мбайт

    1. 5000,0- 17000,0

    1. ~ 6000,0

    1. 2. Элементная база

    1. ИС ТТЛ

    1. ИС, БИС ЭСЛ

    1. ИС

    1. СБИС

    1. СБИС

    1. 3. Габариты стойки (стоек) процессора

    1. 1200х 750х 1600 мм

    1. 1400х 700х 1400 мм

    1. 1200х 750х 1600 мм

    1. Сервер (ПЭВМ)

    1. 4. Количество стоек процессора

    1. 3

    1. 1

    1. 5

    1. 1

    1. 1

    1. 5. Объем стоек процессора (м3)

    1. 4,32

    1. 1,4

    1. 7,2

    1. 0,72

    1. 6. Площадь, занимаемая процессором (м2)

    1. 2,7

    1. 1,0

    1. 4,5

    1. 0,6

    1. 0,5

    1. 7. Мощность, потребляемая процессором (кВА)

    1. 7

    1. 6,5

    1. 10,0

    1. 0,5

    1. 0,5

    1. 8. Удельная производительность на единицу объема

    2. (т. оп/с / м3)

    1. 2,3

    1. 1430

    1. 764,0

    1. 6945,0

    1. 9. Удельная производительность на единицу площади

    2. (т. оп/с / м2)

    1. 13,7

    1. 2000,0

    1. 1220,0

    1. 8330,0

    1. 10. Удельная производительность на единицу потребляемой мощности

    2. (т. оп/с / ВА)

    1. 0,0014

    1. 0,3

    1. 0,55

    1. 3,3

    1. 11. Количество каналов

    1. 3

    1. 8

    1. 12

    1. до 124

    1. 2

    1. 12. Емкость ОП

    1. 64 К

    1. 32 М

    1. 8 М

    1. 16-256 М

    1. до 256 М

  69. Приложение Б. Семейство суперкомпьютеров «СКИФ»

  70. Б.1. Общие сведения о семействе «СКИФ»

  71. Разработка семейства суперкомпьютеров «СКИФ» была начата в 2000 г. по программе Союзного государства Беларуси и России «Разработка и освоение в серийном производстве семейства моделей высокопроизводительных вычислительных систем с параллельной архитектурой (суперкомпьютеров) и создание прикладных программно-аппаратных комплексов на их основе» (программа «СКИФ») и продолжена потом по программам «СКИФ-ТРИАДА» и «СКИФ-ГРИД».

  72. Основная цель реализации этих программ – это реальное освоение высоких суперкомпьютерных технологий в России и Беларуси. Поэтому большое внимание было уделено подготовке и переподготовке кадров для работы с суперкомпьютерными технологиями, созданию пилотных прикладных комплексов и организации промышленного выпуска суперкомпьютеров.

  73. Основополагающими архитектурными принципами создания суперкомпьютерных конфигураций «СКИФ» являются:

  1. − базовая кластерная архитектура;

  2. − иерархические кластерные конфигурации (метакластеры);

  3. − универсальная двухуровневая архитектура.

  1. Базовая кластерная архитектура. Концепция создания моделей семейства суперкомпьютеров "СКИФ" базировалась на масштабируемой кластерной архитектуре, реализуемой на классических кластерах из вычислительных узлов на основе компонентов широкого применения (стандартных микропроцессоров, модулей памяти, жестких дисков и системных плат, в том числе с поддержкой симметричных мультипроцессорных систем (SMP)).

  2. Кластерный архитектурный уровень – это тесно связанная сеть (кластер) вычислительных узлов, работающих под управлением ОС Linux – одного из клонов широко используемой многопользовательской универсальной операционной системы UNIX. Для организации параллельного выполнения прикладных задач на данном уровне были использованы:

  1. − оригинальная система поддержки параллельных вычислений – Т-система, реализующая автоматическое динамическое распараллеливание программ;

  2. − классические системы поддержки параллельных вычислений, обеспечивающие эффективное распараллеливание прикладных задач различных классов (как правило, задач с явным параллелизмом): MPI, PVM, Norma, DVM и др. В семействе суперкомпьютеров "СКИФ" в качестве базовой классической системы поддержки параллельных вычислений выбран MPI, что не исключает использования других средств.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]