
- •26. Вс с вертикальной обработкой информации (на примере вс «omen»).
- •27. Возможные пути построения высокопроизводительных вс, отличных от фоннеймановского типа. Понятие семантического разрыва между структурой вс и реализуемой программой.
- •28. Организация тэговой памяти и оценка ее эффективности на примере мультипроцессорной вс Эльбрус.
- •Независимость программных средств от обрабатываемых данных. Программные средства реализованы только на логический уровень, поэтому:
- •29. Принцип вычислений на основе управления потоком данных. Машины потоков данных (мпд). Архитектура. Достоинства и недостатки мпд.
- •Данные хранятся в пакетах данных – в активных ячейках памяти. В активной памяти находятся пакеты, готовые к выполнению.
- •30. Принцип вычислений на основе графовой редукции. «Энергичные» и «ленивые» вычисления.
- •31. Редукционная машина «Алиса». Пример выполнения фрагмента программы.
- •П о сети связи передаются как готовые к выполнению, так и выполненные пакеты. Она объединяет три типа связи vgl. Функционирование машины на основе редукции, которая позволяет заполнять пакеты сети.
- •32. Редукционная g-машина. Пример выполнения фрагмента программы.
- •Параллельная редукция
- •33. Реализация принципа «сверхмультиобработки». Статический и динамический способ создания «общего кода».
- •34. Перспективы развития архитектур класса мрр (Massively Parallel Processor).
- •35. Показатели качества функционирования вс. Критерий Гроша. Критерий Минского. Двухпараметрический критерий. Проблемы достижения линейного роста производительности вс.
- •36. Вычислительные системы с векторной обработкой команд (структура). Диаграмма выполнения операций с векторной обработкой команд.
- •37. Перспективы развития vpp (Vector Parallel Processor).
- •38. Факторы, влияющие на снижение производительности в системах с векторной обработкой команд.
- •39. Принципы векторизации последовательных программ. Критерии оценки векторной архитектуры.
- •40. Организация многоуровневой параллельной обработки в супер-эвм.
- •41. Способы организации памяти в супер-эвм.
- •42. Супер-эвм фирмы Cray Research.
- •43. Супер-эвм фирмы Hitachi.
- •44. СуперЭвм фирмы Fujitsu.
- •45. СуперЭвм с комбинированной структурой.
- •46. Особенности перехода к параллельным вычислениям. Проблемы организации параллельных вычислений.
- •47. Концепция неограниченного параллелизма. Выявление микро- и макропараллелизма в алгоритмах.
- •48. Теоретические модели параллельных систем. Ячеечные автоматы Неймана. Пространственная машина Унгера.
43. Супер-эвм фирмы Hitachi.
Hitachi S –810 и ее модификации.
Основные концепции:
1) Высокая производительность, обеспечивается:
1. За счет большого количества конвейерных устройств, которые работают параллельно;
2. За счет использования высокопроизводительной скалярной машины;
3. Введение специальной памяти (расширенной памяти) кроме главной ОП, имеется память в 4-5 раз больше главной ОП – расширенная память.
Главная и расширенная ОП соединены специальной шиной с очень высокой скоростью передачи. Память является узким местом, поэтому ее организация очень важна.
2) Гибкая конфигурация системы за счет того, что на одной архитектуре можно образовывать разные конфигурации.
3
)
Высокая надежность за счет разработки
специального трассировщика, который
контролирует (определяет) выходные
результаты (в каком диапазоне должны
лежать, не существует ли сбоев). Регистратор
ошибок – позволяет следить за
вычислительным процессом; простота
технического обслуживания.
К процессорам вв/выв. можно подключать различные УВВ;
Они обеспечивают удаленный доступ (работу в сети).
В качестве процессора контроля и восстановления используются мини ЭВМ.
Скалярный процессор – машина типа М.
Имеются все 3 уровня параллелизма:
1 – На уровне совмещения подготовки и исполнения;
2 – На уровне выполнения отдельных фаз подготовки и исполнения;
3 – Детализируются отдельные фазы при исполнении команды.
+ 4 – параллелизм на уровне конвейерных устройств.
Расширенная память хранит в основном буферизованные данные, когда имеет место большой объем вычислений, характеризуется промежуточными вычислениями.
Коэффициент векторизации:
Т – время скалярной обработки; ТV – время векторной обработки.
При выполнении векторной команды имеют место повторяющиеся действия. При этом повторяющиеся действия могут быть либо векторизованы, либо не векторизованы.
Кроме того, в вычислительном процессе имеют место неповторяющиеся действия (инициализация, линейные участки программ).
Т – включает линейную часть программы и неповторяющиеся действия, которые нельзя повторить; ТV – связано с выполнением повторяющихся действий, которые можно векторизовать.
Обычно
KV
= 0,5–0,6, если векторизованы 4 арифметических
действия, а также скалярное произведение
и сумма векторов. Для повышения KV
– вводят специальные векторные команды.
В Hitachi введено около 80 таких команд,
тогда KV
0,8.
За счет введения дополнительных векторных команд повышается KV, а следовательно повышается производительность машины в целом. На основе машины Hitachi используются в основном 2 конфигурации вычислительных систем:
1. ВС со слабой связью;
2. Автономная ВС.
44. СуперЭвм фирмы Fujitsu.
Особенности машин Fujitsu.
1. 3 вида доступа в память:
1) по индексу I;
2) равно периодический доступ (по 2 I и т.п.);
3) по косвенной ссылке A(L(I)).
Позволяет гибко реагировать на структуру обрабатываемой программы.
2. Векторизирующий компилятор с Fortran 77, для которого были раньше созданы мощные ППП.
3. Наличие канальных процессоров в архитектуре позволяет организовать удаленный доступ к другим ЭВМ. Взаимодействие машин – через адаптер канал-канал (а не память), т.е. слабая связанность, а не сильная, как у мультипроцессоров.
4. Гибкая организация обработки векторов:
При
и
спользовании
делительного механизма:
1) происходит сжатие векторов, т.е. выявляются компоненты вектора, над которыми будет производиться операция (выявляется с помощью регистра маски).
1 0 1 1 0 0 I
B b1 b2 b3 b4 b5 b6 J исходный вектор
A b1 b2 сжатый вектор
на Fortran:
J=1
DO 10 I=1,N
if (M(I)) then
A(J)=B(I)
J=J+1
END
10 CONTINUE
2) Выполнение действий над сжатым вектором.
3) Операция расширения, т.е. восстановления вектора до определенных размеров.
Пример: Масштабирование арифметических операций:
A=B+C A,B,C – векторы.
С помощью маскирования некоторые сложения не выполняются.
-
Маска
1
0
0
1
0
b1
b2
b3
b4
b5
c1
c2
c3
c4
c5
A
b1
a2
a3
b4
a5
+
+
c1
c4
5. Динамическое конфигурирование векторных регистров.
1
)
трансляция
2) редактирование
3) сборка кода
Отсутствует общая ОП, поэтому слабая связь, что характерно для ОКМД.
Такая архитектура представляет удобство для пользователя. S – 810 – "решатель", интерфейс с пользователем – ведущий процессор.