
- •1.1. Развитие элементной базы вс.
- •1.2. Перспективы развития архитектур класса mpp (Massively Parallel Processor).
- •С хематический вид архитектуры с раздельной памятью
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •Использование гиперкуба для реализации параллельных алгоритмов.
- •Решение задачи быстрой сортировки на гиперкубе
- •2.1. Матричные вс с ассоциативной обработкой инф-ции на примере вс pepe.
- •2.2 Супер-эвм фирмы Cray Research.
- •1. Три типа различных регистров:
- •2. Параллельная обработка на нескольких уровнях.
- •3. Организация памяти.
- •2.3 Понятие метакомпьютинга. Способы организации метакомпьютера. Основные решаемые задачи. Примеры использования метакомпьютера для решения сложных задач.
- •3.1Транспьютеры. Практическое применение
- •3.2 Способы распределения задач по процессорам в мультипроцессорных вс.
- •3.3 Реализация фундаментальных вычислительных алгоритмов в линейной сети процессоров.
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •4.1 Вс на основе систолических и волновых матриц
- •Волновая матрица.
- •4.2 Возм-ые пути постр-ия высокопроизв-ых вс, отличных от фоннеймановского типа. Понятие семантического разрыва между стр-рой вс и реал-ой прогр-ой.
- •Концепция неограниченного параллелизма. Выявление микро- и макропараллелизма в алгоритмах.
- •5.1 Анализ производ-ти мультипроцессорных вс. Коэффициент ускорения вычислений. Проблемы достижимости линейного роста производительности.
- •5.2 Редукционная машина «Алиса». Пример выполнения фрагмента программы.
- •Параллельная редукция
- •6.1 Развитие новых методов вычислений Японская программа по развитию вычислительной техники:
- •Основной язык: Prolog
- •6.2 Показатели качества функционирования вс. Критерий Гроша. Критерий Минского. Двухпараметрический критерий. Проблемы достижения линейного роста производительности вс.
- •7.1 Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •7.3 Перспективы развития vpp (Vector Parallel Processor)
- •8.1 Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Одномерный путь передачи информации (отсутствует параллелизм передачи информации).
- •8.2 Особенности перехода к параллельным вычислениям. Проблемы организации параллельных вычислений.
- •9.1 Сравнительный анализ режимов и алгоритмов обработки информации в вс Сравнительные возможности двух методов организации параллельных вычислений: метод конвейеризации и метод параллелизма.
- •9.2 Принцип вычислений на основе управления потоком данных. Машины потоков данных (мпд). Архитектура. Достоинства и недостатки мпд.
- •Структура машины потоков данных. Данные хранятся в пакетах данных – в активных ячейках памяти. Ба – блок арифметический. Бл – блок логический. В активной памяти находятся пакеты, готовые к выполнению.
- •Функционирование машин потоков данных.
- •Организация сети передачи пакетов в мпд.
- •Достоинства мпд.
- •Недостатки мпд.
- •Обработка структур в мпд.
- •Структура мпд для обработки структур.
- •Структура устройства хранения и обработки.
- •9.3 Реализация фундаментальных вычислительных алгоритмов в матричной сети процессоров.
- •Решение задач линейной алгебры на матричной сети процессоров
- •10.1 Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Одномерный путь передачи информации (отсутствует параллелизм передачи информации).
- •10.2 Принцип вычислений на основе управления потоком данных. Машины потоков данных (мпд). Архитектура. Достоинства и недостатки мпд.
- •Данные хранятся в пакетах данных – в активных ячейках памяти. В активной памяти находятся пакеты, готовые к выполнению.
- •10.3 Принцип «разделяй и властвуй» и его использование для повышения эффективности выполнения вычислительных алгоритмов в сетях процессоров
- •11.1 Абстрактная архитектура вс. Основные модули и интерфейсы
- •Арифметический и командный конвейер
- •11.2 Особенности перехода к параллельным вычислениям. Проблемы организации параллельных вычислений.
- •11.3 Современные тесты для оценки производительности вс.
- •12.1 Диаграмма выполнения команды в машине фон Неймана. «Узкие места» при выполнении команды в последовательной вс. Методы устранения «узких» мест.
- •12.2 Редукционная g-машина. Пример выполнения фрагмента программы.
- •1. Три типа различных регистров:
- •2. Параллельная обработка на нескольких уровнях.
- •3. Организация памяти.
- •13.1 Арифметический и командный конвейер.
- •13.2 Организация тэговой памяти и оценка ее эффективности на примере мультипроцессорной вс Эльбрус.
- •Независимость программных средств от обрабатываемых данных. Программные средства реализованы только на логический уровень, поэтому:
- •Разработка высокопроизводительных систем класса мпд на основе ассоциативной памяти.
- •14.1. Способы выбора количества уровней совмещения (ступеней) в командном конвейере.
- •Тип решаемой задачи.
- •Стоимость организации вычислений.
- •14.2 Кластерные проекты (на примере мвс-1000 м). Коммуникационные технологии построения кластеров. Beowulf- кластеры. Beowulf- кластеры. The-hive.
- •14.3Теоретические модели параллельных систем. Ячеечные автоматы Неймана. Пространственная машина Унгера.
- •15.1 Достижения и перспективы развития вычислительной техники.
- •Японская программа по развитию вычислительной техники:
- •Задачи:
- •Существуют трансляторы с полуестетвенных языков
- •15.2 Способы распределения задач по процессорам в мультипроцессорных вс.
- •Организация супер-эвм с общей памятью (на примере hp Superdone). Архитектура ccNuma.
- •16.1 Классификационные схемы архитектур вс (по Флинну, по Энслоу). Достоинства и недостатки каждой из классификаций.
- •Многовходовые
- •Несимметричные(системы с неоднородными процессорами)
- •5.Вс с матричными (векторными) процессорами (Архитектура мрр)
- •16.2 Теоретические модели параллельных систем. Ячеечные автоматы Неймана. Пространственная машина Унгера
- •16.3Организация супер-эвм с общей памятью (на примере hp Superdone). Архитектура ccNuma.
- •17.1Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Одномерный путь передачи информации (отсутствует параллелизм передачи информации).
- •17.2 Вычислительные системы с векторной обработкой команд (структура). Диаграмма выполнения операций с векторной обработкой команд.
- •Вычисление параллельного префикса
- •63 Гусеничный алгоритм обработки элементов массива. Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •65 Реализация фундаментальных вычислительных алгоритмов в матричной сети процессоров.
- •Решение задач линейной алгебры на матричной сети процессоров
- •Японская программа по развитию вычислительной техники:
- •Задачи:
- •Существуют трансляторы с полуестетвенных языков
- •2 Пути развития вычислительных систем (вс). Пять японских программ о развитии и внедрении средств вычислительной техники.
- •Использование гиперкуба для реализации параллельных алгоритмов.
- •Решение задачи быстрой сортировки на гиперкубе
- •Использование комбинаторов в редукционном вычислении
- •Процесс вычисления комбинаторного выражения
- •Реализация фундаментальных вычислительных алгоритмов в линейной сети процессоров.
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •20.1 Эволюция развития архитектур вс
- •20.2 Принципы векторизации последовательных программ. Критерии оценки векторной архитектуры.
- •2) Стартовое время конвейера.
- •Гусеничный алгоритм обработки элементов массива. Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Одномерный путь передачи информации (отсутствует параллелизм передачи информации).
- •21.2 Теоретические модели параллельных систем. Машина Холланда.
- •Решение задач линейной алгебры на систолических массивах.
- •22.2 Реализация принципа «сверхмультиобработки». Статический и динамический способ создания «общего кода».
- •22.3 СуперЭвм фирмы Fujitsu.
- •23.1 Сравнительные возможности двух методов организации параллельных вычислений: метод конвейеризации и метод параллелизма.
- •Факторы, влияющие на снижение производительности в системах с векторной обработкой команд
- •5. Зависимость по управлению
- •Основные технологии параллельного программирования.
- •62 Реализация фундаментальных вычислительных алгоритмов в линейной сети процессоров.
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •Вычислительные системы с векторной обработкой команд (структура). Диаграмма выполнения операций с векторной обработкой команд.
Вычисление параллельного префикса
i-й префикс – это какая-либо ассоциативная бинарная операция, выполняемая на элементах первых i процессоров. Для решения такого типа задач сначала необходимо получить:
1. операцию на первых двух элементах ;
2. - операция с участием трех процессоров;
21.1
Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
Существуют следующие абстрактные уровни связанности между собой процессорами:
Мультиплексорная. 2. Системная. 3. Кластерная. 4. Сетевая.
1
Пр
Пр
1
2
ОП
ОП
ОС
ОС
2
3
3
Сетевое
ПО
Сетевое
ПО
4
Пр+Пам = ядро мультипроцессорной системы, к которой могут быть подключены внешние устройства. На основе ядра и внешних устройств создаются кластеры. Если ОС разнородны (система является гетерогенной), то для организации связи требуется увеличение усилия, следовательно уровень абстракции значений возрастает.
4 – самый высокий уровень абстракции – когда отдельные системы мультипроцессоров объединяются на основе сетевых технологий.
Большое значение имеет решение следующих проблем:
Определение способов адресации пунктов назначения и пунктов отправления.
Выбор ширины шины, по которой передается информация (с возрастанием ширины возрастает пропускная способность, но возрастает и стоимость).
Частота тактирования шины при передаче данных.
Количество автономных путей передачи информации.
При создании высокопроизводительных комплексов исп. следующие типы соединений:
1.Дерево; 2. Шина; 3. Кольцо; 4. Решетка; 5. Конвейер; 6. Тороидальная матрица;
7. Структура “бабочка”; 8. Улучшенный вариант бабочки.; 9. Гиперкуб.
7,8 – преобразования Фурье, архитектура подобрана под задачу; 8 – большое число процессоров, большое число операций, сразу проводится 8 умножений, а не 4. 9 – нумерация вершин куба подчиняется правилу: номера соседних вершин должны отличаться только на единицу физического разряда. Следовательно, адрес будет состоять из меньшего числа разрядов.
Гиперкуб:
Одномерный путь передачи информации (отсутствует параллелизм передачи информации).
Дерево. Достоинства: возможность не только передачи информации, но и ее поиска
Недостатки: временная задержка при подключении узлов дерева
Шина. Недостатки: временные задержки при передаче информации, связанные с монополизацией шины на все время передачи информации.
Кольцо. Недостатки: низкая надежность, если нет дублирующего кольца (при разрыве вся система выходит из строя)
Решетка. Недостатки: при увеличении диаметра решетки (если брать дальние друг от друга узлы) уменьшается скорость
Конвейер. Недостатки: длит-сть фазы определяется самой медленной частью конвейера
Тороидальная матрица. Недостатки: сложность в орг-ии путей передачи информации.
*** Диаметр сети – наидлиннейший путь.
Параллелизм передачи информации: попытки создания высокоточных путей привели к созданию структур 7-9, где информация может передаваться одновременно параллельно по многим направлениям, следовательно возрастает производительность сети.
Матричные сети процессоров Н аибольшая степень связности = 4. На основе матричной сети процессоров можно строить различные конфигурации, которые будут наиболее эффективны для определенных типов решаемых задач. Матричную сеть можно рассматривать как набор линейных сетей процессоров, установленных одна над другой и взаимосвязанных. Поэтому каждую строку и каждый столбец можно рассматривать как линейку процессоров. Поэтому все алгоритмы, предназначенные для решения различных типов задач, можно использовать для решения тех е задач на матричных процессорах. Циклический сдвиг в матричной сети процессоров осуществляется одновременно в каждой строке и каждом столбце. Матричные сети используются для решения тех задач, которые связаны с выполнением полугрупповых операций. Кроме того, в матричной системе очень легко решается задача копирования данных по процессорам путем сдвига. Задача сортировки так же легко выполнима.
Древовидная структура процессоров
Дерево формируется как бинарное с n процессорами на базовом уровне. Такое дерево имеет в общей сложности процессоров.
М аксимальная связанность = 3. Диаметр сети меньше, чем в других структурах. Выполнение операций в дереве (таких, как поиск минимума или максимума) требует гораздо меньше времени, чем при использовании других архитектур процессоров. Задача сортировки выполняется значительно хуже, т.к. идет пересылка от левых крайних элементов к крайним правым. Недостаток: трудность решения задач, связанных с частым перемещением данных. Преимущество: быстрое выполнение операция объединения данных, что свойственно задачам трансляции. Целесообразно объединить древовидные структуры с матричными. Полученные в результате структуры – пирамидальные.
Пирамидальные структуры процессоров
О снование пирамиды (уровень 0) – матрица процессоров. Уровень 1 – также матрица процессоров. Уровень 2 – вершина. Пирамиду, в основании которой n процессоров, можно рассматривать как сеть процессоров, соединенных как четверичное дерево, в котором на каждом уровне находится матрица процессоров, соединенных с нижележащими процессорами. Использование такой структуры позволяет решать сложные задачи, связанные с одновременным выполнением элементарных операций.
Если в основании n процессоров, то общее количество вершин = . Каждый процессор основания связан с 4-мя своими соседями и со своим предком. Максимальная степень = 9. Диаметр сети = .
Древовидно-матричная структура процессоров
М аксимальная степень = 6, при этом процессоры по краям матрицы имеют меньшее число связей. Процессоры, находящиеся непосредственно в матрице называются процессорными листьями. Диаметр сети: количество путей значительно больше, чем в других архитектурах, что приводит к созданию более эффективных алгоритмов. Передавать информацию можно одновременно в разных направлениях.
Основные преимущества:
высокая гибкость;
высокая скорость передачи данных;
простота организации.
Гиперкуб
С тепень строго не определена. В отличие от других архитектур связанность в гиперкубе можно наращивать. Степень одинакова для всех вершин. Отсутствие фиксированной архитектуры является и недостатком. Диаметр гиперкуба пропорционален , где n – число вершин. При этом между любой парой вершин гиперкуба существует путь минимальной длины. Особенностью гиперкуба является возможность моделирования на нем других сетевых архитектур. Тогда ребра куба моделируют каналы передачи информации.