- •Модели программирования систем класса mimd. Стандарт mpi. Операции поддерживаемые и неподдерживаемые в mpi. Содержимое реализации стандарта mpi. Структура mpi-программы.
- •Стандарт mpi. Идентификация в mpi. Цели разработчиков mpi. Классификация функций mpi. Структура mpi-программы. Пример программы.
- •Двухточечные передачи в mpi. Организация отложенных посылок/приемов сообщений. Функции (основные и вспомогательные), используемые при отложенных посылках и приемах сообщений. Примеры.
- •Типы данных в mpi-программе. Структурированные данные, виды и способы их передачи. Передача структурированных данных с сосредоточенными и распределенными элементами. Примеры.
- •Коллективные передачи данных в mpi. Виды коллективных операций. Барьерная синхронизация, распределение и сбор данных. Примеры.
- •Коллективные передачи данных в mpi. Виды коллективных операций. Рассылка данных и их редукция. Примеры.
- •1. Классификация Флина.
- •2. Классификация Хокни
- •3. Классификация по доступу к памяти
- •По степени интеграции ядер и устройств
- •2. По однородности ядер
- •3. По связям между ядрами
- •По степени интеграции ядер и устройств
- •2. По однородности ядер
- •3. По связям между ядрами
- •29. Сети и структуры сетей системы ibm Blue Gene/l. Конфигурация торовых колец. Монтаж на Midplane. Внешние сети и их подключение. Link Card и Service Card.
- •Объединённый модуль (Connected Unit)
- •Кластер Roadrunner
1. Классификация Флина.
Два потока: управления и данных:
SISD (одиночный поток данных и команд) – ахитектура Фон-Неймана
MISD(множественный поток команд и одиночный поток данных) – Ø
SIMD(одиночный поток команд, множественный поток данных) – векторные и матричные ВС
MIMD(множественный поток команд, множественный поток данных)
2. Классификация Хокни
3. Классификация по доступу к памяти
P VP – parallel-vector processing; SMP – symmetrical multi-processing; ASM – asymmetrical multi-process.
В Мультипроцессорных ВС каждый вычислительный модуль не представляет из себя вычислительную машину, а в мультикомпьютерных ВС – каждый модуль – независимая вычислительная система, имеется общее управление.
UMA – uniform memory access – система с общей разделяемой всеми процессорами памятью.
NUMA – у каждого процессора или группы процессоров имеется своя память. Память физически распределена, но логически – общая.
ASMP – несимметрия доступа или разнородны сами процессоры.
COMA – cash-only memory access;
ccNUMA – cash cogerent NUMA; nccNUMA – noncogerent NUMA.
В СОМА создается единый cash, в котором кэшируются общие данные. В nccNUMA – обеспечивается когерентность данных во всех блоках памяти. В каждом блоке nccNUMA хранятся свои данные, нужно обращаться за данными к другому процессору.
MPP – massive parallel system – создается массив вычислительных узлов, каждый из которых имеет свои процессоры и свои собственные блоки памяти. Память организована по принципу NORMA (no remote memory access) – физически и логически распределенная память.
Cluster – строится на стандартных серийных вычислительных узлах. В качестве коммутации используются стандартные серийные коммутационные сети.
Grid – множество машин, объединенных посредством Intranet или Internet.
Реальная производительность современных многопроцессорных систем, ориентированных на традиционные методы организации праллельных вычислений, зачастую не превышают 10-15% от заявленной пиковой производительности из-за межпроцессорных обменов. Основная причина – это несоответствие между «жесткой» архитектурой многопроц. системы и информационной структурой широкого класса решаемых задач. Эти недостатки могут быть устранены применением многопроцю вычислительных систем с «гибкой», динамически перестраиваемой архитектурой. Такую систему сегодня позволяют создать Программируемые Логические Интегральные Схемы (ПЛИС)
Реконфигурируемые вычислительные системы (РВC)
На данный момент имеются:
1) Вычислительные системы с фиксированной структурой и набором исполнительных устройств
2) Множество программ, каждая из которых для своего выполнения в каждый момент времени требует вполне определённого набора исполнительных устройств и связей между ними.
К сожалению современные вычислительные системы не удовлетворяют этим требованиям, что приводит к необходимости подстройки программы под систему с потерей эффективности её выполнения.
Т
ребуется:
создать систему, способную изменять
свою структуру и состав исполнительных
устройств согласно требованиям
исполняемой программы для эффективного
выполнения.
.©».¶ї«і±µ©Ў.Ё©ЇЁј®їЄ Ѕ|°,ЁЇ2.Ј©®ї(Ґ°0ўҐЇ« ҐЃЎЈ:±.Є¬І®Ј,®·®°ў.°»І°ў¤.Є»®{і4Ё¶і«Ґ)µґ.¬Іў.Ґ°§ ° ®ЇЄў±Є ґ¦±І¤І0ї«Ґ..ї«ЈЁ±Є¬6ј ®Ґµ
Основными вычислительными узлами РВС являются базовые модули(БМ). Каждый БМ в своём составе содержит решающее поле, состоящее из 16 ПЛИС, 20 канальную распределённую память, контроллер базового (КБМ), подсистемы загрузки и синхронизации ПЛИС, подсистему обмена информации по каналу LVDS, подсистему питания и охлаждения.
О
сновными
вычислительными блоками в РВС являются
макропроцессоры
(МАП).
Макропроцессор позволяет реализовывать
крупные операции, которые предписаны
вершинами информационного графа.
Макропроцессор представляет собой
некоторый набор элементарных процессоров
(ЭП), объединяемых в единый программнонеделимый
вычислительный ресурс с помощью
локального пространственного коммутатора
(К1). Внутренний коммутатор макропроцессора,
как правило, соединяет по полному графу
все информационные входы и выходы
элементарных процессоров, внешние
информационные входы Х, внешние
информационные выходы Z МАП. Настройка
макропроцессора на крупную функционально
законченную операцию (макрооперацию)
производится с помощью блока макроопераций
(БМ). В каждый момент времени макропроцессор
может реализовывать только одну
макрооперацию. Незадействованные в
макрооперации элементарные процессоры
будут простаивать. Следует отметить,
что в отличие от стандартного
микропроцессора элементарный процессор
макропроцессора не управляет процессом
обработки информации, а лишь реализует
соответствующую ему операцию над
операндами, поступающими на его входы.
В
состав обобщённой
схемы РВС
входят множество макропроцессоров,
соединяемых между собой с помощью
локального коммутатора; множество
каналов распределенной памяти (РП), в
каждый из которых входит контроллер
распределенной памяти (КРП), а также
системный коммутатор К2,
предназначенный как для соединения
макропроцессоров друг с другом в
вычислительные структуры, так и для их
параллельного доступа к каналам
распределенной памяти.
Билет №18. Современные многоядерные микропроцессоры. Пути повышения производительности микропроцессоров. Классификация многоядерных микропроцессоров. |
Классификация многоядерных процессоров
Три критерия: 1) по степени интеграции ядер и устройств; 2) по однородности ядер; 3) по связям между ядрами.
