- •Зачем применяються суперкомпьютеры
- •Параллельная обработка данных на эвм
- •Классификация параллельных компьютеров и систем
- •Векторно-конвейерные компьютеры
- •Функциональные устройства
- •Секция управления процессора
- •Паралельные компьютеры с общей памятью
- •Вычислительные системы с распределенной памятью
- •Кластерные проекты
- •Система функциональных устройств. Закон амдала.
- •Как повышают производительность компьютеров
- •Усложнение и наращивание аппаратных средств
- •Параллельная обработка
- •Конвейерная обработка
- •Повышение интеллектуальности управления компьютера
- •Технологии параллельного программирования
- •Использование традиционных последовательных языков
- •Технология программирования ОреnМр.
- •Система программирования dvm.
- •Система программирования на mPc.
- •Система программирования на основе передачи сообщения
- •Система программирования mpi
- •Общие функции mpi.
- •Общие функции mpi
- •Прием/передача сообщения между отдельными процессами.
- •Прием/передача сообщения без блокировки.
- •Объединение запросов на взаимодействия.
- •Совмещенные прием и передача сообщений.
- •Коллективные взаимодействия процессов.
- •Синхронизация процессов
- •Работа с группами процессов
Кластерные проекты
Один из первых проектов, давший имя целому классу параллельных систем — Beowulf-кластеры.
Проект Beowulf стартовал летом 1994 года, и вскоре был собран 16-процессорный кластер на процессорах Intel 486DX4/100 МГц. На каждом узле было установлено по 16 Мбайт оперативной памяти и по: 3 сетевых карты для обычной сети Ethernet.
Для работы в такой конфигурации были разработаны специальные драйвера, распределяющий трафик между доступными сетевыми картами.
В 1998 году в Лос-Аламосской национальной лаборатории на базе процессоров Alpha 21164А с тактовой частотой 533 МГц был создан Linux-кластер Avalon. Первоначально Avalon состоял из 68 процессоров, затем их число было увеличено до 140. В каждом узле установлено по 256 Мбайт оперативной памяти, жесткий диск на 3 Гбайт и сетевой адаптер Fast Ethernet. Общая стоимость проекта Avalon составила 313 тысяч долларов.
В апреле 2000 года в рамках проекта АСЗ в Корнельском университете для проведения биомедицинских исследований был установлен кластер Velocity+. Идея разбиения кластера на разделы получила интересное воплощение в проекте Chiba City, реализованном в Аргонской Национальной лаборатории.
Коммуникационные технологии построения кластеров
Различные варианты построение кластеров очень много. Существенных различий лежит в используемой сетевой технологии, выбор которой определяется, прежде всего, классом решаемых задач.
Первоначально Beowulf-кластеры строились на базе обычной 10-мегабитной сети Ethernet. Сегодня часто используется сеть Fast Ethernet, как правило, на базе коммутаторов. Основное достоинство такого решения — это низкая стоимость. Вместе с тем, большие накладные расходы на передачу сообщений в рамках Fast Ethernet приводят к серьезным ограничениям на спектр задач, эффективно решаемых на таких кластерах.
Если от кластера требуется большая универсальность, нужно переходить на другие, более производительные коммуникационные технологии.
Исходя из соображений стоимости, производительности и масштабируемости, разработчики кластерных систем делают выбор между Fast Ethernet, Gigabit Ethernet, SCI, Myrinet, cLAN, ServerNet и рядом других сетевых технологий.
Производительность кластера вычислительной системы выражается специальными характеристиками: латентностью и пропускной способностью сети.
Латентность — это время начальной задержки при посылке сообщений. Пропускная способность сеты определяется скоростью передачи информации по каналам связи . Если в программе много маленьких сообщений, то сильно скажется латентность. Если сообщения передаются большими порциями, то важна высокая пропускная способность каналов связи. Из-за латентности максимальная скорость передачи по сети не может быть достигнута на сообщениях с небольшой длиной.
Для данного класса компьютеров выделить факторы, снижающие производительность вычислительных систем с распределенной памятью.
Поскольку компьютеры данного класса имеют распределенную память, то взаимодействие процессоров между собой осуществляется с помощью передачи сообщений. Отсюда два замедляющих фактора — латентность и скорость передачи данных по каналам коммуникационной среды. Если аппаратура или программное обеспечение не поддерживают возможности асинхронной посылки сообщений на фоне вычислений, то возникнут неизбежные накладные расходы, связанные с ожиданием полного завершения взаимодействия параллельных процессов.
Для достижения эффективной параллельной обработки необходимо добиться максимально, равномерной загрузки всех процессоров. Если равномерности нет, то часть процессоров неизбежно будет простаивать.
Существенный фактор — это реальная производительность одного процессора вычислительной системы.
Суммарность изложенных факторов может снизить реальную производительность в десятки сотни раз по сравнению с пиковой производительностью.
Крайняя точка построение такой системы является Интернет.