
- •1. Типовые вычислительные структуры - суперкомпьютеры.
- •1.1. История создания (Слайд 4).
- •1.2. Эволюция суперкомпьютеров и недавние планы их создания (Слайд 5).
- •1.3. Некоторые современные суперкомпьютеры 2012 года
- •1. Juqueen- производительность 4.141 (5.033) петафлопс (Слайд 6).
- •2.Kraken - производительность 1.17петафлопс (Слайд 7).
- •3.Ibm Roadrunner - производительность 1,042 петафлопс (Слайд 9).
- •4. Condor Cluster - производительность – 0,5 петафлопса. (Слайд 10).
- •5.SuperMuc - производительность до 3 петафлопсов (Слайд 11).
- •6. Jaguar - производительность 1,7 петафлопс(2011 г.) (Слайд 12).
- •7.Tianhe-1 - производительность 2,57 (4,7) петафлопса (Слайд 14).
- •8.K computer - производительность 10,51 (11,28) петафлопс (Слайд 15).
- •9.Экзафлопсный суперкомпьютер (Слайды 16 и 17).
- •1.4. Рейтинг суперкомпьютеров тор-50 за 2012 год.
- •1.5. Современные отечественные суперкомпьютеры (Слайд 19).
- •2. Персональные суперкомпьютеры
- •3. Типовые вычислительные структуры - кластерные системы
- •4. Организация функционирования вс
- •Перспективы развития вычислительных средств. Технические средства человеко-машинного интерфейса.
2. Персональные суперкомпьютеры
В настоящее время суперкомпьютер можно приобрести и в личное пользование. Так, например, фирма «Серверные системы» предлагает персональный суперкомпьютер STSS Flagman WX240T.2, построенный на процессорах Intel Xeon и графических процессорах NVIDIA Tesla. (Слайд 21)
Графические процессоры (вычислители) NVIDIA Tesla объединяют 1792 параллельных процессорных ядра и способны обрабатывать тысячи параллельных потоков, достигая суммарной пиковой производительности в 4 Терафлопа на операциях с одинарной точностью и 2 Терафлопа на операциях с двойной точностью.
Основные характеристики:
В минимальной конфигурации – однопроцессорная система
4-х ядерный процессор Intel Xeon 5630 2.53 GHz
два суперкомпьютерных вычислителя NVIDIA Tesla C2040
– стоимость около 8500 у.е.
В максимальной конфигурации – двухпроцессорная система
два 6-ти ядерных процессора Intel Xeon 5690 3.73 GHz
четыре суперкомпьютерных вычислителя NVIDIA Tesla C2070
до 96GB оперативной памяти DDR3
дисковая подсистема (8 жёстких дисков SATA 3000 GB -общая емкость 24 ТВ) с поддержкой «горячей замены»
– стоимость около 30000 у.е. (данные – декабрь 2011 года)
3. Типовые вычислительные структуры - кластерные системы
Вычислительные системы как мощные средства обработки заданий пользователей широко используются не только автономно, но и в сетях ЭВМ в качестве серверов.
С увеличением размеров сетей и их развитием возрастают плотности информационных потоков, нагрузка на средства доступа к сетевым ресурсам и на средства обработки заданий. Круг задач, решаемый серверами, постоянно расширяется, становится многообразным и сложным. Чем выше ранг сети, тем более специализированными они становятся. Администраторы сетей должны постоянно наращивать их мощь и количество, оптимизируя характеристики сети под возрастающие запросы пользователей.
В сетях первых поколений серверы строились на основе больших и очень дорогих ЭВМ (mainframe), выпускаемых целым рядом компаний: Compaq, IBM, Hewlett-Packard. Все они работали под управлением ОС Unix и способны были объединяться для совместной работы.
Успехи микроэлектроники, повсеместное применение ПК, широкое распространение Интернет - Интранет технологий позволили перейти к более простым и дешевым системам. Одним из перспективных направлений здесь является кластеризация, то есть технология, с помощью которой несколько серверов, сами являющиеся вычислительными системами, объединяются в единую систему более высокого ранга для повышения эффективности функционирования системы в целом.
Другими словами, отдельные, независимые суперкомпьютеры вытесняются группами высокопроизводительных серверов, объединяемых в т.н. кластер.
Удобство построения кластерных ВС - возможность гибко регулировать необходимую производительность системы, подключая к кластеру с помощью специальных аппаратных и программных интерфейсов обычные серийные серверы до тех пор, пока не будет получен суперкомпьютер требуемой мощности. Кластеризация (Слайд 22) позволяет манипулировать группой серверов как одной системой, упрощая управление и повышая надежность.
Целями построения кластеров служат:
улучшение масштабируемости (способность к наращиванию мощности);
повышение надежности и готовности системы в целом;
увеличение суммарной производительности;
эффективное перераспределение нагрузок между компьютерами кластера;
эффективное управление и контроль работы системы и т.п.
Улучшение масштабируемости (способность к наращиванию мощности) предусматривает, что все элементы кластера имеют аппаратную, программную и информационную совместимость, что дает возможность при добавлении новых процессоров, дисковых систем и пр. увеличить производительность и надежность системы.
Масштабируемость используемых SMP - и МРР - структур достаточно ограничена. При большом числе процессоров в SMP-структурах (SMP — Shared Memory multiprocessing, - технология мультипроцессирования с разделением памяти- см. п.2) возрастает число конфликтов при обращении к общей памяти. В МРР - структурах (МРР- Mass-Parallel Processing - система с массовым параллелизмом - каждый процессор системы имеет собственную память - см. п.2) плохо решаются задачи преобразования и разбиения приложений на отдельные задания процессорам. В кластерах же администраторы сетей получают возможность увеличивать пропускную способность сети за счет включения в него дополнительных серверов даже уже из числа работающих с учетом того, что балансировка и оптимизация нагрузки будут выполняться автоматически. Проблема обеспечения доступа любого сервера к любому блоку как оперативной, так и дисковой памяти успешно решается, например, объединением систем SMP - архитектуры на базе автономных серверов для организации общего поля оперативной памяти и использованием дисковых систем RAID для внешней памяти.
Повышение надежности и готовности системы в целом обеспечивается избыточностью, изначально заложенной в кластеры. Основой этого служит возможность каждого сервера кластера работать автономно, но в любой момент он может переключиться на выполнение работ другого сервера в случае его отказа.
Коэффициент готовности систем (по Пятибратову) рассчитывается по формуле:
КТ = Тр1(Тр+Т0),
где Тр - полезное время работы системы;
То - время отказа и восстановления системы, в течение которого она не могла выполнять свои
функции.
Большинство современных серверов имеет 99-процентную готовность (неработоспособность - около четырех дней в году). Готовность 99,9%, достигаемая обычно спаркой серверов (основной плюс резервный), означает годовой простой около 500 мин., 99,999% - 5 мин., а 99,9999% - 30 сек.
Появление критически важных приложений в областях бизнеса, финансов, телекоммуникаций, здравоохранения и других требует обеспечения коэффициента готовности не менее чем т.н. «пять девяток» и даже выше.
Увеличение суммарной производительности кластера, объединяющего несколько серверов, обеспечивается автоматически. Каждый сервер кластера сам является достаточно мощной вычислительной системой, рассчитанной на выполнение им всех необходимых функций в части управления соответствующими сетевыми ресурсами. С развитием сетей все большее значение приобретают и распределенные вычисления. При этом многие компьютеры, в том числе и серверы, могут иметь не очень большую нагрузку. Свободные ресурсы рабочих станций локальных вычислительных сетей, да и самих серверов можно использовать для выполнения каких-либо трудоемких вычислений. При этом стоимость создания подобных вычислительных кластеров очень мала, так как все их составные части работают в сети и только при необходимости образуют виртуальный (временный) вычислительный комплекс.
Совокупные вычислительные мощности кластеров могут быть сравнимы с мощностями суперЭВМ, и даже превышать их при неизмеримо меньшей стоимости, обеспечивая наилучшее соотношение производительность / стоимость.
Так например, фирма IBM еще в 2001 году представила одну из самых мощных кластерных систем того времени - ASCI White, содержащую 8192 микропроцессора IBM Power 3, основную память емкостью 6 Тбайт, дисковую память емкостью 160 Тбайт; общая производительность кластера 12,5 TFloPS (триллионов операций в секунду). Стоимость такой кластерной системы существенно ниже по сравнению с локальными суперкомпьютерами, обеспечивающими ту же производительность.
Эффективное перераспределение нагрузок между компьютерами кластера обеспечивается работой кластера под управлением единой операционной системы, что позволяет оперативно контролировать процесс вычислений. Управление такими проектами требует создания специального клиентского и серверного программного обеспечения, работающего в фоновом режиме. Компьютеры при этом периодически получают задания от сервера, включаются в работу и возвращают результаты обработки. Последние версии браузеров (browser) еще более упрощают процесс взаимодействия, так как на клиентской машине могут активизировать выполнение различных программ-сценариев (скриптов).
Эффективное управление и контроль работы системы подразумевает возможность работы отдельно с каждым узлом, вручную или программно отключать узел для модернизации или ремонта с последующим возвращением его в работающий кластер. Это обеспечивает специализированное кластерное ПО, интегрированное в ОС серверов, которое позволяет работать с узлами как с единым пулом ресурсов (Single System Image - SSI).
Различные фирмы реализуют разные подходы к реализации кластерных систем. Фирма разработала Sun 64-процессорную SMP-модель сервера. Фирма IBM разработала SMP-систему, построенную на 16 процессорах Itanium 2. Напротив, фирма Dell считает, что применение более восьми процессоров в SMP-структуре применять нецелесообразно из-за трудностей преодоления конфликтов при обращении их к общей оперативной памяти.
Большой интерес к построению кластеров проявляет фирма Microsoft. В связи с широкой популярностью операционных систем Windows NT и выше, предназначенных для управления сетями крупных предприятий, разработаны различные варианты кластерного обеспечения, которое поддерживает до 16 и более узлов в кластере.
Унификация инженерно-технических решений предполагает соответственно и стандартизацию аппаратных и программных процедур обмена данными между серверами. Для передачи управляющей информации в кластере используются специальные магистрали, имеющие более высокие скорости обмена данными. В качестве такого стандарта предлагается интеллектуальный ввод-вывод (Intelligent Input/ Output - I2O). Спецификация I2O определяет унифицированный интерфейс между операционной системой, освобождая процессоры и их системные шины от обслуживания периферии.
Как и у любой разрабатываемой технологии, у кластеризации имеются свои недостатки:
задержки разработки и принятия общих стандартов;
большая доля нестандартных и закрытых разработок различных фирм, затрудняющих их совместное использование;
трудности управления одновременным доступом к файлам;
сложности с управлением конфигурацией, настройкой, развертыванием, оповещениями серверов о сбоях и т.п.