17.6. Кластери.
Другий варіант мультикомп’ютера – кластерний комп’ютер. Як правило, кластер складається з декількох сотень і навіть тисяч персональних комп’ютерів, робочих станцій чи серверів, об’єднаних між собою комп’ютерною мережею. Кластери бувають централізованими (в межах одного приміщення) і децентралізованими, розкинутими на значному просторі. Окремі комп’ютери в кластерній системі можуть мати свого власник-користувача, який має можливість користуватися розподіленими ресурсами всього кластера.
Розвиток кластерних систем привів до появи принципово нових технологій обробки інформації – Grid-технологій (від англ. grid - решітка).
17.7. Grid -технології
Grid-технології і всесвітня Grid-мережа ідуть на зміну вже звичному Інтернету з його веб-послугами як засіб сумісного використання обчислювальних потужностей та сховищ даних. Grid дозволяє вийти за рамки простого обміну даними між комп’ютерами і зрештою перетворювати їхню глобальну мережу на свого роду гігантський віртуальний комп’ютер, доступний у режимі віддаленого доступу з будь-якої точки, незалежно від місця розташування користувача. Сфера застосування технологій Grid не обмежується лише вирішенням складних наукових і інженерних задач. Із розвитком Grid проникає в промисловість і бізнес, претендуючи на роль універсальної інфраструктури для обробки даних, у якій функціонує безліч служб-сервісів (Grid Services), що не лише дозволяють вирішувати конкретні прикладні задачі, а й пропонують послуги з пошуку необхідних ресурсів, збору інформації про стан ресурсів, зберігання і доставки даних.
Grid є технологією забезпечення гнучкого, безпечного і скоординованого загального доступу до ресурсів. При цьому слово «ресурс» розуміється в дуже широкому сенсі, тобто ресурсом може бути апаратура (жорсткі диски, процесори), а також системне і прикладне ПО (бібліотеки, додатки). Таким чином, Grid претендує на роль універсальної інфраструктури для обробки даних, в якій функціонує множина сервісів (Grid Services), які дозволяють дати нову якість рішення наступних класів задач:
масова обробка потоків даних великого об’єму;
багато параметричний аналіз даних;
моделювання на віддалених суперкомп’ютерах;
реалістична візуалізація великих наборів даних;
складні бізнес-додатки з великими об’ємами обчислень.
Grid-технології вже активно застосовуються у світі як державними організаціями управління, оборони, науки, сфери комунальних послуг, так і приватними компаніями, наприклад, фінансовими і енергетичними.
CRID – це якийсь гігантський віртуальний суперкомп’ютер, в якому віддалені обчислювальні ресурси створюють потужне середовище обробки інформації над розподіленими сховищами даних з використанням всіх доступних (в світовому вимірі) програмних і технічних ресурсів.
Зараз при організації обчислювального процесу застосовується розподіл робіт, даних та процесорних потужностей, обумовлюється орієнтація на конкретну платформу (будь то Windows, Unix, мейнфрейм чи кластер). Звичайно, що різні платформи пропонують різні реалізації своїх можливостей, різну семантику і технологію взаємодії. Спеціалісти постійно знаходяться в пошуку нових концепцій, які були б спроможні забезпечити доступ до застосувань і спільне використання ресурсів розподілених глобальних мереж і в той же час підтримували загальну логіку забезпечення безпеки, ефективне керування розподіленими ресурсами, відновлення після збоїв та вирішення інших проблем. Саме робота в цьому напрямку призвела до появи концепції CRID[4].
CRID – це деякий контрапункт, поворот в еволюції комп’ютінга. Професор А.Петренко (НТУУ «КПІ») вважає, що в найближчі десятиліття взагалі можуть зникнути з застосування звичні для інженерних спеціалістів персональні комп’ютери, сервери, локальні мережі, та ін. А окремі комп’ютери з багатоядерними процесорами розчиняться в інфраструктурі CRID[5].
CRID-технології з’явилися перш за все для розв’язання наукових проблем, але дуже швидко поширились в електронній комерції і, що важливо для нас, в освіті. Всі індустріальні країни світу (США, вся Європа, Росія, Китай, Японія) оголосили свої національні CRID-програми. Розвивається магістральна європейська науково-освітня мережа CRID, що охоплює 3 млн. користувачів в 34 країнах. В 2005 році Єврокомісія підготувала спеціальну програму вартістю 13 млрд. євро, в рамках якої CRID-комп’ютінгу відводиться роль важливішого ресурсу для перетворення Євросоюзу «в найбільш конкурентоспроможну в світі економіку знань».
На сайті Міністерства освіти і науки України 12 січня 2007 року оголошено про початок робіт по створенню національної CRID-інфраструктури. Проект підготовлено НТУУ «КПІ». Основна мета проекту -- об’єднати науково-освітню обчислювальну і комунікаційну інфраструктуру України в національну CRID-інфраструктуру і інтегрувати її з європейською CRID-мережею. Цей проект базується на використанні суперкомп’ютера кластерної архітектури, введеного в експлуатацію в НТУУ «КПІ» в 2006 році, з перспективою об’єднання всіх суперкомп’ютерів терафлопсної потужності (1012 оп/с), розташованих в країні, насамперед з комп’ютерами Інституту кібернетику і Інституту теоретичної фізики НАН України. Це, безумовно, розумний крок, бо окремі кластери досить дорогі і в той же час використовуються з низьким коефіцієнтом корисної дії.
17.8. Комп’ютери загального призначення займають саму значну частину комп’ютерного ринку. Серед цих комп’ютерів в свою чергу також можливо виділити три підсектори: великі універсальні ЕОМ-мейнфрейми, про які вже говорилося вище, а також сервери, робочі станції і персональні комп’ютери.
Строго кажучи, віднесення комп’ютера до класу сервера характеризує не його технічні параметри, а функціональне призначення. Сервером може бути і суперкомп’ютер і скромний ПК. Сервер не призначається для роботи кінцевого користувача, а знаходиться в центрі обчислювальної мережі і обслуговує цілу групу клієнтських комп’ютерів. Такими мережами можуть бути глобальні мережі, мережі установи, відділу, групи. Від масштабу мережі залежить і потужність сервера. Основні вимоги до сервера – висока продуктивність і надійність. З цією метою сервери часто мають по 2-8 центральних процесора, оперативну пам'ять з захистом від помилок, продубльовану зовнішню пам'ять і безперебійні джерела живлення.
Діапазон цін на сервери дуже широкий від 2-3 тис. доларів для початкового рівня, до 100-500 тисяч для класу потужного підприємства.
Під робочою станцією зазвичай розуміють спеціалізований комп’ютер, призначений для розв’язування певного класу задач. Наприклад, проектування функціональних схем ЕОМ, або топології друкованих плат. Задачі можуть відрізнятися своєю складністю, відповідно будуть відрізнятися своєю складністю і робочі станції: по продуктивності центральної частини, складу периферійних пристроїв і прикладних програм. Робочі станції з RISC – архітектурою, розширеною пам’яттю, широкоформатним графічним дисплеєм і кольоровим принтером можуть коштувати десятки тисяч доларів.
Ті комп’ютери, що ми бачимо в офісах, банках, лабораторіях, учбових аудиторіях, у себе вдома – це клас персональних комп’ютерів. Персональні комп’ютери можуть використовуватись автономно або в клієнт-серверних системах (локальні мережі). Конфігурація ПК цілковито залежить від кола розв’язуємих задач. По конструкції ПК поділяються на настільні (desktop) і
переносні (notebook)
Спеціалізовані комп’ютерні системи (СКС) призначені для розв’язку великого числа відносно вузьких класів задач. Для СКС характерні наступні основні риси, що відрізняють їх від універсальних машин:
орієнтація архітектури на вирішуванні задачі;
вузький, в основному постійний клас задач;
спеціальна система обміну, в тому числі наявність аналого-цифрових пристроїв вводу-виведення;
робота в режимі реального часу;
експлуатація в складних зовнішніх умовах.
Мікроконтрелери - комп’ютери на кристалі для керування електронними пристроями, зокрема побутовими приладами, виробничими лініями, вимірювальними пристроями і т.д. Для архітектури мікроконтролерів характерна невелика швидкодія, розрядність від 4 до 64бітів, алгоритми зашиті в постійній пам’яті.
.
17.9. ТОП 500.
В сучасному світі йде жорстке змагання в галузі новітніх технологій і наукових досліджень. Лідерство в цих напрямках можливе тільки за наявністю могутнього інформаційного та аналітичного забезпечення. В даний час виділений коло фундаментальних і прикладних проблем, ефективне вирішення яких можливе тільки з використанням надпотужної обчислювальних ресурсів. Він включає наступні завдання:
передбачення погоди, клімату і глобальних змін в атмосфері;
наука про матеріали;
побудова напівпровідникових приладів;
надпровідність;
структурна біологія;
розробка фармацевтичних препаратів;
генетика;
квантова хромодинаміка;
астрономія;
транспортні завдання;
гідро-і газодинаміка;
керований термоядерний синтез;
ефективність систем згоряння палива;
геоінформаційні системи;
розвідка надр;
наука про світовий океані;
розпізнавання і синтез мови;
розпізнавання зображень;
Для прикладу розглянемо особливості лише декількох з них.
Моделювання клімату здійснюється для різних цілей. Це прогноз погоди, аналіз можливостей зміни клімату, аналіз на клімат антропогенних впливів і багато іншого. В основі кліматичних моделей лежать рівняння динаміки суцільного середовища і рівняння рівноважної динаміки. Крім цього в моделі представлені різноманітні фізичні процеси, такі як перенесення випромінювання в атмосфері, фазові переходи води, хмари і конвекція, перенос малих газових домішок і їх трансформація, а також багато іншого. В цілому модель являє систему трьохмірних нелінійних рівнянь з частковими похідними.
Різноманітність задач, пов'язаних з дослідженням клімату, їх актуальність, необхідність в ряді випадків, пов'язаних з прогнозами оперативного вирішення потребують великих обчислювальних потужностей. Зокрема не найбільша і точна модель вимагає виполнения порядку 1016 - 1017 операцій, що на комп'ютері з продуктивністю 1012 операцій в секунду буде виконуватися протягом декількох годин. Використання більш повних кліматичних моделей збільшує цей час як мінімум на порядок.
Розробка технічних систем. В ході створення складних технічних систем, таких як космічні кораблі, літаки, висотні будівлі та інші довгі роки упор робився на натурне моделювання. Зокрема, при створенні на початку 20-го століття літака братів Райт експерименти в аеродинамічній трубі обійшлися в десятки тисяч долларів. Продувка корабля багаторазового використання «Шатл» обійшлася в 100 мільйонов доларів. Однак, незважаючи на великі фінансові та часові витрати продування не дає повної картини, так як обдувається зразок не можна обліпити датчиками в усіх можливих точках. Для подолання труднощів можливо тільки методами чисельного моделювання.
В данной таблице представлена первая десятка 43-й по счёту редакции списка Top500, опубликованного 23 июня 2014 года. |
||||||
Положение |
Rmax Rpeak (Pflops) |
Название |
Архитектура Тип процессора, сеть |
Производитель |
Место Страна, год |
Операционная система |
1 |
33.863 54.902 |
Tianhe-2 |
NUDT Xeon E5–2692,Xeon Phi, Custom |
NUDT |
Национальный
суперкомпьютерный центр в Гуанчжоу
|
Linux (SLURM) |
2 |
17.590 27.113 |
Titan |
Cray XK7 Opteron 6274,Tesla K20X, Custom |
Cray |
Национальная
лаборатория Оук-Ридж (ORNL)
Теннесси
|
Linux (CLE, SLESbased) |
3 |
17.173 20.133 |
Sequoia |
Blue Gene/Q PowerPC A2, Custom |
IBM |
Ливерморская национальная лаборатория , 2013 |
Linux (RHEL, CNK) |
4 |
10.510 11.280 |
K computer |
RIKEN SPARC64 VIIIfx, Tofu |
Fujitsu |
RIKEN
|
Linux |
5 |
8.586 10.066 |
Mira |
Blue Gene/Q PowerPC A2, Custom |
IBM |
Аргоннская национальная лаборатория , 2013 |
Linux (RHEL, CNK) |
6 |
6.271 7.788 |
Piz Daint |
Cray XC30 Xeon E5-2670,Tesla K20X, Aries interconnect |
Cray |
Swiss
National Supercomputing Centre (CSCS)
|
Linux (CLE, SLESbased) |
7 |
5.168 8.520 |
Stampede |
PowerEdgeC8220 Xeon E5–2680,Infiniband |
Dell |
Texas Advanced Computing Center США, 2013 |
Linux |
8 |
5.008 5.872 |
JUQUEEN |
Blue Gene/Q PowerPC A2, Custom |
IBM |
Исследовательский
центр Юлих
|
Linux (RHEL, CNK) |
|
94.293 5.033 |
Vulcan |
Blue Gene/Q PowerPC A2, Custom |
IBM |
Ливерморская национальная лаборатория , 2013 |
Linux (RHEL, CNK) |
10 |
2.897 3.185 |
|
Cray XC30 Xeon E5-2697v2, Aries interconnect |
Cray |
Правительство США , 2014 |
Linux (CLE, SLESbased) |
Обозначения:]
Положение ‒ Место, занимаемое в рейтинге.
Rmax ‒ Наивысший результат, полученный при использовании системы тестов Linpack (реализация HPL). Это число используется для сравнения быстродействия компьютеров. Измеряется в TFLOPS.
Rpeak ‒ Теоретическая пиковая производительность системы. Измеряется в TFLOPS.
Название ‒ Некоторые суперкомпьютеры уникальны, по крайней мере там, где они стоят.
Компьютер ‒ Компьютерная платформа (торговая марка).
Число процессорных ядер ‒ Число ядер, задействованных во время прохождении теста Linpack. После этой цифры указано название процессоров. И, если соединения между процессорными узлами представляет интерес, это также указано.
Производитель ‒ Производитель платформы или оборудования.
Место ‒ Название организации, использующей суперкомпьютер. Страна.
