Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
IV.Классификац. компьютеров.doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
150.02 Кб
Скачать

IV. КЛАССИФИКАЦИЯ И КРАТКИЙ ОБЗОР СОВРЕМЕННЫХ

Компьютеров

Современные компьютеры можно разбить на 4 основных класса.

  1. Суперкомпьютеры.

  2. Универсальные компьютеры общего назначения (Mainframe).

  3. Миникомпьютеры.

  4. Микроконтроллеры.

  1. Суперкомпьютеры

Суперкомпьютеры находятся на верхушке компьютерной пирамиды. Они необходимы для работы с приложениями, требующими производительности даже не в миллиарды, а триллионы, квадриллионы и даже квинтиллионы операций с плавающей запятой в секунду.

Конечно, создать такие компьютеры на одном микропроцессоре невозможно. Ограничением является конечная скорость распространения электромагнитных волн (300 000 км/с), поскольку время распространения сигнала в кристалле микропроцессора (размером несколько миллиметров), при быстродействии уже 100 миллиардов операций в секунду, становится соизмеримым со временем выполнения одной операции. Поэтому суперкомпьютеры создаются в виде многопроцессорных вычислительных систем с высоким параллелизмом выполнения вычислительных операций.

Суперкомпьютеры могут включать в себя десятки и сотни тысяч микропроцессоров, причем в США уже проектируют суперкомпьютер (Sequoia) в котором будут установлены 1,6 млн процессоров. Оперативная память в современных суперкомпьютерах достигает 100 и более Гбайт (в Sequoia предусматривается оперативная память емкостью более терабайта), при внешней памяти до 10 и более Тбайт (1 Тбайт – 1012 байт). (В Sequoia предполагается установить внешнюю память емкостью более петабайта, т.е. более 1015 байт).

В суперкомпьютерах используется весь арсенал параллельной обработки информации для достижения основной цели, которая позволяет их выделять в отдельный класс компьютеров, а именно: выдержать отрыв по производительности от остальных вычислительных систем минимум в 10 раз!

Заметим, кстати, что как показывают исследования, в среднем вычислительная мощность настольных ПК отстаёт от уровня производительности суперкомпьютеров на 13 лет. В то же время самые мощные современные суперкомпьютеры уже преодолели уровень производительности равный 1 петафлопсу (1015 операций с плавающей запятой в секунду). Таким образом, недалек тот день когда тера-вычисления (т.е. вычисления с производительностью порядка триллиона операций с плавающей запятой в секунду) останутся за среднестатистическим пользователем персонального компьютера.

Конечно, надо иметь в виду, что наряду с огромной производительностью, максимальным объемом оперативной и внешней памяти, суперкомпьютеры, как правило, имеют свое специализированное программное обеспечение для решения задач, позволяющих распараллеливание алгоритма обработки информации.

Создание таких компьютеров обходится в десятки и сотни миллионов долларов. Конечно, в принципе страна может прожить и без суперкомпьютеров. В настоящее время, даже мощной промышленно развитой стране нужно их не больше несколько десятков или сотен штук. Но без них:

  • Инженеры будут годами проводить натурные испытания новых самолетов, кораблей и двигателей;

  • Геологи долго и мучительно бурить скважины для обнаружения новых полезных ископаемых;

  • Физики-ядерщики и биохимики станут стерильно чистыми теоретиками;

  • Прогнозы погоды не выйдут за пределы одного, двух дней и то с относительной точностью.

А все это вместе взятое приведет к резкому замедлению темпов развития общества по пути прогресса. Кроме того, современное человечество подошло к управлению такими силами (например, термоядерными), что во многих случаях исключен натурный эксперимент, который всегда проводится для экспериментального подтверждения тех или иных теоретических построений. Один такой эксперимент закончился Чернобыльской катастрофой и только подтвердил это положение. Поэтому подобные исследования можно проводить только математическим моделированием изучаемых ситуаций на сверхмощных суперкомпьютерах.

Так, например, лет 40 тому назад, еще при напряженном противостоянии двух самых мощных держав США и СССР, ученых и политиков и той и другой стороны очень интересовал вопрос, что же может произойти с человечеством, при возникновении III мировой войны. Физиками и математиками, как США, так и СССР, независимо друг от друга были разработаны программы моделирования следующей ситуации: что будет, если произойдет взрыв хотя бы 10% всех ядерных запасов человечества, даже независимо от места взрыва? Для моделирования использовались самые мощные, к тому времени, суперкомпьютеры. Оказалось, что и у американцев и у нас получился аналогичный результат: на всем земном шаре наступит, так называемая «ядерная зима» и человечество погибнет.

Но суперкомпьютеры с успехом используются и для других целей.

- Так Holywood в свое время приобрел за 15 млн. долларов суперкомпьютер фирмы Crey для создания мультипликационных фильмов и прорисовки задних планов полнометражных художественных фильмов. Трудоемкость этих операций можно оценить по тому, что даже для такого суперкомпьютера, на расчет и прорисовку 3 секундного кадра из фильма «Звездные войны» потребовалось неделя работы. Без использования суперкомпьютеров невозможно было бы создавать такие фильмы, как, например, «Авотар».

- По данным компании Ford, для выполнения crash-тестов, при которых реальные автомашины разбиваются о бетонную стену с одновременным измерением необходимых параметров, со съемкой и последующей обработкой результатов, ей потребовалось бы от 10 до 150 прототипов для каждой новой модели. При этом общие затраты составили бы от 4 до 60 миллионов долларов. Использование же суперкомпьютеров для моделирования crash-тестов позволило сократить число прототипов на одну треть.

- Известной фирме DuPont суперкомпьютеры помогли синтезировать материал, заменяющий хлорфлюорокарбон. Нужно было синтезировать материал, имеющий те же положительные качества: невоспламеняемость, стойкость к коррозии, низкую токсичность, но без вредного воздействия на озоновый слой земли. За одну неделю были произведены необходимые расчеты на суперкомпьютере с общими затратами около 5 тысяч долларов. По оценкам специалистов фирмы DuPont, использование традиционных экспериментальных методов исследований потребовало бы 50 тысяч долларов и около 3 месяцев работы – и это без учета времени, необходимого на синтез и очистку требуемого количества вещества.

- Очень перспективно использование суперкомпьютеров при разработке новых лекарств. При этом моделируется и рассчитывается воздействие лекарств на некоторые части человеческих клеток. Это дает возможность проводить виртуальные медицинские эксперименты, что позволит более правильно подобрать формулу требуемого лекарства.

Список 500 самых мощных суперкомпьютеров мира два раза в год публикуется в Интернете (TOP 500 Supercomputers).

На сегодняшний день (июнь 2011г.) самый мощный суперкомпьютер в мире под названием «К-Computer» создан в Японии. Его максимальная производительность равна 8,2 квадриллиона (1015) операций с плавающей запятой в секунду (8,2 petaflop/s). Второе место занимает китайский суперкомпьютер TH-1A (Tianhe-1A) с производительностью 2,6 петафлопс, а суперкомпьютер США «Jaguar», с производительностью 1,75 петафлопс, который в прошлом году возглавлял список TOP 500, в этом году оказался только на третьем месте.

Отметим, что Япония инвестировала 1,3 миллиарда долларов на разработку нового суперкомпьютера. Газета «Nikkei reports» - орган большого бизнеса, сообщает, что правительство готово к 2020 году добиться производительности суперкомпьютеров в миллион триллионов (1018) операций с плавающей запятой в секунду (т.е. в 100 раз выше, чем у суперкомпьютера «К Computer»).

Конструктивно, например, суперкомпьютер TH-1A включает 7168 модулей Nvidia Tesla M 2050, и 14336 шестиядерных процессоров Intel Xeon, размещенных в более чем100 серверных стойках.

Можно также привести пример суперкомпьютера семейства NEC Vector, который в списке Top500 в июне 2010 г. занимал 37 место. Этот суперкомпьютер построен японской корпорацией NEC на 1280 микропроцессорах типа SX6, смонтированных в 320 больших шкафах. Располагается он в двухэтажном зале 65×50 метров и высотой 17 метров. При этом машинный зал расположен на первом этаже, а его освещение осуществляется через световоды со второго этажа от галогенных ламп. (Лампы накаливания слишком нагревают воздух, что неприемлемо для соблюдения жесткого температурного режима, а лампы дневного света создают слишком большие электромагнитные помехи). Максимальная производительность этого компьютера достигает 122 Tflops, т.е. 122 триллиона операций с плавающей запятой в секунду. Он известен под названием «Симулятор земли» (Earth-Simulator) и, в основном предназначен для следующих задач.

  1. Для моделирования климатических процессов в масштабе всей планеты и предсказания погоды с большой точностью, в том числе, тайфунов и цунами. Японские ученые с его помощью намерены прогнозировать погодные условия на 30 лет вперед, а в перспективе – до 300 лет вперед.

  2. Для моделирования сейсмических явлений и предсказания землетрясений.

Эти две задачи занимают 85% мощности этого суперкомпьютера, но кроме того, он используется:

  1. Для криптографических работ (шифровка своих и расшифровка чужих, перехваченных секретных посланий).

  2. Для моделирования ядерных процессов и ядерных взрывов.

  3. Для биологических расчетов, связанных с прочтения геномов.

Представляет интерес рассмотреть распределение этих 500 наиболее мощных суперкомпьютеров, по наиболее использующим их странам, за последние 8 лет. (См. таблицу IV.1).

Таблица IV.1

№№

п/п

Страны

Количество суперкомпьютеров

2004

2005

2006

2007

2008

2009

2010

2011

1

США

258

279

299

276

252

291

282

255

2

Великобритания

36

30

35

42

45

44

38

27

3

Франция

16

11

8

13

26

23

27

25

4

Германия

35

39

18

25

24

30

24

30

5

Япония

34

25

29

21

18

15

18

26

6

Китай

13

19

28

13

15

21

24

61

7

Россия

2

3

1

5

8

8

11

12

В большинстве случаев (77,2%), в суперкомпьютерах использовались микропроцессоры корпорации Intel, доля фирмы AMD составила 13,2%, и 9% микропроцессоров фирмы IBM.

Лидерами среди компаний производителей суперкомпьютеров являются фирмы IBM и Hewlett-Packard, на долю которых приходится 42,4% и 31% суперкомпьютеров соответственно. Можно упомянуть ещё фирму Cray Inc., на долю которой приходится 5,8% производства суперкомпьютеров.

Интересно, что в суперкомпьютерах используется в основном операционные системы семейства Linux (в 91,2% суперкомпьютерах).

Самым мощным суперкомпьютером в России является суперкомпьютер «Ломоносов», установленный в МГУ. В последней редакции списка TOP 500 он занимает 13 место. Пиковая производительность этого компьютера составляет 1,37 петафлопс, реальная максимальная – 674 терафлопс.

Теоретические разработки и проекты у нас отличные. Многие идеи (например, разработки Бабаяна) заимствуются даже фирмами США при создании своих суперкомпьютеров. Однако основная наша беда – слабая технологическая база. Она требует гигантских капиталовложений, которые пока нам не под силу. Так, в настоящее время в США на программу ASCI (Accelerated Strategic Computing Initiative), целенаправленную только на развитие суперкомпьютеров, специально выделяется более 1,4 миллиарда долларов в год.

Но вот недавно в Интернете появилось сообщение, что российский производитель суперкомпьютеров ЗАО «РСК-СКИФ» поставил Уральскому университету в Челябинске новый суперкомпьютер. Этот суперкомпьютер, хоть и занимает в списке TOP500 всего 450 место, но использует весьма перспективные технологии, сулящие резкий рывок в качестве наших суперкомпьютеров, и главное в том, что 90% комплектующих этого типа компьютеров делают в России. И российские ученые говорят, что задача построить самый мощный компьютер в мире на данный момент лишь вопрос инвестиций.

Что касается дальнейших перспектив развития суперкомпьютеров, то американский профессор Стив Чен в 2006 г. писал, что если для задач аэродинамики хватит производительности в несколько петафлопс (1015 Flops, т.е. квадриллион операций с плавающей запятой в секунду), то для задач молекулярной динамики потребуется уже производительность в 20 Pflops, а для вычислительной космонавтики – порядка 10 экзафлопс (1 экзафлопс = 1018 Flops, т.е. квинтиллион Flops). Для задач же для вычислительной химии потребуются еще более мощные процессоры. По мнению Стива Павловски, старшего заслуженного инженера-исследователя корпорации Intel, компьютеры с производительностью в секстиллион Flops, то есть 1021 операций с плавающей запятой в секунду появятся к 2029 году.

  1. Mainframe

Универсальные компьютеры общего назначения или, как их называют в западных странах, “Mainframe” (главная рама), в не таком уже далёком прошлом были основным типом выпускаемых компьютеров. К этому типу компьютеров относились, например, первый американский компьютер «ENIAC», и наши компьютеры серии МЭСМ, БЭСМ, М-20 и др. Пик их развития пришелся где-то на 60…70 годы XX века. В это время в массовом масштабе выпускались знаменитые американские компьютеры фирмы IBM семейства IBM 360/370, а также наши компьютеры семейства ЕС ЭВМ.

В это время основной идеологией вычислительных технологий была концентрация вычислительных средств в общем центре, и развитие периферии под крышей мощных вычислительных центров. Эта тенденция оправдывала постоянное увеличение мощности компьютеров, не особенно считаясь с их стоимостью. Но то, что устраивало крупные предприятия и госучреждения никак не годилось для предпринимателей средней руки, небольших офисов. Мощности этих компьютеров для них были излишними, а стоимость слишком высока. Возить же программы для отладки и обработки на крупные вычислительные центры становилось также очень неудобно. Как один из выходов предлагался и реализовывался способ развития удаленных терминалов на базе компьютеров с разделением времени, которые устанавливались в таких малых предприятиях и офисах. Однако это развитие не получило широкого распространения ввиду появления другого выхода из этой ситуации – появление небольших но достаточно мощных и недорогих так называемых мини-компьютеров.

И вот в 80 годах производство мини-компьютеров стало преобладать, особенно после появления персональных компьютеров. И в конце 80 годов стали поговаривать, что класс компьютеров «Mainframe» обречен на вымирание. Дело осложнялось еще тем, что компьютеры эти той поры представляли собой закрытые (замкнутые) системы, т.е. ориентированные на образование вычислительных комплексов из аппаратных и программных средств, созданных специально под эти комплексы и не приспособленных к связи таких комплексов в единую систему. В то время как новая разновидность компьютеров – мини-компьютеры очень легко объединялись друг с другом через соответствующие интерфейсы, образуя мощные системные комплексы.

И только, когда в 1991 году корпорация IBM объявила о выпуске компьютеров с архитектурой ESA/390 (Enterprise System Architecture – архитектура систем масштаба предприятия), компьютеры типа Mainframe стали отвоевывать свои позиции. Основное достоинство этой архитектуры – ее открытость, т.е. возможность объединятся с другими компьютерами в мощные вычислительные системы. Это позволяет использовать такие компьютеры в качестве центров интеграции неоднородного вычислительного комплекса. ESA предполагает совместную работу со всеми альтернативными системами в рамках единого комплекса и одновременно реализует ряд специфических функций, которые обеспечивают Mainframes центральное место в подобных системах.

Рынок Mainframes, в связи с выпуском компьютеров IBM (в рамках архитектуры ESA/390), семейства ES/9000 (серий 9221, 9121, 9021 и др.), заметно вырос, и теперь ни у кого не вызывает сомнения в том, что Mainframes скорее всего сохранят за собой устойчивый сектор рынка объемом 20…30%. Только в США работают сотни тысяч мэйнфреймов, а по данным некоторых экспертов, на мэйнфреймах сейчас находится около 70 % компьютерной информации.

В России, усилиями IBM и российских организаций (НИИЦЭВТ) разработана серия компьютеров ЕС1220, относящихся к типу мэйнфреймов, которая тоже успешно распространяется по предприятиям.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]