Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Вычисленияв системах управления(1) - копия.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
14.18 Mб
Скачать

4. Ос рв с полным сервисом.

Такие операционные системы могут быть применимы в лю­бых конкретных приложениях реального времени. При этом раз­работка и исполнение прикладных программ ведутся в рамках одной и той же системы.

Системы второго и третьего классов принято называть сис­темами "жесткого" реального времени из-за жестких требова- | ний к времени реакции и необходимому объему памяти, а сис­темы четвертого класса — "мягкого" реального времени из-за более мягких требований. Быстродействие ОС РВ полностью за­висит от приложений, но всем ОС РВ присуща предсказуемость, т. е. способность системы откликнуться на событие в течение определенного ограниченного времени. При выборе той или иной ОС РВ все более важным моментом становится среда разработки прикладных программ.

Кроме того, важной характеристикой для пользователя ОС РВ является ее конфигурация. Выделим следующие основные конфигурации:

  1. Встроенные промышленные системы.

  2. Промышленные системы с дисковой поддержкой.

  3. Промышленные системы с сетевой поддержкой.

  4. Однопользовательские системы разработки.

  5. Однопользовательские системы разработки с дисковой поддержкой.

  6. Небольшие многопользовательские системы.

  7. Большие многопользовательские системы.

При анализе характеристик конкретных ОС РВ следует учесть,что любая операционная система реализуется на конкретном j процессоре, а процессорная плата может быть выполнена в раз­личных стандартах, что естественно сказывается на характерис­тиках ОС РВ.

В настоящее время наиболее распространенными ОС РВ яв­ляются VRTX, Сехес, pSOS+, OS-9, VxWorks, iRMX, pDOS, QNX, HP RT. Рассматривая их основные характеристики, надо отметить, что при своих отличиях все они обладают основным набором возможностей к которым относятся:

-многозадачность с управлением задачами,

-управление памятью,

-синхронизация

-процессов,

-межзадачный обмен,

-ввод-вывод.

Операционная система VRTX разработана фирмой Ready Systems (США) и нашла применение в области автоматизации производства, коммуникации, управления роботами и аэрокос­мических исследований. Крупнейшими пользователями систе­мы являются фирмы AT&T, NASA, Motorola, IBM и другие. Распространяется в двух вариантах: VRTX — ядро реального вре­мени и VTRXvelocity — ядро реального времени плюс средства разработки.

Это UNIX-подобная система "жесткого" реального време­ни, которая может быть любой из рассмотренных возможных конфигураций. VRTXvelocity реализована на следующих систе­мах (кросс-среда): SUN 3, SUN 4, DECstation, VAX/VMS, HP 9000/400, PC/AT 80386. Система поддерживает стандарты TCP/ IP, NFS и сети Ethernet. Используется на процессорах Motorola 680x0, 68302, 68332; Intel 8086, 80186, 80286, 80386; Philips 68070, 93Cxxx; SUN SPARK; MIPS R3000; INMOS Transputer T4, T8.

Операционная система Cexec разработана фирмой JMI Software Consultants (США) и нашла применение в области уп­равления радарами, кардиографическими установками, лазер­ными принтерами, лабораторными системами регистрации дан­ных и других. Крупнейшими пользователями системы являются: IBM, Boeing, Lockheed, Xerox, DEC и другие. Система не требу­ет специальной кросс-среды. Задача кросс — компилируется, а затем строится с переносимой библиотекой (Cexecutive).

Cexec фактически является ядром реального времени, от­носится к системам "жесткого" реального времени и может быть первой и второй из рассмотренных конфигураций. Кросс-средой может служить любая система, поддерживающая стандартные С-компиляторы. Используется на процессорах: Motorola 680x0, 68332, 68008, 68009; Intel 8080, 8085, 8086, 8088, 80286, 80386, i860, i960; Zilog Z80; Hitachi 64180; Texas Instruments TMS 34010; DEC LSI-11, National Semiconductor Series 32000; MIPS R2000, R3000; AMD 29000; SUN SPARC.

Операционная система pSOS+ разработана фирмой Software Component Group (США) и нашла применение в области аэро-космических исследований, телекоммуникации, военной элек­троники, автоматизации производства и других.

Это UNIX-подобная система "жесткого" реального време­ни и может быть любой из рассмотренных конфигураций. Кросс- среда реализована на PC/AT, SUN 3, SUN 4, VAX, HP 9000, Apollo Workstation. Есть пакет CASE-средств для SUN 3, SUN 4 и отладчик языков высокого уровня для PC/AT, SUN 3, SUN 4, VAX/VMS, HP 9000, Apollo Workstation. Используется на про­цессорах: Motorola 680x0; Intel 80x86, i960; AMD 29000. Поддер­живает стандарты TCP/IP, NFS, X Windows, ANSI С-компиля- тор BSD 4.3 UNIX socket и сети Ethernet.

Операционная система GS-9/9000 разработана фирмой Microware System Corporation (США) и нашла применение в области систем связи, управления роботами, бортовых сис­тем, приборостроения, автоматизации производства, обработ­ки данных, образования, графических систем и других. Круп­нейшими пользователями системы являются: AT&T, NASA, Motorola, IBM, CERN, Boeing, Philips, Hitachi, Samsung, Sharp, Bruker, Thompson, Sony и другие.

Это UNIX-подобная система "мягкого" реального времени и может быть с первой по шестую из рассмотренных конфигу­раций. Кросс-среда реализована на PC/AT, SUN 3, SUN 4, VAX, HP 9000/300, Apollo/Domain, Silicon Graphics. Кроме того, раз­работка программ может вестись в рамках самой системы (Self- hosted-система) Используется на процессорах: Motorola 6809, 680x0, 683хх; Intel 80386, 80486. Поддерживает стандарты TCP/IP, NFS, X Windows, BSD 4.3 UNIX socket, X Motif, Kernighan & Ritchi С-компилятор, RPC и сети Ethernet.

Операционная система VxWorks разработана фирмой Wind River Systems (США) и нашла применение в области аэрокос­мических исследований, в телекоммуникации, управлении про­цессами, научныех исследованиях, медицинском приборост­роении, финансовом сервисе и других. Крупнейшими пользователями системы являются IBM, Boeing, Rockwell, Mitsubishi, British Aerospace, Xerox и другие.Это UNIX-подобная система "жесткого" реального време­ни и может быть любой из рассмотренных конфигураций. Кросс- среда реализована на PC/AT, SUN, HP 9000, DEC, FORCE.

Используется на процессорах: Motorola 680x0; Intel i960; SUN SPARC; MIPS RxOOO. Поддерживает стандарты POSIX, TCP/IP, NFS, X Windows, ANSI C-компилятор, RPC и сети Ethernet.

Операционная система iRMX разработана фирмой Intel Corporation (США) и нашит применение в области авиастроения, телекоммуникации, регистрации и анализа данных, автоматиза ции производства, управления финансами, спутниковой связи и других. Жестко ориентирована на шинные архитектуры MULTIbus 1/11 и стандартные компьютеры семейства IBM PC и PS/2.

Это UNIX-подобная система "мягкого" реального времени и может быть любой из рассмотренных конфигураций. Факти­чески iRMX — это семейство систем iRMX 1/11/111. При этом iRMX 1 — это базовая система для 16-битных процессоров, iRMX 11 — это развитие базовой системы с учетом особеннос­тей процессора 80286, a iRMX 111 — это развитие системы с адаптацией для 32-битных процессоров. Кроме того, в семей­ство входит 32-битное ядро реального времени для процессоров 80386/486. Кросс-среда реализована в MS-DOS и UNIX по сис­теме self-hosted. Используется на процессорах: Intel 8086, 8088, 80188,80x86 (iRMX 1); Intel 80286, 80386,80486 (iRMXll); Intel 80386, 80486 (iRMX 111). Поддерживает стандарт POSIX и сети Ethernet.

Операционная система pDOS разработана фирмой Eyring Corporation (США) и нашла применение в области телеком­муникации, приборостроения, автоматизации производства и друг их.

Это система "мягкого" реального времени и может быть с первой по шестую из рассмотренных конфигураций. Кросс- среда реализована в UNIX, VMS, MS-DOS, SUN OS. Кроме того, разработка прикладных программ может вестись в рамках самой системы (self-hosted). Используется на процессорах: Motorola 68000, 68010, 68020,68030. Поддерживает стандарты TCP/IP, POSIX, ANSI С-компилятор и сети Ethernet. Одна из наиболее популярных версий Vmeprorn — предназначена для VME.

Операционная система QNX разработана фирмой Quantum Software System (Канада) и нашла применение в области управ­ления производством, роботами, процессами контроля окружа­ющей среды и других.

Это система "мягкого" реального времени и может быть со второй по седьмую из рассмотренных конфигураций. Разработка ■ прикладных программ может вестись в рамках самой системы (self-hosted) Используется на процессорах: Intel 80286, 80386, ! 80486; PS/2, HP-Vectra. Поддерживает стандарты TCP/IP, POSIX и сети Ethernet.

Операционная система HP-RT (HP-VX9.0) является разви­тием LvnxOS версии 2.1 фирмы Lynx Real-time Systems, Inc. (США) и нашла применение в области научных исследований, телекоммуникации, приборостроения, автоматизации производ­ства и других.

Это UNIX-подобная система "мягкого" реального времени и может быть любой из рассмотренных конфигураций. Кросс- среда реализована в UNI, возможен режим self-hosted. Исполь­зуется на процессорах HP-PA RISC7100. Поддерживает стандар­ты TCP/IP, POSIX, X Windows, NFS, ANSI С-компилятор j и сети Ethernet.

В России есть официальные дистрибуторы фирм-разработ­чиков ОС РВ, например АО "RTSoft" в г. Черноголовка, дистри­бутор фирмы "Microware System Corporation" — разработчика OS- 9, OS-9000, или AVD Systems г. Москва, дистрибутор фирмы Wind River Systems — разработчика VxWorks, и др.

Рассмотрим основные аспекты, касающиеся отличий совре­менных и традиционных ОСРВ. К этим отличиям, прежде все­го, следует отнести модели межпроцессного взаимодействия, распределение памяти, обработку ошибок, возможность реали­зации многопроцессорных систем и систем цифровой обработ­ки сигналов, автоматический контроль для обеспечения высо­кой готовности и безопасности и т. д.

В традиционных ОСРВ для межпроцессного взаимодействия (IPC — Inter-Process communication) используется, как прави­ло, модель "разделяемой памяти" (share memory). Большинству разработчиков хорошо известны трудности, связанные с управ­лением межпроцессным взаимодействием такого типа, а также опасность сбоя системы, возникающая в том случае, когда один процесс "приватизирует" доступ к данным или когда один про­цесс повреждает данные, жизненно важные для другого про- I цесса. Проблема обеспечения стабильности работы системы через разделяемую память вполне разрешима, однако в общем случае такая задача требует весьма аккуратного управ­ления разработкой и сопровождения программного обеспече­ния и достаточно длительного периода выявления ошибок. Пе­речисляя недостатки межпроцессного взаимодействия через разделяемую память, следует упомянуть также о том, что дан­ный метод плохо подходит для распределенных систем и не мо­жет похвастаться высокой степенью совместимости с управле­нием памятью. Работоспособность системы с IPC через разделяемую память достижима и в этих случаях, однако есть способы лучше.

Н апример, в ряде современных ОСРВ модель межпроцесс­ного взаимодействия реализована через "передачу сообщений" (message passing). Согласно этой модели (рис. 2.27), акт взаимо­действия заключается в том, что один процесс посылает друго­му процессу сообщение; при этом может потребоваться лишь четыре системных вызова. Данный подход прост и надежен; про­хождение сообщений в процессе работы системы может легко

отслеживаться, что придает разработке и отладке ПО свободу и непринужденность. Кроме того, прямым следствием межпро­цессного взаимодействия через передачу сообщений является возможность естественным образом распределять приложение между многочисленными центральными и DSP-процессорами. Еще одним приятным моментом является то, что приложение может быть разделено на несколько задач, создаваемых разны­ми разработчиками.

Однако пользователи традиционных ОСРВ могут заявить, что IPC через передачу сообщений не отличается высокой ско ­ростью, и при определенных обстоятельствах это утверждение будет соответствовать действительности» Тем не менее, как по­казывает практика, несколько пониженная скорость межпро­цессного взаимодействия такого типа весьма редко сказывается на общей производительности системы и вряд ли может слу­жить основанием для заслуживающих внимание критических аргументов.

В традиционных ОСРВ для динамического распределения памяти используется механизм, подобный вызову функции malloc в языке Си. При выполнении этой команды исследуется весь массив памяти в поисках свободной области достаточно боль­шого размера. У данного метода есть два недостатка. Первый — это то, что "глубина" таких поисков (а следовательно, и затра­чиваемое на распределение памяти время) будет меняться в за­висимости от того, как долго работает система. Второй недоста­ток связан с проблемой возникновения фрагментации: вы можете иметь 50 кбайт свободной памяти, но эти 50 кбайт могут быть в виде непригодных для использования 4-килобайтных кусоч­ков. Многие специалисты решают эту проблему при помощи хит­роумных программ и процедур собственного изготовления, од­нако такие методы могут нелучшим образом сказаться на характеристиках реального времени.

Разработчики современных ОСРВ предпочитают другой спо­соб. В случае операционной системы OSE, например, програм­мист должен точно определить объем "пула" используемой па­мяти. Он также должен задать восемь размеров блоков памяти, которые могут быть выделены ему из этого "пула". В дальнейшем при возникновении потребности в памяти ОСРВ будет брать из "пула" кусок наиболее подходящего размера из этих восьми. Когда блок памяти перестает быть нужным, он отходит в связанный список свободных буферов. Преимущества такого решения со­стоят в том, что степень фрагментации памяти равна нулю, вре­мя распределения памяти строго детерминировано, а незаня­тый блок всегда находится либо в связанном списке, либо в начале области свободной памяти.

В классических ОСРВ, как правило, используется десятиле­тиями установленный порядок обработки ошибок (рис. 2.28). Для выявления ошибок по совершении системного вызова проверке подвергается каждое возвращаемое значение. Отсюда немедлен­но следует, что всю полноту ответственности за надежность ра­боты системы несет каждый участвующий в проекте специалист. Дополнительным неудобством является то, что значительная часть вашего приложения будет состоять из кодов ошибок, из- за чего оно увеличивается в размерах, его труднее документиро­вать и отлаживать.

В большинстве современных ОСРВ обработчики ошибок свя­заны с системными вызовами. Если начинает исполняться сле­дующая строка кода, значит, все в порядке. Если же происходит ошибка, в дело вступает "центральный обработчик ошибок". Например, в операционной системе OSE обработка ошибок ве­дется на трех уровнях: уровне процесса, уровне блока и уровне системы (рис. 2.28), что дает высокую степень гибкости в выбо­ре разрешения связанных с ошибками проблем. Такой механизм

обработки ошибок не только намного надежнее, он позволяет создавать более компактный и простой программный код.

Известно, что большинство традиционных ОСРВ разраба­тывались с прицелом на единственный центральный процес­сор, установленный на единственной плате. В наши дни все чаще требуется поддержка многопроцессорных систем, в том числе с поддержкой процессоров цифровой обработки сигналов (DSP- процессоры). В современной операционной системе OSE обра­ботчик связей (link handler) позволяет естественным образом распределять приложение по многочисленным центральным и/или DSP-процессорам. Он действует на манер почтальона, беря сообщение от одного процесса, работающего на одном процес­соре, и вручая его другому процессу, исполняющемуся на дру­гом центральном или DSP-процессоре.

Сейчас ОСРВ все чаще применяются в критичных к без­опасности приложениях и в системах с высоким коэффициентом готовности, и большинство поставщиков операционных систем реального времени ищут способы решения возникающих в этой связи проблем. В случае операционной системы OSE решением являются два особых системных вызова: HUNT и ATTACH. Вы­зов HUNT позволяет ядру вести поиск процесса по имени. Вы­зов ATTACH сообщает процессу, что ядро проявляет к этому процессу "интерес". Это означает, что если с процессом что- нибудь будет "не так", ядро будет обязательно об этом проин­формировано. Используя эти системные вызовы, разработчик может реализовать "горячую" замену и дублирование (резерви­рование) аппаратных средств. При отказе или удалении какого- либо устройства происходит уведомление об этом ядра, после чего ядро может провести поиск (hunt) второго подобного уст­ройства и начать работать (attach) с этим устройством в том случае, если последнее окажется работоспособным.

Рассмотрим более подробно требования к ОСРВ со стороны современных многопроцессорных систем, в том числе с поддерж­кой DSP-процессоров, а также инструментарий, позволяющий быстро и с наилучшими характеристиками создавать соответ­ствующие встроенные системы.

Редко бывает так, что на начальном этапе проектирования встраиваемого приложения уже существуют необходимые аппаСтремление быть на рынке первым приводит к тому, что зачастую при запуске проекта не только оборудова­ние, но даже микросхемы центральных и DSP-процессоров еще находятся на стадии разработки. Чтобы занятые в проекте спе­циалисты могли как можно раньше приступить к разработке программных кодов, алгоритмов, протокольных стеков, неко­торые поставщики ОСРВ предлагают "симуляторы ОСРВ".

Так, по принципу своей работы инструментальные сред­ства Soft Kernel и Soft Environment, созданные компанией OSE, напоминают пакет, служащий буфером между операционной системой и тем или иным аппаратным модулем (BSP — board support package), только в данном случае в роли такого модуля выступает интерфейс 32-разрядных Windows-приложений (Win32 Api). Иными словами, инструмент Soft Environment способен, с одной стороны, использовать функциональные возможности хост-машины и, с другой стороны, взаимодействовать с вне­шним миром. Запустив одновременно несколько инструментов Soft Kernel на одной хост-машине, можно создать модель сете­вой или многопроцессорной среды и вести разработку соответ­ствующего проекта. В одном крупном телекоммуникационном проекте было занято более 650 специалистов, из которых около 450 работали в среде Soft Kernel Environment. Подобные статис­тические данные показывают достоинства инструмента Soft Kernel, отчетливо проявляющиеся в условиях сегодняшней ры­ночной гонки.В некоторых ОСРВ разработчику предлагается возможность динамической загрузки кода в целевую машину, что позволяет сократить число циклов перекомпиляции-перезагрузки и сэко­номить много затрачиваемого на разработку времени. Идея со­стоит в том, что вы можете создать фрагмент программы, от­компилировать его, а затем послать в работающую целевую машину. Если фрагмент работает не вполне корректно, вы мо­дифицируете его, затем повторно компилируете, вновь загру­жаете в целевую машину и т. д. Проявляя известную аккурат­ность, разработку кода могут вести несколько специалистов с использованием одной и той же подключенной к сети целе­вой машины. Загрузчик программ полезен не только при разра­ботке современных встраиваемых систем; он может сыграть памяти нередко является решающим моментом, как из коммер­ческих соображений, так и с точки зрения рабочих характерис­тик продукта.

Разработанный для операционной системы OSE инструмент Memory Profiler (профилировщик памяти) предлагает исчер­пывающую динамическую информацию об использовании па­мяти каждой конкретной задачей, о прохождении сигналов, а также статистическую информацию и иные данные, которые могут помочь оптимизировать использование памяти.

Некоторые поставщики ОСРВ предлагают средства "трасси­ровки событий", способные динамически отображать работаю ­щие задачи и межпроцессные взаимодействия. Регистрация мо­жет производиться через определенные интервалы времени (например, через 50 мкс), в случае наступления определенных событий, по прерываниям и т. п. Создаваемая такими инстру­ментами графическая картина происходящего может служить подспорьем в понимании работы сложного приложения.

Средство трассировки для операционной системы OSE на­зывается Evact Handler (event and action handler — обработчик событий и действий). Данный инструмент позволяет не только осуществлять динамический мониторинг описанного выше типа, но и вводить информацию в работающую систему.

Теперь рассмотрим существующие возможности УВМ.

В настоящий момент общепризнано, что большой резерв в повышении производительности систем возможен и без повы­шения частоты ядра процессора. Возможности по обработке ин­формационных потоков архитектуры стандартных систем не со­ответствуют возросшей тактовой частоте процессоров. Необходимы изменения всех элементов компьютера. Например, много лет использовалась шина PCI (Peripheral Component Interconnect), ее пропускной способности вполне хватало для большинства устройств. С увеличением требований при работе с графическими картами PCI модернизировали, улучшив возмож­ности работы в одном направлении — появился интерфейс AGP (Accelerated Graphics Port). Но пропускной способности такого варианта PCI скоро стало недостаточно, так как она (132 Мб/с) разделялась между всеми PCI-слотами. С целью решения про­блемы неполного использования возможностей исполнительных устройств за счет ограничений шины была разработана после ­довательная шина PCI-Express, работающая по принципу "точ­ка-точка". На физическом уровне шина образована двумя пара­ми проводников: одна для передачи данных, вторая — для приема. Такое построение позволяет всем подключенным устройствам работать на полной скорости и не делить между собой способ­ности шины. Один канал PCI-Express обеспечивает пропускную способность 256 Мб/с в каждую сторону. Таким образом, с учетом полного дуплекса, пропускная способность одного пос­ледовательного подключения PCI-Express составляет 512 Мб/с. Шина PCI-Express разработана с расчетом на широкое масшта­бирование Например, пропускная способность PCI-Express х16 в одном направлении равна 4 Гб/с, а в обоих — 8 Гб/с. Шина PCI-Express имеет солидное преимущество перед AGP, однако загрузка и полное использование ее возможностей осуществля­ются благодаря ее программному обеспечению.

Еще одно нововведение — это DDR2, новый стандарт па­мяти, пришедший на смену DDR SDRAM. В нем используется все та же технология DDR (Double Data Rate) — передача дан­ных по фронту и спаду синхросигнала, за счет чего скорость передачи данных вдвое больше частоты. Основная особенность DDR2 — возможность выборки четырех блоков данных за такт, используются более быстрые буферы ввода-вывода, увеличилась ширина шины, которая связывает эти буферы с банками памя­ти. В DDR2 появилась функция внутричипового терминирова­ния сигнала (on-die termination schemes) — резисторы, гасящие отраженные сигналы, располагаются в чипах памяти, а не на материнских платах, как раньше. Это улучшает характеристики прохождения сигналов по шине памяти. Понизилось энергопот­ребление. Стандарт DDR2 предусматривает максимальную ем­кость модулей памяти до 4 Гбайт.

важнейшую роль при обслуживании системы с высоким коэффи­циентом готовности, отключение которой крайне нежелательно.

Пожалуй, одной из наиболее серьезных проблем, с которой имеют дело разработчики программного обеспечения, является тот факт, что создаваемые ими программы работают где-то глу­боко внутри небольшого черного кусочка из кремния и пласти­ка. Специалисты старой закалки могут припомнить, что в бы­лые времена для получения оперативной информации о работе программы приходилось использовать внешние светодиоды, за­жигающиеся на разных стадиях исполнения кода.

В наши дни дела обстоят куда лучше. Многие поставщики ОСРВ предлагают различные работающие на хост-машине сред­ства просмотра. Эти средства в большинстве случаев смогут по­казать вам все запущенные процессы, а также приоритет, со­стояние и другие важнейшие характеристики каждого процесса в отдельности. Для операционной системы OSE такого рода ин­струмент называется Illuminator.

В процессе разработки и отладки предназначенного для встра­иваемой системы программного обеспечения необходимо иметь точные данные относительно загрузки центрального процессо­ра, поскольку наличие подобной информации способствует оп­тимизации производительности программного кода. В комплек­тах инструментальных средств современных ОСРВ имеются такие профилировщики. Средство CPU Profiler (профилировщик цен­трального процессора) для операционной системы OSE позво­ляет выбрать одну или несколько определенных задач и полу­чить ясную картину того, насколько эти задачи загружают центральный процессор, а также того, как влияет эта загрузка на работу системы в целом. Разумеется, качество подобной ин­формации будет зависеть от скорости связи между хостом и це­левой машиной. Компьютерные инженеры, говоря о характеристиках памя­ти, в разных ситуациях имеют в виду разные вещи. Для глубоко встроенного автомобильного микроконтроллера 100 кбайт — это очень большой объем памяти, для мобильного телефона может оказаться недостаточным и 2 Мбайт, а прикладное ПО регист­рации данных может с трудом уместиться 1 Гбайте. И все же каково бы ни было приложение, оптимальное использование. Для организации работы с дисками разработана Matrix Storage Technology, известная как Matrix RAID. От классических RAID- массивов Matrix RAID отличается тем, что для двух жестких дис­ков с интерфейсом SerialATA есть возможность разделить общее дисковое пространство на две части, причем объем каждой из них определяется пользователем, независимо от объемов дис­ков. Одна часть функционирует как скоростной RAID уровня О, другая — как надежный RAID-массив уровня 1. Налицо и ско­рость, и возможность резервного копирования на случай сбоя» Matrix RAID, в отличие от обычных методов организации мас­сивов хранения данных, интегрирована в чипсет и не является программно-независимым,, Возможно подключение к Matrix RAID и третьего физического диска, который может быть задейство­ван для репликации данных с RAID 1 в случае отказа какого- либо из соответствующих дисков. Сейчас Matrix RAID подразу­мевает наличие четырехпортового контроллера SATA RAID для создания Matrix RAID — массива, RAID BIOS ROM — интегри­рованной в системный BIOS части, отвечающей за создание, именование и удаление массивов, Intel RAID Migration Technology — технологии, позволяющей производить апгрейд подсистемы хранения данных до Matrix RAID, интерфейса SerialATA AHCI с поддержкой NCQ и горячего подключения, полного программного управление массивами Matrix RAID.

Производительность "нулевой компоненты" Matrix RAID весьма высока, a Matrix RAID 1 выше, чем у массива из IDE- дисков.

Одно из реальных решений по повышению производитель­ности лежит в плоскости изменения архитектуры процессоров, внедрения многопоточной обработки. При обычной организа­ции работы процессор обрабатывает потоки команд и данных в соответствии с инструкциями счетчика команд (Program Counter, PC), который указывает на место в памяти, где они хранятся. Потоки могут чередоваться, прерывать друг друга, при этом процессор запоминает место остановки каждого процесса и при необходимости продолжает его. Но существует ограниче­ние при работе процессора — в каждую единицу времени он выполняет лишь один поток.

Способность распределить выполнение нескольких пото­ков по ресурсам компьютера часто называют многопоточнос- тью. При этом и операционная система, и приложения должны поддерживать многопоточность для максимально эффективно­го использования ресурсов. Простой способ организации мно- гопоточности на физическом уровне — использование несколь­ких процессоров, когда один процессор в каждый момент времени выполняет один поток.

Фирма Intel предложила другой вариант — Hyper-Threading (гиперпоточную обработку сообщений), обеспечивающую од­новременную многогюточность на одном ядре. У Hyper-Threading (НТ) есть недостатки, однако она не требует усложнения тех­нологии производства чипов и обходится дешевле, чем приме ­нение в процессорах двух физических ядер, что часто является решающим фактором. В Hyper-Threading используется тот факт, что современные процессоры включают в себя несколько ис­полнительных устройств — устройства ALU, устройства для ра­боты с плавающей запятой, устройства загрузки и хранения. Например, в Pentium 4 имеется три целочисленных устройства, причем два из них способны работать с двойной скоростью — выполнять по две микрооперации за такт. То есть потенциально любое из двух целочисленных устройств Pentium 4 могло бы выполнить две различные операции за такт одновременно. Но потребности обычных программ не требуют загрузки сразу всех исполнительных устройств. Обычно они или обходятся целочис­ленными вычислениями, операциями загрузки и хранения дан­ных, либо загружают работой устройства для операций с плава­ющей точкой. В соответствии с данными Intel, большинство программ одновременно используют не более 35 % исполнитель­ных устройств процессора PentiumПоскольку процессор способен занять сразу несколько па­раллельных исполнительных устройств, технология Hyper- Threading направлена на организацию параллелизма на уровне инструкций (Instruction Level Parallelism-ILP), когда одновре­менно выполняются сразу нескольких инструкций. При этом один физический процессор представляется операционной си­стеме как два логических процессора, и операционная система не видит разницы между одним процессором или двумя обыч­ными процессорами. В обоих случаях операционная система на­правляет потоки как на двухпроцессорную систему. Далее все вопросы решаются на аппаратном уровне. В процессоре с Hyper- Threading каждый логический процессор имеет свой собствен­ный набор регистров. Эффективность Hyper-Threading сильно зависит от вида нагрузки на PC, и недостатки технологии в том, что реально используется один процессор. В случае, если на устройство пришло сразу два схожих потока, например:

из операций по загрузке/сохранению, попытка их выполнения приводит к конфликту, и вместо ускоренного параллельного выполнения потоков процессор выполняет их даже медленнее5 чем без Hyper-Threading. С целью решения этой проблемы вве­дена инструкция HALT, которая приостанавливает работу од­ного из логических процессоров в случае приложений, кото­рые проигрывают от включения Hyper-Threading, и обеспечивает производительность однопроцессорного варианта. Затем, когда приложение сочтет, что от Hyper-Threading оно выиграет в производительности, включается второй логический процес­сор. Прирост в производительности от использования Hyper- Threading наблюдается в серверных приложениях из-за разно­образия посылаемых процессору операций. Сервер баз данных, использующих транзакции, может работать на 20—30 % быст­рее при включенной опции Hyper-Threading. Однако не все опе­рационные системы способны адекватно работать с логичес­кими процессорами, то есть корректно поддерживать технологию Hyper-Threading. Для максимально эффективного использования Hyper-Threading необходимо программное обес­печение, использующее все его преимущества.

Уже сейчас эффективность новых архитектурных решений можно видеть на примере процессора Intel Pentium 4 Extreme Edition 3.46 ГГц. Основной рост производительности процессо­ра достигнут за счет технологией НТ, за счет применения быс­трой FSB в 1066 МГц, применения шины PCI Express.

Другим направлением, кардинально меняющим стереотип, что скорость работы определяется частотой, связан с перено­сом внимания компаний на многоядерные процессоры и архи­тектуры систем. Развитие технологии полупроводникового производства, уменьшение размеров элементов и снижение их тепловыделения открывают возможности организации реальной многопроцессорности за счет создания других ядер на базе од­ного чипа. Так как многоядерные процессоры обеспечивают сим­метричную мультипроцессорную обработку данных на одном кристалле, при организации многопоточной обработки инфор­мации это ведет к повышению производительности системы в целом. Двухъядерный процессор, имеющий два ядра на одной подложке, при одинаковой с одноядерным чипом производи­тельности, работает на значительно более низкой частоте, мень­ше потребляет и выделяет энергии.

Считается, что будущее вычислительной техники — за рас­пределенной обработкой данных в сетях. Поэтому многопоточ­ная архитектура процессоров будет в большой степени соответ­ствовать этим потребностям. Фирмы Sun Microsystems и IBM уже выпустили подобные процессоры для серверного применения. Компания AMD также завершила разработку нового двухъядер- ного процессора, модифицированного как Athlon 64 (Opteron). Он имеет интегрированные в 64-разрядные процессоры контрол­лер памяти и шину Hyper Transport, что теоретически позволя ­ет добиться от двухъядерного процессора производительности, аналогичной производительности двух раздельных процессоров, объединенных в рамках единой системы. В двухъядерных процес­сорах используется общий контроллер памяти, что разрешает конфликт интересов и улучшает пропускную способность сис­темы. В двухъядерной архитектуре AMD каждое процессорное ядро использует собственную кэш-память второго уровня. Именно поэтому встроенный в процессоры собственный контроллер памяти обусловливает резкий рост производительности, недо­ступный при технологии Hyper-Threading.

Для межъядерных связей используется шина Hyper Transport с пиковой скоростью обмена данными 6,4 Гбайт/с на частоте 800 МГц. Позднее планируется использовать Hyper Transport с большей пропускной способностью.

Компания Intel, понимая, что "виртуальная двухъядерность" за счет технологии Hyper-Threading не может противостоять ре­альной многоядерности, разработала 64-разрядный чип с кодо­вым названием Montecito. Помимо двухъядерности, Montecito будет обладать и мношпоточностыо, т. е. операционная система будет видеть единственный процессор как четыре логических. Количе­ство транзисторов на кристалле Montecito — 1,72 млрд, что объяс­няется в первую очередь объемом кэш-памяти третьего уровня — 24 Мбайт. Объем кэш-памяти второго уровня у Montecito соста­вит 1,25 Мбайт (256 кбайт — для данных, 1 Мбайт — инструк­ции), а первого уровня — 64 кбайт (по 32 кбайт для данных и инструкций). Предусмотрены и так называемые буферы про­махов, контролирующие работу кэш-памяти второго и третьего уровней. Повышение производительность Montecito достигается за счет большого объем кэш-памяти, высокой тактовой частотой в сочетании с мношядерностью, многопоточной обработкой и более совершенной технологией изготовления.

В этих процессорах применяется новая технология внутрен­ней "распределительной" (arbiter) шины, предназначенной для управления двумя и более процессорными ядрами с пропускной способностью до 6,4 Гбайт/с и производительностью до 400 млн транзакций в секунду. В новом процессоре используются техноло­гии Silvervale (серверный вариант технологии виртуализации, позволяющей процессору поддерживать на аппаратном уровне одновременную работу нескольких операционных систем), Pellston (повышение надежности кэш-памяти за счет отключения неисп­равных сегментов), Foxton (динамическое переключение такто­вой частоты и рабочего напряжения в зависимости от вычисли­тельной нагрузки). Схема арбитража в Montecito реализуется при помощи так называемого snoop-контроллера, отслеживающего выполнение инструкций в обоих ядрах. Механизм под названием Dynamic Thread Switching (динамическое переключение потоков) способен, как утверждают в Intel, фиксировать обработку опера­ций, связанных с длительными задержками, и инициировать пе­реход к обработке соседнего потока инструкций. Планируется, что за Montecito последует процессор Tanglewood, который будет иметь более двух ядер с возможностью установки до 6 Мбайт кэша и пропускной способностью системной шины 6,4 Гбайт/с.

Прогресс в области разработки компьютеров столь стреми­телен, что любой обзор текущих технических решений устаре­вает к моменту его опубликования. Однако сейчас есть основа­ния предполагать, что описанные технологии в том или ином виде будут развиваться всеми фирмами — разработчиками ком­пьютеров. Направление развития компьютеров будет определяться тремя фундаментальными элементами — вычислительной сис­темой, интерфейсом и инфраструктурой.

Таким образом, в ближайшее время основные усилия будут направлены на всесторонний пересмотр основ проектирования технологических процессов, используемых в производстве чи­пов, их архитектуры и программного обеспечения. Будет увели­чено число функций процессора, добавятся многообразные вы числительные и коммуникационные возможности, возможность прямого взаимодействия со всеми остальными компонентами платформы. Будет осуществлен переход от единственного моно­литного ядра ко множеству ядер на одном кристалле с расши­ренным набором встроенных вычислительных возможностей. Процессоры будут включать специализированные ядра для вы­полнения различных классов вычислений — таких, как графи­ка, алгоритмы распознавания речи и обработка коммуникаци­онных протоколов.

В процессе развития технологии процессоры будут снабже­ны внутрикристальными подсистемами памяти, до единиц ги­габайт и с интеллектуальным микроядром. Кэш-память станет реконфигурируемой, можно будет динамически перераспреде­лять память для разных ядер. Конструирование процессоров и платформ двигается в направлении реконфигурируемой архи­тектуры на уровне кристалла. Процессор будет допускать дина­мическую реконфигурацию ядер, межкомпонентных соедине­ний и кэш-памяти, чтобы обеспечить соответствие аппаратных устройств многообразным и изменяющимся потребностям. Раз­витие архитектуры будет вестись на основе ряда технологий, ведущих к росту производительности — многопроцессорной об­работки на уровне кристалла (СМР), повышению уровня па­раллелизма.

Процессор будет активизировать только те ядра, которые необходимы для выполнения текущей задачи, тогда как осталь­ные ядра будут отключены. Это позволяет кристаллу потреблять адекватное задаче количество энергии, получить большой выиг­рыш в скорости, существенную экономию места, сократить энер­гопотребление, улучшить охлаждение.

Разрабатывается реконфигурируемая встроенная радиоархи­тектура, которая позволит процессору динамически перестраи­ваться для работы в различных сетевых беспроводных средах (та­ких, как 802.11b, 802.11а и W-CDMA).Рассматривая производительность УВМ, можно отметить, что основной объем решаемых компьютерами задач сейчас обес­печивается машинами с конфигурацией, содержащей один или несколько процессоров. Для моделирования многофакторных процессов, при применении в сложных контурах управления, их производительности бывает недостаточно. Различные фирмы разрабатывают и выпускают компьютеры повышенной произво­дительности, или, иначе, суперкомпьютеры. Как правило, они строятся на серийно выпускаемых процессорах, и повышение мощности достигается за счет технических решений, связанных с архитектурой таких систем. Понятно, что предел быстродей­ствия при решении задачи с помощью последовательных вычис­лений не может превысить технические ограничения, связанные с достижимой рабочей частотой процессоров (сейчас несколько гигагерц). Поэтому практически только совокупность алгоритмов, позволяющих организовать и использовать параллельные вычис ­ления, и система, организующая параллельную работу процессо­ров, составляет понятие суперкомпьютер. Разработка супер – компьтеров - сложное и престижное дело, поэтому фирмы- разработчики постоянно оценивают свои достижения. Данные на конец 2005 года по первой десятке мировых суперкомпьютеров, введенных в эксплуатацию, приведены в табл. 2.2 (для примера п риведены данные и для последнего, 500-го места).

Суперкомпьютер, занимающий первое место в списке на­ходящихся в эксплуатации, содержит 32 768 процессоров PowerPC с рабочей частотой 0,7 ГГц и при этом имеет расчет­ную производительность 91750 Гфлоп (91,75 Тфлоп). Однако этот компьютер поставил мировой рекорд быстродействия и показал результат 135,5 Тфлопа, Но это не предел для разрабо­танной конфигурации. При ее расширении теоретически быст­родействие Blue Gene/L может составить примерно 360 Тфлоп, но на него можно будет выйти только после ввода в строй до­полнительных стоек с микропроцессорами. Машина займет около 60 гигантских шкафов — при этом, как уверяют инженеры, впер­вые в истории отрасли удастся решить проблему перегрева ЭВМ.

Другие, входящие в число наиболее мощных компьютеров, имеют не менее впечатляющие характеристики.

Надо отметить, что не каждая задача может быть так распа­раллелена, чтобы обеспечить синхронную работу всех процес­соров для достижения максимальной производительности сис­темы. С целью повышения эффективности работы системы, в том числе и с точки зрения стоимости, предлагаются различ­ные технические решения, позволяющие подобрать архитекту­ру суперкомпьютера к классу решаемых задач.

Например, известная фирма Cray, специализирующаяся на изготовлении суперкомпьютеров, поставляет систему Cray XI — масштабируемый векторный суперкомпьютер. В нем использу­ются 16-конвейерные векторные процессоры с пиковой произ­водительностью 12,8 Гфлоп. Тактовая частота процессоров — 800 МГц. В максимальной конфигурации применяется до 4096 процессоров. Каждый процессор может содержать до 16 Гбайт памяти, т. е. система может содержать до 64Тбайт памяти. Вся память глобально адресуема, максимальная скорость обмена (че­рез 32 порта) с оперативной памятью составляет 34.1 Гбайт/с. на процессор, скорость обмена с кэш-памятью 76.8 Гбайт/с. на процессор. Используется операционная система UNICQS/mp. Реализованы компиляторы с языков Фортран и Си++, включа­ющие возможности автоматической векторизации и распарал­леливания, специальные оптимизированные библиотеки, интер­активный отладчик и средства для анализа производительности. Приложения могут писаться с использованием MPI, ОрепМР, Co-array Fortran и Unified Parallel С (UPC).

Другой производимый компьютер той же фирмы Cray ТЗЕ — масштабируемая матрично-параллельная система, состоит из процессорных элементов, которые включают в себя процессор, блок памяти и устройство сопряжения с сетью. Используются процессоры Alpha 21164 (EV5) с тактовой частотой до 675 МГц, пиковая производительность которых составляет 1,35 Тфлоп. Про­цессорный элемент располагает своей локальной памятью до 2 Гбайт. Системы ТЗЕ масштабируются до 2048 процессорных элементов, связанных сетью GigaRing с топологией трехмерно­го тора и двунаправленными каналами со скоростью обменов до 500 Мбайт/с в каждом направлении. Используется операцион­ная система UNICOS/mk. Поддерживается явное параллельное программирование с помощью пакета Message Passing Toolkit (MPT) — реализации интерфейсов передачи сообщений MPI, МР1-2 и PVM, библиотека Shmem. Для Фортран-программ воз­можно также неявное распараллеливание в моделях CRAFT и HPF. Среда разработки включает также набор визуальных средств для анализа и отладки параллельных программ.

Разработанный фирмой Cray суперкомпьютер Cray ХТЗ яв­ляется матрично-параллельным компьютером, с вычислитель­ными узлами, включающими в себя процессор AMD Opteron 2,4 ГГц, локальную память до 8 Гбайт со скоростью обмена 6,4 Гбайт/с., и канал HyperTransport к коммуникационному блоку Cray SeaStar. Коммуникационная технология Cray SeaStar по­зволяет объединить все вычислительные узлы Cray ХТЗ по топо­логии трехмерного тора. Коммуникационная плата Cray SeaStar включает в себя канал HyperTransport, Direct Memory Access (DMA), коммуникационный микропроцессор, interconnect router и управляющий порт. Interconnect router обеспечивает 6 высокоскоростных каналов связи с пиковой пропускной спо­собностью каждого в двунаправленном режиме 7,6 Гбайт/с.

Вычислительные узлы Cray ХТЗ компонуются в стойки (до 96 вычислительных узлов на стойку). Максимальная конфигура­ция содержит 320 стоек, с общим числом 30 508 процессоров, расположенных по трехмерной топологии 40*32*24, с объемом внутренней памяти 239 Тбайт. Потенциальная пиковая произво­дительность при такой конфигурации 147 Система работает под управлением ОС UNICOS/lc, позво­ляющей эффективно объединять до 30000 вычислительных уз­лов. На компьютере устанавливаются компиляторы Fortran 77, 90, 95, C/C++, коммуникационные библиотеки MPI (с под­держкой стандарта MPI 2.0) и SHMEM, а также оптимизиро­ванные версии библиотек BLAS, FFTs, LAPACK, ScaLAPACK Для анализа производительности системы устанав - ливается система Cray Apprentice2 performance analysis tools.

Суперкомпьютер SGI Altix3000 фирмы Silicon Graphics — модульная система с общей памятью, построенная на процес­сорах Intel Itanium II 1.3GHz/L5GHz. Вся система строится из модулей. Вычислительный компонент системы — модуль C-brick, состоящий из 2 -х блоков по 2 процессора, и памяти — до 16 Гбайт на C-brick.. Вся память системы глобально адресуема, аппаратно поддерживается когерентность кэшей. Модули системы соеди­нены с помощью сети NUMAlink, построенной на собственных маршрутизаторах R-bricks. Используется доработанная операци­онная система Linux.

NEC SX-5 фирмы NEC — параллельный векторный супер­компьютер. Каждый узел системы является векторно-конвей- ерным компьютером, объединяющим до 16 индивидуальных векторных процессоров (каждый с пиковой векторной произ­водительностью 8 Гфлоп и скалярной производительностью 500 Мфлоп). Объем памяти каждого узла — до 128 Гбайт, про­изводительность обмена с памятью достигает 1 Тбайт/с. Систе­ма может включать до 128 узлов, обеспечивая совокупную пи­ковую производительность до 8 Тфлоп.

В нашей стране также ведутся исследования в области разработки суперкомпьютеров, и их изготовление.

Первые управляющие вычислительные комплексы (УВК) имели архитектуру "общая шина", которая была заимствована из архитектуры компьютера. Для соединения нескольких функцио­нальных устройств компьютера использовали общую шину (single bus), как показано на рис. 2.29. К этой шине подсоединяются все устройства компьютера. Поскольку за один раз по шине мо­жет пересылаться только одно слово данных, в каждый конк­ретный момент шину могут использовать только два устройства.

Для организации процесса параллельной обработки нескольких запросов используются линии управления шиной. Главными дос­тоинствами архитектуры с общей шиной являются ее низкая сто­имость и гибкость в отношении подключения периферийных уст­ройств.

На рис. 2.30 приведен пример структуры УВК с общей ши­ной, в которой персональная электроння вычислительная ма­шина (ПЭВМ) непосредственно взаимодействует с контролле­ром крейта (КК), осуществляющим управление измерительными, управляющими и другими модулями, вставляемыми в крейг, через измерительную магистраль крейта. При этом геометриче­ские, электрические и другие интерфейсные параметры крейта и модулей строго регламентируются тем или иным стандартом измерительного интерфейса.

УВК, предназначенные для работы в промышленных усло­виях и обеспечивающие как сбор информации от различных дат-

Рис. 2.30. Структура ИВК:

КК — контроллер крейта, ЦАП — цифро-аналоговый преобразователь, ШД — шаговый двигатель, МУШД — модуль управления шаговым двигателем, ОЭИК1 и ОЭИК2 — оптоэлектронные измерительные каналы 1 и 2


Аппаратное обеспечение сети может быть любых фирм. При этом в качестве аппаратуры верхнего и среднего уровня целесооб¬разно применять устройства, построенные на технологии 100VG- AnyLAN с использованием оптоволоконных соединений и соеди¬нений на витой паре. Такая технология позволяет эффективно работать с любыми приложениями от мультимедиа, баз данных клиент-сервер и средств коллективной работы до обработки изоб¬ражений в реальном масштабе времени с производительностью до 100 Мбит/с и управления производственными процессами.

В комплект сетевой аппаратуры обычно входят концентра-торы портов, модульные адаптируемые коммутаторы сегментов, мосты и сетевые адаптеры.

Концентраторы могут быть на 7 или 14 портов, например HP Advance Stack lOOVG-AnyLAN, позволяют строить любые соединения на витой паре и оптоволокне, используя дополни-тельные внутренние модули трансиверов, и работают в сетях Ethernet и/или Token Ring.

Коммутаторы, например HP J3100A Advance Stack Switch 2000, предназначены для повышения производительности и улуч¬шения сегментации сетей, а также являются устройством для уменьшения нагрузки сетевых магистралей и ускорения доступа к серверам.

Мосты, например HP 2867А Advance Stack Bridge MB, RB, обычно представляют собой "обучающиеся" устройства с двумя портами и позволяют повышать производительность сети, бла-годаря удалению ненужного трафика, расширять автономные сети за пределы их топологии, соединять отдельные сети между собой и снабжать дополнительные функции по обеспечению безопасности и устойчивости сети. Кроме того, мосты могут фильтровать и передавать пакеты данных со скоростью носите-ля, что при создании отдельных сегментов увеличивает ресурсы сети за счет изолирования локального трафика и передачи толь-ко пакетов, предназначенных для сегмента по другую сторону моста. При этом мосты не передают поврежденные пакеты, а неисправные мосты автоматически заменяются резервными, что повышает надежность всей сети.

Сетевые адаптеры, например HP J25S5B/J2573A Desk Direct lO/lOOVG PCI/ISA, устанавливаются в рабочие станции или кластерной архитектуры (рис. 2.32) с жизненным циклом в среднем до 16 лет.

Кластерная архитектура при отказе одного процессора очень быстро перераспределяет работу на другие процессоры внутри кластера.

Вычислительные средства УВК могут строиться на разных платформах, но должны обеспечивать возможность работы в со-ставе локальной вычислительной сети (ЛВС) с реализацией фун-кций многоуровневой системы взаимодействия открытых вычис-лительных систем на базе рекомендаций стандартов IEEE. При этом сеть должна обладать такими важными свойствами, как:

1) универсальность, т. е. минимальная зависимость от струк-туры и номенклатуры подключаемого оборудования;

2) открытость, т. е. возможность использования компонен¬тов любых производителей, наиболее полно отвечающих требо-ваниям заказчика;

3) масштабируемость, т. е. возможность расширения систе-мы при внесении минимальных изменений в существующую;

4) гибкость, т. е. возможность изменения конфигурации без существенных затрат;

5) высокая надежность и низкая стоимость изменений и ре-конфигураций.

Рис. 2.32. Структура УВК с кластерной архитектурой

скорость до 1 Мбайт/с; I число узлов без повторителей 236, а с повторителями не ограничено;

максимальное расстояние без повторителей 200 м, а с по-вторителями не ограничено, но при расстоянии 40 м скорость ! передачи 1 Мбайт/с, а при 1 км — 20 кбайт/с; арбитраж — CSMA; тип кабеля — витая пара; размер блока данных -- 8 байт фиксированно; наличие встраиваемых, например в приводы, контроллеров с датчиками, соединителей с шинами PC/ISA и РС/104 и се-мейства модулей удаленного ввода-вывода NANOBOX.

В качестве измерительных и управляющих модулей нижнего уровня принято использовать стандартные модули в интерфейсе VME или VXI Однако число измерительных интерфейсов по- j стоянно растет, появляются все более универсальные и быст- рые, и рекомендовать какой-либо один на все случаи жизни I невозможно. Поэтому нижний уровень содержит наиболее раз- I нородное оборудование, как в части используемых процессо- } ров, так еще в большей степени в части используемых контрол¬леров, крейтов и отдельных модулей.

Первым модульным стандартом измерительного интерфей¬са, нашедшим широкое применение в нашей стране (вначале в крупных ядерных центрах, а затем и во многих институтах и на предприятиях различных отраслей), был стандарт САМАС. К его достоинствам можно отнести то, что новые модификации ИВК в этом стандарте или замена отдельных модулей не требуют прин¬ципиального изменения связей, что соответствует минималь- 1 ным затратам средств и времени. К недостаткам этого стандарта ! следует отнести то, что расширение системы затруднено в связи с требованиями к обеспечению совместимости расширенной части системы с ее прежними версиями, что ограничивает воз¬можность изменения системы. Кроме того, в системе низкая ; скорость обмена данными и неудобный формат данных (24 раз¬ряда), что затрудняет организацию многопроцессорных систем. Поэтому в настоящее время этот стандарт практически не ис-пользуется и такой ведущий производитель микропроцессорной техники, как фирма Intel, ориентируется на стандарты Multibus 11 и Fustbus.

и обеспечивают несколько режимов работы, включая прямой доступ к памяти, автоматическое определение высшей скорости и конфигурации при использовании с концентратором, под¬держивающим режим автоматического согласования. Они име¬ют полную программу настройки и диагностики, гнездо для за-грузчика в ПЗУ для выполнения удаленной загрузки и драйверы для всех основных типов сетей.

Подсистемы каждого уровня, имеют свои специфические особенности, связанные как с особенностями решаемых задач, так и с составом периферийного оборудования. Так, например, если на верхнем уровне основными задачами являются обработ-ка и передача больших потоков информации, а также планиро-вание и выработка решений в условиях неопределенности, и периферийное оборудование здесь в основном составляют кон-центраторы и накопители данных, печатающая и множитель¬ная техника, модемы и другое мультимедийное и сетевое обору-дование, то на нижнем уровне основными являются задачи управления и измерения, а периферийное оборудование в ос-новном составляют управляющие вычислительные машины и процессоры, контроллеры и крейты с наборами измеритель¬ных, управляющих и сервисных модулей.

Основными стандартами сетей типа Fieldbus являются B1TBUS, FIP, CAN и ProfiBUS, которые начали использовать с 1989 года, хотя к настоящему времени различными фирмами разработан еще целый ряд других подобных стандартов, предназначенных для раз¬личных целей. Все эти стандарты имеют схожие характеристики и различаются только видом арбитража. В последнее время наме¬тился переход от витой пары к оптоволокну. Скоростные характе¬ристики стандартов находятся в пределах от 300 кбайт до 1 Мбайт в секунду. Число узлов сети без повторителей в зависимости ог длины сегмента кабеля колеблется от 32 до 64, а с повторителями от 127 у ProfiBUS до неограниченного количества у CAN. Соответ-ственно колеблется и длина сети. ProfiBUS широко применяется во внутризаводской автоматике, но имеет длину до 800 м, в то вре¬мя, как у CAN длина не ограничена, но она, естественно, сказы¬вается на скорости передачи информации.

Для наибольшего числа применений характерно использо-вание в качестве ЛВС нижнего уровня сети типа FieldBus стандарта CAN, которая имеет следующие основные характеристики:

пространстве памяти, пространстве межсоединений, пространстве ввода-вывода.

Основным режимом для обмена между интеллектуальными агентами магистрали PSB является режим передачи сообщений. Реализация межпроцессорного обмена возложена на специальную СБИС — сопроцессор передачи сообщений (МРС). МРС осуще¬ствляет аппаратным образом протокол передачи сообщений меж¬ду агентами магистрали без вмешательства основных процессоров.

Протокол передачи сообщений включает в себя передачу пакетов прерываний (незатребованные сообщения) и пакетов данных (затребованные сообщения). Пакет прерываний содер¬жит до 32-х байт, из которых 2 адресных (код источника и код получателя), 2 служебных и до 28 байт данных.

Пакет данных содержит 2 байта адресов, 2 служебных байта и поле данных до 32 байт. Полное сообщение может иметь раз-мер до 16 Мбайт. Максимальная скорость передачи данных (с учетом адресной и служебной посылок) составляет 32 Мбайт/с. Для реализации таких скоростей передачи в МРС введены моду-ли быстрой памяти типа FIFO для передачи и приема данных и прерываний.

Основные операции, поддерживаемые МРС: протоколов обмена,

поддержка передач в пространстве ввода-вывода, обеспечение работы в пространстве межсоединений, контроль на четность и детектирование ошибок агента, поддержка работы с двухпортовой памятью. Стандарт Fustbus является развитием Multibas 11 и имеет следующие основные характеристики:

быстродействие от 50 до 100 операций в секунду, конструкция плат модулей — двойная европлата размером 366,7x403,3 мм,

скорость передачи данных 70 Мбайт/с., число модулей в крейте — 16, длина слова — 32, 64, 128 и 256 бит, разрядность параллельной магистрали — 32 и 64. Другой ведущий производитель микропроцессорной техни¬ки, фирма Motorola, ориентируется на стандарт VME.

Основой архитектуры MULTIBUS 11 является параллель¬ная 32 -разрядная магистраль (PSB). Шины магистрали распола-гаются на 96-контактном разъеме Р1 еврокаргы размером 233x220 (основной размер). При этом другой разъем Р2 еврокарты явля¬ется пользовательским и может использоваться для установки на него дополнительных магистралей. Кроме того, в качестве дополнительных предусмотрено ещу два размера плат 366,7x220 и 366,7x280.

Магистраль PSB обладает следующими основными характе-ристиками:

предельное быстродействие при блочной передаче 40 Мбайт/с, адресное поле 4 Гбайт,

возможность передачи 8-, 16-, 24- и 32-разрядных данных, наличие распределенной параллельной системы арбитража с обслуживанием до 20 модулей,

наличие режима передачи сообщений, режим автоматического конфигурирования системы, контроль на четность и самотестирование модулей, мультиплексирование шин данных и адреса, шин управле¬ния и арбитража,

синхронная организация интерфейса с опорной частотой 10 МГц.

Магистраль PSB оптимизирована для межпроцессорного обмена, для чего введен режим передачи сообщений. Кроме того, предусмотрен традиционный обмен через двухпортовые блоки памяти. В частности, этот режим может быть использован для работы с измерительными и управляющими модулями. Для ра¬боты с внешними устройствами имеется режим ввода-вывода. Дополнительно к этому введена возможность обмена между мо-дулями в пространстве памяти, называемым пространством меж-соединений, что совместно с географической адресацией дает возможность производить начальную адресацию и программную конфигурацию системы.

Это же пространство используется для диагностики систе¬мы (внутренние тесты модулей).

Всего обмен данными между агентами может вестись в 4-адресных пространствах:

пространстве передачи сообщений,

Результатом работы этой группы стала новая шина VSB (УМЕ Subsystem Bus).

Основными достоинствами VME являются гибкий арбит-раж, простой протокол обмена, возможность построения про-стых и дешевых систем, возможность объединения в одной сис¬теме модулей, работающих с 8-, 16- и 32-разрядными данными и 16-, 24- и 32-разрядными адресами. Основными недостатками УМЕ являются отсутствие контроля передач, использование пос¬ледовательного арбитража по цепочечным линиям, невозмож¬ность передачи типа "один всем" и "все одному", большое чис¬ло функциональных линий.

На базе УМЕ создана "шина расширения памяти, модерни¬зированная для подключения приборов" VXI. Стандарт интер¬фейса УХ1, поддерживаемый всеми ведущими производителя¬ми измерительной техники, но в особенности фирмой Hewlett J Packard (HP), вобрал в себя лучшие черты стандартов HP-IB (8-битовый параллельный интерфейс) и УМЕ.

Измерительная система в стандарте УХ1 представляет собой набор высокопроизводительных измерительных и управляющих модулей, объединенных высокоскоростной общей магистралью. Конфигурация и управление ИВК в стандарте VXI производится как обычно с помощью компьютера. Наборы программных драй¬веров NI-DAQ для встраиваемых плат, драйверов N1 — 488.2 для систем на базе IEEE — 488 и драйверов NI-VXI для УХ1/УМЕ систем позволяет создавать УВК, в которых будут интегрированы измерительные и управляющие модули и крейты различных стан¬дартов.

Подобные комплексы предлагает фирма HP в виде промыш ¬ленных рабочих станций (Industrial Work Station), работающих в реальном масштабе времени. Высокая производительность та¬ких станций обеспечивается применением процессоров с супер- | скалярной архитектурой PA-RISK 7100, имеющих сокращенное число команд. Среди самых мощных рабочих станций фирмы HP можно отметить модель 735, являющуюся настольной рабочей станцией, и модель 755, являющуюся напольной расширяемой рабочей станцией. Эти станции обладают самой быстрой систе¬мой ввода-вывода, включающей в себя интерфейс SCSI II с пи-ковой скоростью передачи данных до 20 Мбайт/с., и обеспечива-

Мощная многопроцессорная шина содержит три магистра¬ли: собственно VME, последовательную линию передачи сооб¬щений VMS и дополнительную локальную шину, объединяю¬щую до шести модулей. Протокол VMS получил признание в последнее время для связи модулей внутри одного крейта. Не¬обходимость дополнительной магистрали возникает при орга¬низации многопроцессорных систем, процессоры которых име¬ют локальные ресурсы (дополнительная память, специальные устройства ввода-вывода и др.), общение с которыми перегру-жает основную магистраль VME. С помощью дополнительной ма¬гистрали возможно осуществление межкрейтной связи.

Шина VME обеспечивает параллельную обработку инфор-мации любой сложности. В крейте контроллера может устанав-ливаться до 20 VME модулей малого (3U) и большого (6U) форматов, несколько процессорных модулей, каждый из кото¬рых может иметь локальную подсистему на основе мезонинной шины СХС. В данных системах к каждому процессорному моду¬лю могут подключаться до 7 модулей с локальной мезонинной шиной СХС. Применение этой технологии позволяет создавать мощные интеллектуальные контроллеры, способные обраба-тывать до 1000 каналов ввода/вывода. Малые геометрические размеры УМЕ-модулей обеспечивают наилучшие эксплуатаци-онные характеристики: микропотребление, высокую вибро- ударопрочность, компактность.

Предложено несколько вариантов организации локальной шины: VMX, MVMX32, VMC, VSB.

VMX имеет 12 линий адреса и 32 линии данных. Линии ад-реса мультиплексированы, что обеспечивает адресное простран-ство 16 Мбайт. Скорость передачи по VMX несколько выше, чем по VME, за счет простого протокола и меньшей длины самой магистрали. Спецификация VMX прошла уже несколько редак-ций и получила довольно широкое распространение.

MVMX32 предложена фирмой Motorola как магистраль па -мяти, ориентированная на микропроцессор М 68020. Однако наличие нескольких разнородных спецификаций исключает уни-фикацию модулей различных изготовителей. Поэтому МЭК со-здал специальную группу по разработке магистрали, объединя-ющей функциональные возможности VMX и MVMX32.

Coding) к протоколу 802.11b, чем достигается увеличенная ско¬рость передачи данных со скоростью 22 Мбит/с.

Распространенный компонент беспроводной связи — адап-тер Intel PRO/Wireless 2100, компонент платформы Intel Centrino, который отвечает спецификациям стандарта IEEE 802.11b. Он оснащен встроенными средствами безопасности, включая тех-нологии WEP и VPN, с возможностью программного обновле¬ния до WPA. Платформа Centrino поддерживает технологию Cisco LEAP с возможностью программного обновления до Cisco Compatible Extensions. В платформе Intel Centrino реализована поддержка протокола 802.lib, планируется поддержка 802.1 lg в новой версии данной платформы.

Наиболее компактные устройства — беспроводные адапте¬ры внешнего типа, выполненные на основе интерфейса USB. Компания Benq предлагает миниатюрный внешний адаптер AWL400 с интерфейсом USB 1.1. Данное устройство отвечает стандарту 802.1 lb и обеспечивает передачу данных со скоростью до 11 Мбит/с. Адаптер поддерживает соединение на расстоянии до 400 м на открытых пространствах. В качестве криптозащиты в AWL400 используется протокол WEP с длиной ключа 64 или 128 бит. В комплекте с адаптером поставляются драйверы для операционных систем Windows 98SE/Me/2000/XP.

Выпускаются устройства, отвечающие интерфейсу PCMCIA. Адаптер компании JAHT — WN-4054P-P поддерживает стандарт 802.11 g. Карта может работать в режимах связи Ad-Hoc, Peer-to- Peer и Infrastructure и способна определять стандарт вещания сосе¬дей по эфиру (802.11b или 802.1 lg), чтобы обеспечить требуемую скорость передачи данных и совместимость с адаптерами исполь¬зуемого стандарта. Защита данных осуществляется методом WPA (Wi-Fi Protected Access) и 64/128-разрядным шифрованием по ал¬горитму WEP. В комплекте с картой поставляются драйверы для ОС Windows 98SE/Me/2000/XP. Адаптер компании D-Link, DWL-650+, также представляет собой устройство формата PCMCIA, поддер-живающий стандарт 802.1 lb. Максимальная длина ключа для WEP- шифрования составляет 256 бит. Особенностью D-Link DWL-650+ является реализация режима горячей замены.

Выпускаются адаптеры для сетей стандарта 802.11b с ин-терфейсом PCMCIA с увеличенной дальностью связи. Такое ют гетерогенную вычислительную среду на основе стандартов ин-терфейсов EISA, VME, HP-IB и VXL *

На основе выпускаемого в настоящее время промышленно¬го набора микросхем фирмой HP разработан контроллер 742rt с операционной системой реального времени HP-RT. Контроллер устанавливается на две платы VME и занимает гнездо 6U VME. На базе 742rt строятся промышленные рабочие станции серии НР9000 700rt, объединяющие в себе высококачественную среду разработки систем реального времени и сам УВК.

В некоторых случаях при конструировании УВК отсутствует возможность организации сети при помощи проводных или во-локонно-оптических линий связи (ВОЛС). Это могут быть комп-лексы управления подвижными объектами или удаленными объектами, расположенными в сложных условиях состояния и рельефа поверхности, или удаленными объектами с времен ной конфигурацией расположения, когда экономически неце-лесообразно прокладывать ВОЛС. Для этих случаев возможно при¬менение связи по радиоканалу. Очевидные недостатки такой связи — недостаточная помехоустойчивость, доступность инфор¬мации для посторонних пользователей — преодолеваются стандартными для радиосвязи способами. Однако, если не фор-мулировать для УВК с радиошиной особых требований, приво-дящих к необходимости разработки специализированной систе-мы связи, можно попробовать воспользоваться имеющимися на рынке устройствами для построения беспроводных сетей.

Наиболее распространенными стандартами беспроводных сетей являются IEEE 802.11b и 802.1 lg. Оборудование по этим стандартам работает в диапазоне 2,4 ГГц и способно передавать данные с максимальной скоростью 11 и 54 Мбит/с соответствен-но. Элементарное беспроводное устройство — это адаптер, ко-торый состоит из приемопередатчика и интерфейсного чипа, который может организовать работу адаптера по средствам стан-дартного компьютерного интерфейса и иметь прямую связь с чипсетом системы. Современные беспроводные адаптеры ра-ботают со скоростью передачи данных 11 или 54 Мбит/с. Име-ются адаптеры, позволяющие организовать беспроводный ка¬нал по технологии компании Texas Instruments, в которой применяется бинарное кодирование (Packet Binary Convolutional возможности топологии Wireless Distribution System (WDS), пред-назначенной для распределения рабочих функций между точка-ми доступа. Если при использовании системы WDS занятые точ-ки доступа могут лишь передавать информацию, то благодаря EDWS эти точки доступа сохраняют способность подключать (соединять) клиентов беспроводных сетей. Точка доступа GN-B49G поддерживает системы шифрования WEP с 64-, 128- и 152-разрядными ключами, а также технологию WPA. Имеется встроенный брандмауэр.

Существуют точки доступа, совместимые со стандартом 802.1 lg. Например, маршрутизатор/коммутатор AirPlus Xtreme G DI-624 оснащен четырьмя портами Ethernet 10/100 и совме-стим со стандартом 802.1 lb. Маршрутизатор построен на основе чипсета Prism GT производства Intersil и имеет встроенный бранд¬мауэр с поддержкой аутентификации по аппаратному МАС- адресу клиента, поддержку Stateful Packet Inspection (монито¬ринга входящих пакетов), фильтрацию контента, а также базо¬выми функциями блокировки по адресам IP и URL. В качестве криптозащиты используется механизм WEP с ключом длиной 64 или 128 бит.

Компания ASUS-WL-330 выпускает устройство с интегри-рованными антеннами, совмещающее точку доступа, беспро-водный мост/повторитель и адаптер Ethernet. Для работы в ре-жиме точки доступа не требуется никаких дополнительных драйверов, и конфигурирование происходит автоматически при подключении WL-330 к сети Ethernet. В режиме адаптера Ethernet WL-330 ищет все доступные маршрутизаторы и подключается к имеющему самый сильный сигнал, по сигналу можно пере-ключиться на другой маршрутизатор. Поддержка Wireless Distribution System позволяет использовать WL-330 для прямого соединения нескольких сетей.

Другая составная часть беспроводных устройств — беспро-водный мост (Wireless Bridge). Его основное назначение — со-членение географически разделенных участков беспроводных сетей. Обычно беспроводные мосты способны надежно удержи-вать связь на расстоянии до 300 м. В настоящее время функциями беспроводных мостов в полной мере обладают все современные точки доступа. Тем не менее, производятся мосты, которые по- устройство EliteConnect High Power SMC2532W-B компании SMC Networks работает в диапазоне 2,4 ГГц со скоростью пере¬дачи данных 22 Мбит/с. Дальность связи достигает более 800 м. Дальность можно еще больше увеличить, подключив к карточке специальную антенну, Защита данных обеспечивается протоко¬лом WEP.

Одним из элементов беспроводных сетей является точка доступа (Access Point). Она также состоит из приемопередатчика и интегрированного интерфейсного чипа, но должна выполнять более сложные и разнообразные функции, в том числе моста между беспроводными и кабельными участками сети. Она вклю-чает средства диагностики и контроля сети, удаленной настройки и устранения неисправностей, позволяет производить много¬пользовательский обмен файлами, минуя сервер, может выпол¬нять функцию маршрутизатора.

Например, многофункциональное устройство компании LinkSys, входящей в состав Cisco Systems, Wireless-G VPN Router, основано на процессоре для сетевых приложений Intel IXP425, в качестве операционной системы использует Linux, и способ¬но выполнять функции коммутатора/маршрутизатора для бес¬проводных сетей стандартов 802.1 Ib/g. Устройство предназначе¬но для работы с устройствами, оснащенными адаптерами, и имеет четыре порта Ethernet 10/100 для проводных подключе¬ний, поддерживает шифрование данных по протоколу WEP, работу в режиме VPN и может осуществлять контроль пакетов (Stateful Packet Inspection).

Компания Gigabyte Technology выпускает продукт Gigabyte GN-B49G. Он дополнен функциями маршрутизатора и предназ-начен для обеспечения доступа в Интернет с любого компьюте-ра, входящего в состав беспроводной сети стандарта 802.11 g. GN-B49G позволяет удвоить производительность беспроводной сети и повысить скорость передачи данных с 54 до 108 Мбит/с. Кроме того, имеются настройки и конфигурации: функция Smart Detection автоматически определяет тип интернет-соединения, а функция Smart Setup присваивает каждому компьютеру IP-адреса, не конфликтующие друг с другом. Также в маршру-тизаторе GN-B49G реализована фирменная технология Gigabyte Extended Distribution Wireless System (EDWS), расширяющая