
- •1 Задачи анализа;
- •2 Задачи синтеза;
- •3 Задачи идентификации.
- •Основные задачи теории кс
- •1. Задачи анализа;
- •2. Задачи синтеза;
- •3. Задачи идентификации.
- •2. Высокой интенсивностью взаимодействия и вытекающим отсюда требованием уменьшения времени ответа.
- •Функционирование кс
- •Основные задачи теории вычислительных систем
- •Общая характеристика методов теории вычислительных систем
- •3. Классификация вычислительных систем
- •Характеристики производительности и надежности кс
- •Характеристики надежности кс
- •1 Холодное резервирование. Работает только основной канал.
- •2 Нагруженный резерв. Включены оба канала (резервный канал занимается посторонними задачами). Время перехода на основную задачу меньше чем в холодном резерве.
- •Общая характеристика методов теории вычислительных систем
- •Характеристики производительности кс
- •1. Номинальная производительность ;
- •2. Комплексная производительность ;
- •3. Пакеты тестовых программ spec XX
- •Характеристики надежности кс
- •1 Холодное резервирование. Работает только основной канал.
- •2 Нагруженный резерв. Включены оба канала (резервный канал занимается посторонними задачами). Время перехода на основную задачу меньше чем в холодном резерве.
- •4) Указывается начальное состояние системы;
- •8) Находятся показатели качества вс на основе найденных вероятностей состояния системы.
- •Анализ надежности кс со сложной структурой
- •2.Расчет надежности кс
- •2. Для каждой вершины можно вычислить среднее количество попаданий вычислительного процесса в эту вершину по формуле
- •1. Разбить множество операторов на классы:
- •Модели вычислительных систем как систем массового обслуживания
- •1 Общие понятия и определения
- •Например m/m/1
- •2 Параметры систем массового обслуживания
- •Модели массового обслуживания вычислительных систем|
- •1. Представление вычислительной системы в виде стохастической сети
- •2. Потоки заявок
- •3. Длительность обслуживания заявок
- •Характеристики одноканальных смо
- •Многопроцессорные системы
- •5. Характеристики бесприоритетных дисциплин обслуживания
- •1) В порядке поступления (первой обслуживается заявка, поступившая раньше других);
- •2) В порядке, обратном порядку поступления заявок (первой обслуживается заявка, поступившая позже других);
- •3) Наугад, т. Е. Путем случайного выбора из очереди.
- •6. Характеристики дисциплины обслуживания с относительными приоритетами заявок
- •3.8. Характеристики дисциплин обслуживания со смешанными приоритетами
- •§ 3.9. Обслуживание заявок в групповом режиме
- •§ 3.10. Смешанный режим обслуживания заявок
- •§ 3.11. Диспетчирование на основе динамических приоритетов
- •§ 3.12. Оценка затрат на диспетчирование
- •1.Определяется интенсивность потока заявок I в смо Si из системы алгебраических уравнений
- •2.Вычисляются коэффициенты передач для каждой смо
- •3.Определяется среднее время обслуживания Ui заявки в смо Si :
- •6.Для моделирующей сети в целом характеристики п.5 определяются как
- •2.Расчет характеристик мультипроцессорной системы
- •1) Имеет доступ к общей памяти;
- •1.Средняя длина очереди заявок, ожидающих обслуживания в системе:
- •3. Среднее время пребывания заявок в системе :
- •Основные задачи теории кс
- •1. Задачи анализа;
- •2. Задачи синтеза;
- •3. Задачи идентификации.
- •1) С неограниченным временем пребывания заявок;
- •2) С относительными ограничениями на время пребывания заявок;
- •3) С абсолютными ограничениями на время пребывания заявок;
- •2.4. Контроллеры и сетевые комплексы ge Fanuc
- •Модели 311,313/323, 331
- •Коммуникационные возможности серии 90-30
- •2.4.3. Контроллеры VersaMax
- •2.4.4. Программное обеспечение
- •Общая характеристика протоколов и интерфейсов асу тп
- •2. Протоколы и интерфейсы нижнего уровня.
- •2. Основные технические характеристики контроллеров и программно-технических комплексов
- •Требования к корпоративной сети
- •2) Одновременное решение различных задач или частей одной задачи;
- •3) Конвейерная обработка информации.
- •1. Суть проблемы и основные понятия
- •1.1 Главные этапы распараллеливания задач
- •1.2 Сведения о вычислительных процессах
- •1.3 Распределенная обработка данных
- •1. Классификации архитектур параллельных вычислительных систем
- •1.1 Классификация Флинна
- •1. Процессоры
- •Память компьютерных систем
- •Простые коммутаторы
- •Простые коммутаторы с пространственным разделением
- •Составные коммутаторы
- •Коммутатор Клоза
- •Баньян-сети
- •Распределенные составные коммутаторы
- •Коммутация
- •Алгоритмы выбора маршрута
- •Граф межмодульных связей Convex Exemplar spp1000
- •Граф межмодульных связей мвс-100
- •3. Граф межмодульных связей мвс-1000
- •1. Построения коммуникационных сред на основе масштабируемого когерентного интерфейса sci
- •2. Коммуникационная среда myrinet
- •3. Коммуникационная среда Raceway
- •4. Коммуникационные среды на базе транспьютероподобных процессоров
- •1. Структура узла
- •2. Пакеты и свободные символы
- •3. Прием пакетов
- •4. Передача пакетов
- •5. Управление потоком
- •1. Структура адресного пространства
- •2. Регистры управления и состояния
- •3. Форматы пакетов
- •Когерентность кэш-памятей
- •1. Организация распределенной директории
- •2. Протокол когерентности
- •3. Алгоритм кэширования.
- •1 . Основные характеристики
- •1.2. Происхождение
- •1.3. Механизм когерентности
- •1. 4. Предназначение
- •1. 5. Структура коммуникационных сред на базе sci
- •1. 6. Физическая реализация
- •1. 7. Обозначение каналов
- •2. Реализация коммуникационной среды
- •2.1. На структурном уровне коммуникационная среда состоит из трех компонентов, как показано на рис. 2.1:
- •Масштабируемый когерентный интерфейс sci
- •Сетевая технология Myrinet
- •Коммуникационная среда Raceway
- •Коммуникационные среды на базе транспьютероподобных процессоров
- •1.Информационные модели
- •1.2. Мультипроцессоры
- •1.3. Мультикомпьютеры
- •Сравнительный анализ архитектур кс параллельного действия.
- •Архитектура вычислительных систем
- •Smp архитектура
- •Симметричные мультипроцессорные системы (smp)
- •Mpp архитектура
- •Массивно-параллельные системы (mpp)
- •Гибридная архитектура (numa)
- •Системы с неоднородным доступом к памяти (numa)
- •Pvp архитектура
- •Параллельные векторные системы (pvp)
- •1. Системы с конвейерной обработкой информации
- •1.2 Мультипроцессоры uma с много- ступенчатыми сетями
- •Мультипроцессоры numa
- •Мультипроцессор Sequent numa-q
- •Мультикомпьютеры с передачей сообщений
- •1. Общая характеристика кластерных систем.
- •2.Особенности построения кластерных систем.
- •Планирование работ в cow.
- •Без блокировки начала очереди (б); заполнение прямоугольника «процессоры-время» (в). Серым цветом показаны свободные процессоры
- •Общие сведения
- •Общие сведения
- •Логическая структура кластера
- •Логические функции физического узла.
- •Устройства памяти
- •Программное обеспечение
- •Элементы кластерных систем
- •1.1. Характеристики процессоров
- •Рассмотрим в начале процессор amd Opteron/Athlon 64.
- •Примеры промышленых разработок
- •Кластерные решения компании ibm
- •Диаграмма большого Linux-кластера.
- •Аппаратное обеспечение
- •Вычислительные узлы, выполняющие основные вычислительные задачи, для которых спроектирована система.
- •Программное обеспечение
- •Кластерные решения компании hp
- •Кластерные решения компании sgi
- •Производительность операций с плавающей точкой
- •Производительность памяти
- •Производительность системы ввода/вывода Linux
- •Масштабируемость технических приложений
- •Системное программное обеспечение
- •Архитектура san
- •Компоненты san
- •Примеры решений на основе san
- •San начального уровня
- •San между основным и резервным центром
- •Практические рекомендации
- •Построение san
- •Заключение
- •Принципы построения кластерных архитектур.
- •Оценки производительности параллельных систем
- •1) Имеет доступ к общей памяти;
- •2) Имеет общий доступ к устройствам ввода-вывода;
- •3) Управляется общей операционной системой, которая обеспечивает требуемое взаимодействие между процессорами и выполняемыми им программами как на аппаратном, так и на программном уровне.
- •4 Вероятность того, что в момент поступления очередной заявки все n процессоров заняты обслуживанием
- •Выбор коммутационного компонента.
- •Проблема сетевой перегрузки.
- •1. Обзор современных сетевых решении для построения кластеров.
- •1000-Мега битный вариант Ethernet
- •Организация внешней памяти
- •Эффективные кластерные решения
- •Концепция кластерных систем
- •Разделение на High Avalibility и High Performance системы
- •3. Проблематика High Performance кластеров
- •Проблематика High Availability кластерных систем
- •Смешанные архитектуры
- •6.Средства реализации High Performance кластеров
- •7.Средства распараллеливания
- •8.Средства реализации High Availability кластеров
- •9.Примеры проверенных решений
- •Архитектура san
- •Компоненты san
- •Примеры решений на основе san
- •San начального уровня
- •San между основным и резервным центром
- •Практические рекомендации
- •Построение san
- •Заключение
- •Symmetrix десять лет спустя
- •Матричная архитектура
- •Средства защиты данных
- •Ревизионизм и фон-неймановская архитектура
- •Литература
- •Связное программное обеспечение для мультикомпьютеров
- •1. Синхронная передача сообщений.
- •2. Буферная передача сообщений.
- •Планирование работ в cow
- •Средства распараллеливания
- •7.Средства распараллеливания
- •2. Кластерн ый вычислительн ый комплекс на основе интерфейса передачи сообщений
- •2.2 Программная реализация интерфейса передачи сообщений
- •2.3 Структура каталога mpich
- •2.4 «Устройства» mpich
- •2.5 Выполнение параллельной программы
- •2.6 Особенности выполнения программ на кластерах рабочих станций
- •2.7 Тестирование кластерного комплекса
- •Параллельная виртуальная машина
- •3 Кластерн ый вычислительн ый комплекс на основе пАраллельной виртуальной машины
- •3.1 Параллельная виртуальная машина
- •3.1.1 Общая характеристика
- •3.1.2 Гетерогенные вычислительные системы
- •3.1.3 Архитектура параллельной виртуальной машины
- •3.2 Настройка и запуск параллельной виртуальной машины
- •3.3 Структура каталога pvm
- •3.4 Тестирование параллельной виртуальной машины
- •На рисунке 3.2 представлена диаграмма, отображающая сравнение производительности коммуникационных библиотек mpi и pvm.
- •3.5 Сходства и различия pvm и mpi
- •4 . Кластерн ый вычислительн ый комплекса на основе программного пакета openMosix
- •4.1 Роль openMosix
- •4.2 Компоненты openMosix
- •4.2.1 Миграция процессов
- •4.2.2 Файловая система openMosix (oMfs)
- •4.3 Планирование кластера
- •4.4 Простая конфигурация
- •4.4.1 Синтаксис файла /etc/openmosix.Map
- •4.4.2 Автообнаружение
- •4. 5. Пользовательские утилиты администрирования openMosix
- •4. 6. Графические средства администрирования openMosix
- •4. 6.1 Использование openMosixView
- •4. 6.1.2 Окно конфигурации. Это окно появится после нажатия кнопки “cluster-node”.
- •4. 6.1.3 Окно advanced-execution. Если нужно запустить задания в кластере, то диалог "advanced execution" может сильно упростить эту задачу.
- •4.6.1.4 Командная строка. Можно указать дополнительные аргументы командной строки в поле ввода вверху окна. Аргументы приведены в таблице 9.2.
- •4. 6.2.2 Окно migrator. Этот диалог появляется, если кликнуть на каком-либо процессе из окна списка процессов.
- •4. 6.2.3 Управление удалёнными процессами. Этот диалог появляется при нажатии кнопки “manage procs from remote”
- •4.5.3 Использование openMosixcollector
- •4. 6.4 Использование openMosixanalyzer
- •4. 6.4. 1 Окно load-overview. Здесь отображается хронология нагрузки openMosix.
- •4. 6.4. 2 Статистическая информация об узле
- •4.5.4.3 Окно memory-overview. Здесь представляется обзор использования памяти (Memory-overview) в openMosixanalyzer.
- •4. 6.4.4 Окно openMosixhistory
- •4. 6.5 Использование openMosixmigmon
- •4.6 Список условных сокращений
- •Перечень ссылок
- •Общие сведения
- •2. Создание Windows-кластера
- •Суперкомпьютерная Программа "скиф"
- •Описание технических решений
- •Направления работ
- •Основные результаты
- •Кластер мгиу
- •Содержание
- •Понятие о кластере
- •Аппаратное обеспечение
- •Пропускная способность и латентность
- •1. Определение распределенной системы
- •2.1. Соединение пользователей с ресурсами
- •2.2. Прозрачность
- •Прозрачность в распределенных системах
- •2.3. Открытость
- •2.4. Масштабируемость
- •3.1. Мультипроцессоры
- •3.2. Гомогенные мультикомпьютерные системы
- •3.3. Гетерогенные мультикомпьютерные системы
- •4. Концепции программных решений рс
- •4.1. Распределенные операционные системы
- •4.2. Сетевые операционные системы
- •4.3. Программное обеспечение промежуточного уровня
- •5. Модель клиент-сервер рс
- •5.1. Клиенты и серверы
- •5.2. Разделение приложений по уровням
- •5.3. Варианты архитектуры клиент-сервер
- •Формы метакомпьютера
- •Настольный суперкомпьютер.
- •2. Интеллектуальный инструментальный комплекс.
- •Сетевой суперкомпьютер.
- •Проблемы создания метакомпьютера
- •Сегодняшняя архитектура метакомпьютерной среды
- •Взаимосвязь метакомпьютинга с общими проблемами развития системного по
- •5. Модель клиент-сервер рс
- •5.1. Клиенты и серверы
- •5.2. Разделение приложений по уровням
- •5.3. Варианты архитектуры клиент-сервер
- •Symmetrix десять лет спустя
- •Матричная архитектура
- •Средства защиты данных
- •Ревизионизм и фон-неймановская архитектура
- •Однородные вычислительные среды
- •Однокристальный ассоциативный процессор сам2000
- •Модели нейронных сетей
- •Модели инс
- •Оптимизационные системы.
- •Неуправляемые системы распознавания образов.
- •Системы feed forward.
- •Элементы нейрологики с позиции аппаратной реализации
- •Реализация нейронных сетей
- •Программные нейрокомпьютеры
- •Программно-аппаратные нейрокомпьютеры
- •Практическое использование инс
Средства защиты данных
В Symmetrix DMX обеспечен непрерываемый доступ к данным даже в том случае, если выходит из строя диск [3]. Для этой цели предусмотрен ряд технологических приемов.
Зеркалирование (RAID 1), обеспечивающее наивысший уровень производительности и готовности для критических с позиций бизнеса операций. Это ни что иное, как дублирование копии тома.
Parity RAID, т. е. организация дискового массива на паритетных началах для текущих операций в бизнесе. Существует две разновидности RAID (3+1) и RAID (7+1), отличающиеся тем, что один дополнительный диск прибавляется к группе из трех или из семи дисков. Утверждается, что по уровню производительности и готовности эти формы организации дисковых массивов превосходят RAID 5.
SRDF (Symmetrix Remote Data Facility), поддержание зеркальных образов данных на географически разнесенных системах Symmetrix.
Dynamic Sparing, создание подменных дисков на период замены основного.
Ревизионизм и фон-неймановская архитектура
Образованная в 1998 году компания BlueArc, которую, заметим, возглавил известный менеджер, бывший вице-президент корпорации Compaq Энрико Песатори, пару лет назад рассматривалась как один из самых многообещающих «стартапов». Очень энергичное начало деятельности компании на какое-то время сформировало ощущение, что она без промедления сможет войти в клуб ведущих производителей систем хранения данных. Этого не произошло. Сегодня по понятным экономическим причинам столь быстрый успех невозможен, но это вовсе не снижает интереса к технологиям, которые могли бы обеспечить BlueArc стремительный взлет. Скорее всего, он просто отложен.
Оценивая принадлежащее BlueArc «ноу-хау», признанный гуру сетевого мира Джордж Гилдер писал в 2000 году, что этой компании удастся преодолеть узкие места между системами хранения и Web. Под «бутылочным горлом» Internet обычно понимают хорошо известную проблему: традиционные серверы, подключенные к Сети, уже с трудом справляются с сетевым трафиком. Та же проблема существует и в самих системах хранения; здесь «бутылочное горло» формируют ограничения на производительность решений на базе подключаемых к сети устройств хранения (network attached storage, NAS), накладываемые входящими в их состав компьютерами. Очевидный выход из этой ситуации в приложении к Internet состоит в увеличении числа серверов. Однако как у любого простого решения, в данном подходе обнаруживается побочный эффект. Возникает диспропорция: по совокупности серверы обладают слишком большой вычислительной мощностью, которая в данном случае избыточна, попросту не нужна. Следовательно, растут непроизводительные расходы. То же самое происходит и при создании, например, высокопроизводительных NAS-накопителей: хоть и есть в их архитектуре специализированное ядро (appliance kernel), но все равно, из-за необходимости повышать пропускную способность приходится делать излишне мощными их вычислительные компоненты, а вычислять-то попросту нечего.
Проанализировав эту дилемму, инженеры BlueArc пришли к разумному выводу о том, что разрешение парадокса пропускной способности стоит искать не в количественном росте числа серверов и не в наращивании вычислительной мощности, а в качественном изменении архитектуры самих серверов. Это относится как к сети вообще, так и архитектуре NAS в частности. Рассуждая так, в BlueArc посягнули на святое, на то, что не подвергалось сомнению на протяжении всей истории компьютеров. Более пятидесяти лет все без исключения вычислительные системы строились по схеме, которую принято называть «архитектурой фон Неймана». Открытием Дж. Преспера Эккерта и Джона Мочли стала идея хранения в оперативной памяти и обрабатываемых данных, и управляющих машиной программ. До этого, в немногочисленных предшественниках компьютеров, начиная с машины Чарльза Бэббиджа, программа была внешней по отношению к вычислительному устройству. Так уж случилось, что архитектура с хранимой в памяти программой получила имя великого математика Джона фон Неймана, поскольку именно он придал ее гласности. Надо учесть, что изначально она разрабатывалась только для автоматизации вычислений, т. е. задумывалась как универсальный программируемый инструмент для расчетов. Идея хранения данных и программы в единой памяти не есть результат серьезной аналитической работы, а изобретение двух инженеров, которое благодаря усилиям многочисленных ученых мужей заметно обросло наукообразием. Уже позже оказалось, что она вполне соответствует и специфике работы с текстовыми данными. Однако она, по определению, имеет серьезные врожденные ограничения при обработке потоков данных поступающих с высокой скоростью. Если вдуматься, такой универсализм нужен далеко не всегда. Но так или иначе, сегодня по фон-неймановской схеме строятся все без исключения процессоры, даже используемые в сотовых телефонах.
Для того чтобы продемонстрировать эффективность специализации, стоит вспомнить один из первых компьютеров, созданный на несколько лет раньше, чем ENIAC Эккерта и Мочли. Естественно, в нем не использовалась фон-неймановская схема. Во время
Второй мировой войны для расшифровки немецких шифров англичане создали несколько экземпляров специализированного компьютера Colossus. Этот компьютер использовал самую примитивную, доступную на тот момент аппаратную базу; естественно, в нем данные и программы хранились порознь. Судя по используемым деталям, скорость работы процессора Colossus составляла максимум несколько сотен герц. Однако он оказался чрезвычайно эффективен, настолько, что проект на десятилетия был засекречен. Когда в 90-е годы гриф секретности был снят, и Colossus стали реставрировать, моделируя его работу современными средствами, то неожиданно оказалось, что его реальная производительность на обработке потока входных данных вполне соответствовала возможностям актуального в то время процессора Intel 386, тактовая частота которого составляла несколько десятков килогерц. Вот что значит специализация!
Современные серверы не приспособлены для выполнения простых стандартных алгоритмов обработки мощных потоков данных. В этом отношении они напоминают грузовики, которые, конечно же, можно использовать для перевозки пассажиров вместо автобусов, но нужно ли? В серверах, которые с равным успехом можно применять и для математических вычислений, и для бизнеса, все процессы выполняются последовательно, в том числе обработка пакетов на сетевом уровне, обработка запросов к файловой системе. Последовательными являются и все драйверы, работающие с устройствами хранения данных. В нынешних архитектурах все эти процедуры проходят через шины или коммутаторы, по которым подключены дисковые устройства; в них, собственно, и образуется пробка. Даже при переходе к Infiniband теоретически бутылочное горло смещается, но остается, поскольку весь обмен идет через память, хотя прямой доступ к памяти (Direct Memory Access) снижает нагрузку на центральный процессор.
Выход из сложившейся ситуации можно искать, повторяя эволюционный путь, которым прошли производители сетевых маршрутизаторов и коммутаторов [4]. В начале 90-х годов производителям сетевого оборудования стало ясно, что построение таких устройств на основе обычных процессоров несет в себе ограничения на объемы перемещаемых данных. После этого началась миграция в направлении устройств, построенных на специализированных интегральных схемах (ASIC), где используется «зашитое в железо» программное обеспечение.
Вообще говоря, ревизионизм, проявленный инженерами из BlueArc, заслуживает к себе особого внимания. Давно не появлялось качественно новых архитектурных решений. Сейчас, когда весь мир работает на нескольких десятках типов процессоров, забыли, что выбор оптимального разделения функций между аппаратным и программным обеспечением — вопрос далеко не праздный.
Итак, компания BlueArc предложила архитектуру SiliconServer Architecture, ядром которой является структура с массовым параллелизмом, выполняющая те же функции, что и обычная операционная система обычного сервера, но с большей производительностью и надежностью. Можно сказать, что это сервер с «прошитой» операционной системой. Эта альтернативная архитектура использует стандартные протоколы и может взаимодействовать с обычными компьютерами-клиентами. SiliconServer Architecture состоит из трех подсистем (на рис. 2 они расположены слева направо):
сетевой подсистемы, реализующей протокол TCP/IP;
файловой подсистемы, реализующей NFS, CIFS и FTP, а также собственно файловую систему;
подсистемы управления кэш-памятью и подключенными устройствами.
Все три подсистемы прошиты двумя высокоскоростными шинами, каждая из которых способна передавать 1 гигабит данных в секунду в одном направлении. Таким образом, SiliconServer является полнодуплексным по своей природе. Естественно, что существуют еще и другие вспомогательные шины, связывающие отдельные компоненты и выполняющие служебные функции.
Первая из подсистем архитектуры SiliconServer почти полностью обеспечивает функциональность TCP/IP аппаратными средствами. На сегодняшний день только небольшая часть функций передана вспомогательному процессору, который реассемблирует трафик пакетов, он же контролирует обнаружение ошибок. Вторая подсистема получает файловые запросы и преобразует их в команды, аналогичные обращению к SCSI, которые далее транслируются клиенту. На начальном уровне здесь тоже не все переведено на железный уровень, но то, что относится к перемещению данных, реализовано аппаратными средствами в SiliconServer. Благодаря этому на нынешнем уровне уже удалось выйти на гигабитные скорости обмена с летами и дисками. Оставшиеся программными компоненты построены так, что со временем могут быть реализованы на аппаратном уровне. Система BlueArc сейчас способна работать с томами большого размера, в том числе и с томами с организацией RAID. Обычно размер тома становится проблемой в средах NAS с традиционной архитектурой. Между тем, в BlueArc уже обеспечена поддержка томов до 1,75 Тбайт, максимум же составит 16 Тбайт. Также программно реализована работа с метаданными, в BlueArc используется модифицированный алгоритм B+ Tree, называемый Nary Tree, а не более традиционный I-node. С использованием Nary Tree все файлы и каталоги, поступающие в файловую систему, связываются вместе в древовидную структуру метаданных. Использование деревьев существенно эффективнее обычной табличной формы хранения метаданных.
Первой практической реализацией SiliconServer стал накопитель Si7500. В декабре 2002 года он появился в модернизированной версии Si8000. В нем поддерживается иерархическая система виртуальных томов, управляемая средствами единого интерфейса. Общее количество виртуальных томов на физическом томе ограничено показателем 2032. При работе с двунаправленным каналом Gigabit Ethernet скорость обмена составляет 2 Гбит/с.
Семейство Si8000 состоит их трех членов: Si8300 имеет максимальную емкость 7 Тбайт, Si8700 — 98 Тбайт, а Si8900 — 228 Тбайт. Устройство Si8900 использует диски с интерфейсом Fibre Channel.
Среди дополнительных свойств Si8000 стоит отметить ускоренное создание копий с тома на том Accelerated Data Copy. Для выполнения этой процедурой добавлено управляющее устройство на стандартном ультратонком сервере форм-фактора 1U (1U = 1,75 дюйма), который используется еще и для антивирусной проверки данных. Стоимость младших моделей Si8000 — от 50 тыс. долл.
* * *
Помимо описанных существует еще достаточно много новых решений, предлагаемых в основном небольшими компаниями, выходящими на рынок систем хранения данных. К числу наиболее интересных новинок можно отнести универсальное устройство хранения Network Unified Storage (NUS), разрабатываемое компанией LeftHand Networks, и распределенный подход к хранению данных Distributed Storage Software (DSS), предложенный компанией Scale Eight. Обзор деятельности начинающих компаний, специализирующихся на системах хранения, можно найти в [5].