
- •1.1. Развитие элементной базы вс.
- •1.2. Перспективы развития архитектур класса mpp (Massively Parallel Processor).
- •С хематический вид архитектуры с раздельной памятью
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •Использование гиперкуба для реализации параллельных алгоритмов.
- •Решение задачи быстрой сортировки на гиперкубе
- •2.1. Матричные вс с ассоциативной обработкой инф-ции на примере вс pepe.
- •2.2 Супер-эвм фирмы Cray Research.
- •1. Три типа различных регистров:
- •2. Параллельная обработка на нескольких уровнях.
- •3. Организация памяти.
- •2.3 Понятие метакомпьютинга. Способы организации метакомпьютера. Основные решаемые задачи. Примеры использования метакомпьютера для решения сложных задач.
- •3.1Транспьютеры. Практическое применение
- •3.2 Способы распределения задач по процессорам в мультипроцессорных вс.
- •3.3 Реализация фундаментальных вычислительных алгоритмов в линейной сети процессоров.
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •4.1 Вс на основе систолических и волновых матриц
- •Волновая матрица.
- •4.2 Возм-ые пути постр-ия высокопроизв-ых вс, отличных от фоннеймановского типа. Понятие семантического разрыва между стр-рой вс и реал-ой прогр-ой.
- •Концепция неограниченного параллелизма. Выявление микро- и макропараллелизма в алгоритмах.
- •5.1 Анализ производ-ти мультипроцессорных вс. Коэффициент ускорения вычислений. Проблемы достижимости линейного роста производительности.
- •5.2 Редукционная машина «Алиса». Пример выполнения фрагмента программы.
- •Параллельная редукция
- •6.1 Развитие новых методов вычислений Японская программа по развитию вычислительной техники:
- •Основной язык: Prolog
- •6.2 Показатели качества функционирования вс. Критерий Гроша. Критерий Минского. Двухпараметрический критерий. Проблемы достижения линейного роста производительности вс.
- •7.1 Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •7.3 Перспективы развития vpp (Vector Parallel Processor)
- •8.1 Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Одномерный путь передачи информации (отсутствует параллелизм передачи информации).
- •8.2 Особенности перехода к параллельным вычислениям. Проблемы организации параллельных вычислений.
- •9.1 Сравнительный анализ режимов и алгоритмов обработки информации в вс Сравнительные возможности двух методов организации параллельных вычислений: метод конвейеризации и метод параллелизма.
- •9.2 Принцип вычислений на основе управления потоком данных. Машины потоков данных (мпд). Архитектура. Достоинства и недостатки мпд.
- •Структура машины потоков данных. Данные хранятся в пакетах данных – в активных ячейках памяти. Ба – блок арифметический. Бл – блок логический. В активной памяти находятся пакеты, готовые к выполнению.
- •Функционирование машин потоков данных.
- •Организация сети передачи пакетов в мпд.
- •Достоинства мпд.
- •Недостатки мпд.
- •Обработка структур в мпд.
- •Структура мпд для обработки структур.
- •Структура устройства хранения и обработки.
- •9.3 Реализация фундаментальных вычислительных алгоритмов в матричной сети процессоров.
- •Решение задач линейной алгебры на матричной сети процессоров
- •10.1 Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Одномерный путь передачи информации (отсутствует параллелизм передачи информации).
- •10.2 Принцип вычислений на основе управления потоком данных. Машины потоков данных (мпд). Архитектура. Достоинства и недостатки мпд.
- •Данные хранятся в пакетах данных – в активных ячейках памяти. В активной памяти находятся пакеты, готовые к выполнению.
- •10.3 Принцип «разделяй и властвуй» и его использование для повышения эффективности выполнения вычислительных алгоритмов в сетях процессоров
- •11.1 Абстрактная архитектура вс. Основные модули и интерфейсы
- •Арифметический и командный конвейер
- •11.2 Особенности перехода к параллельным вычислениям. Проблемы организации параллельных вычислений.
- •11.3 Современные тесты для оценки производительности вс.
- •12.1 Диаграмма выполнения команды в машине фон Неймана. «Узкие места» при выполнении команды в последовательной вс. Методы устранения «узких» мест.
- •12.2 Редукционная g-машина. Пример выполнения фрагмента программы.
- •1. Три типа различных регистров:
- •2. Параллельная обработка на нескольких уровнях.
- •3. Организация памяти.
- •13.1 Арифметический и командный конвейер.
- •13.2 Организация тэговой памяти и оценка ее эффективности на примере мультипроцессорной вс Эльбрус.
- •Независимость программных средств от обрабатываемых данных. Программные средства реализованы только на логический уровень, поэтому:
- •Разработка высокопроизводительных систем класса мпд на основе ассоциативной памяти.
- •14.1. Способы выбора количества уровней совмещения (ступеней) в командном конвейере.
- •Тип решаемой задачи.
- •Стоимость организации вычислений.
- •14.2 Кластерные проекты (на примере мвс-1000 м). Коммуникационные технологии построения кластеров. Beowulf- кластеры. Beowulf- кластеры. The-hive.
- •14.3Теоретические модели параллельных систем. Ячеечные автоматы Неймана. Пространственная машина Унгера.
- •15.1 Достижения и перспективы развития вычислительной техники.
- •Японская программа по развитию вычислительной техники:
- •Задачи:
- •Существуют трансляторы с полуестетвенных языков
- •15.2 Способы распределения задач по процессорам в мультипроцессорных вс.
- •Организация супер-эвм с общей памятью (на примере hp Superdone). Архитектура ccNuma.
- •16.1 Классификационные схемы архитектур вс (по Флинну, по Энслоу). Достоинства и недостатки каждой из классификаций.
- •Многовходовые
- •Несимметричные(системы с неоднородными процессорами)
- •5.Вс с матричными (векторными) процессорами (Архитектура мрр)
- •16.2 Теоретические модели параллельных систем. Ячеечные автоматы Неймана. Пространственная машина Унгера
- •16.3Организация супер-эвм с общей памятью (на примере hp Superdone). Архитектура ccNuma.
- •17.1Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Одномерный путь передачи информации (отсутствует параллелизм передачи информации).
- •17.2 Вычислительные системы с векторной обработкой команд (структура). Диаграмма выполнения операций с векторной обработкой команд.
- •Вычисление параллельного префикса
- •63 Гусеничный алгоритм обработки элементов массива. Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •65 Реализация фундаментальных вычислительных алгоритмов в матричной сети процессоров.
- •Решение задач линейной алгебры на матричной сети процессоров
- •Японская программа по развитию вычислительной техники:
- •Задачи:
- •Существуют трансляторы с полуестетвенных языков
- •2 Пути развития вычислительных систем (вс). Пять японских программ о развитии и внедрении средств вычислительной техники.
- •Использование гиперкуба для реализации параллельных алгоритмов.
- •Решение задачи быстрой сортировки на гиперкубе
- •Использование комбинаторов в редукционном вычислении
- •Процесс вычисления комбинаторного выражения
- •Реализация фундаментальных вычислительных алгоритмов в линейной сети процессоров.
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •20.1 Эволюция развития архитектур вс
- •20.2 Принципы векторизации последовательных программ. Критерии оценки векторной архитектуры.
- •2) Стартовое время конвейера.
- •Гусеничный алгоритм обработки элементов массива. Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •Достоинства и недостатки видов соединений вычислительных модулей в высокопроизводительных вс. Шина. Кольцо.
- •Одномерный путь передачи информации (отсутствует параллелизм передачи информации).
- •21.2 Теоретические модели параллельных систем. Машина Холланда.
- •Решение задач линейной алгебры на систолических массивах.
- •22.2 Реализация принципа «сверхмультиобработки». Статический и динамический способ создания «общего кода».
- •22.3 СуперЭвм фирмы Fujitsu.
- •23.1 Сравнительные возможности двух методов организации параллельных вычислений: метод конвейеризации и метод параллелизма.
- •Факторы, влияющие на снижение производительности в системах с векторной обработкой команд
- •5. Зависимость по управлению
- •Основные технологии параллельного программирования.
- •62 Реализация фундаментальных вычислительных алгоритмов в линейной сети процессоров.
- •Линейная сеть процессоров
- •Повышение эффективности решения задач на линейной сети процессоров
- •Вычисление параллельного префикса
- •Вычислительные системы с векторной обработкой команд (структура). Диаграмма выполнения операций с векторной обработкой команд.
3. Организация памяти.
V0…V7 – организуют локальную память.
Взаимодействие локальной памяти с главной памятью и с конвейером:
Л окальная память должна быть многоуровневой. При наличии большого количества конвейерных устройств эта структура усложняется. Д ля повышения эффективности локальной памяти используются коммутаторы.
Обе памяти являются расслоенными.
В системах Cray соединение: либо через коммутатор (обе памяти являются расслоенными), либо через сдвоенный буфер:
3 -й способ – введение в систему команд машины специальных команд, которые обеспечивают бесконфликтный доступ.
POST – запрос вызова операндов. POST Если выполняется команда WAIT, другие запросы к памяти; WAIT блокируются
13.1 Арифметический и командный конвейер.
Конвейерная обработка информации является одним из методов повышения производительности процессора.
Классификация конвейеров
По типу обрабатываемой информации:
*Конвейер команд – когда обрабатывается несколько команд при их неконвейерной арифметике
*Конвейер данных – когда в арифметическом конвейере присутствуют несколько пар операндов и каждая ступень конвейера выполняет над соответствующей парой операндов свои группы процедур.
По функциональному назначению:
*Однофункциональные
*Многофункциональные
По внутренней организации:
*Синхронные
*Асинхронные
Синхронные конвейеры являются наиболее простыми, к проектированию асинхронных прибегают, когда невозможно выровнять времена работы ступеней.
Совмещение отдельных фаз связывается с использованием в процессоре конвейера команд. Самый большой эффект достигается при смещении каждой следующей фазы на одну.
Д
лительность
каждой фазы в конвейере команд должна
быть одинаковой. Это необходимо для
синхронизации операций. Длительность
фазы равна длительности выполнения
типовой операции в АЛУ. ВК, ВО, ЗР – три
фазы, которые используют память,
следовательно, чтобы сделать их равными
по длительности работы АЛУ, необходимо
наличие кэш-памяти, тогда ВК, ВО, ЗР =
TАЛУ.
Если
нет необходимой информации в кэш-памяти,
то необходимо обращение к памяти,
следовательно, нарушается диаграмма,
значит необходимо расширение диаграммы
для синхронизации.
Часть времени тратится на непроизводительные (накладные) расходы, которые связаны с синхронизацией.
13.2 Организация тэговой памяти и оценка ее эффективности на примере мультипроцессорной вс Эльбрус.
Один из самых больших минусов машины фон Неймана – невозможность различать типы данных, вплоть до уровня исполнения программы Избыточный набор команд в машине.. Желательно было бы иметь одну операцию сложения, которая была бы инварианта различным типам данным. На основе опыта был предложен принцип самоопределения данных: наряду с обычной информацией, содержащейся в команде, вводится дополнительное поле, которое называется тег.
П
амять,
которая организованна таким образом,
называется теговой.
Примеры: Машина Berroughs – часть памяти теговая. Реальная польза получена в машине Эльбрус (машина с суперскалярной обработкой информации). С применением теговой памяти происходит и хранение данных и их аппаратная защита.
П
ример:
теговая память Uniuac.
Формат целых чисел
Формат чисел с фикс. запятой
Особенности теговой обработки.
1. Все команды инвариантны к типу обрабатываемых данных, т.е. на этапе компиляции создается объектный код программы, а конкретная реализация команды осуществляется на этапе выполнения, путем анализа тега. Тег создается компилятором Привязка программы к архитектуре на этапе выполнения.
2. Поле тега скрыто для программы на ЯВУ, следовательно, язык высокого уровня является независимым от реализации этого принципа в ЭВМ.
3. Развитие теговой организации памяти позволяет вводить дополнительные средства для расширения процедур контроля и отладки. Это повышает надежность.
Достоинства теговой памяти (ТП):
Повышение надежности обработки. Это расширенные возможности обнаружения ошибок.
Индексация бессмысленных операций, когда при выполнении умножения один из операторов число, а другой строка и т.д.
Обнаружение несовместимости, когда, например число с плавающей запятой записывается, как адрес.
Возможность обнаружения неопределенных данных.
Все это рассматривается, как некорректное определение типов данных, следовательно, с помощью ТП осуществляется защита по данным.
Автоматическое преобразование типов данных (на этапе выполнения программы, а не на этапе компиляции, когда еще не известно, надо это или нет). Принцип ТП реализует “ленивое вычисление”, или вычисление по необходимости.
Повышение эффективности вычисления программ, т.е. не надо извлекать и кодировать команды преобразования типов данных, следовательно, увеличивается скорость. Задержка привязки программы к архитектуре до этапа выполнения, позволяет повысить эффективность за счет уменьшения кода.
Уменьшение количества команд в системе команд в машине, делает архитектуру RISC – подобной (с сокращенной системой команд), следовательно, компилятор более простой, осуществляется контроль корректности программы на этапе вычисления и автоматическое преобразование данных.
Более совершенные средства отладки.
Дамп памяти более информативен.
Использование битов захвата позволяет включать дополнительные средства отладки. Сближение интерфейса машины с языком программирования, позволяет создавать средства отладки, ориентированные на этот язык.