- •1. Понятие параллелизма. Пространственный и временной параллелизм.
- •2. Ярусно-параллельная форма представления алгоритма.
- •3. Автоматическое обнаружение параллелизма. Явная и скрытая параллельная обработка.
- •4.Степень параллелизма. Профиль параллелизма.
- •17.Способы организации свв. Свв для систем с распределенной оперативной памятью. Распределенная свв. Подключение спецпроцессора через свв.
- •5.Алгоритмические уровни параллелизма. Схемные уровни параллелизма.
- •6.Виды параллелизма. Естественный параллелизм и параллелизм множества объектов.
- •7. Виды параллелизма. Параллелизм независимых ветвей. Отличие параллелизма независимых ветвей от естественного параллелизма и параллелизма независимых ветвей от параллелизма множества объектов.
- •8.Виды параллелизма. Параллелизм смежных операций.
- •9. Модель задачи.
- •10. Уровни комплексирования устройств в вычислительных системах.
- •12. Структура и функция свв
- •13. Способы подключения свв к процессору.
- •14.Понятие модуля ввода-вывода. Функции мвв. Классификация мвв.
- •15.Способы организации свв. Свв для систем с общей оперативной памятью. Свв в виде специальной управляющей эвм.
- •16.Способ организации свв. Свв через внешние запоминающие устройства. Свв через «интерфейсную» эвм.
- •18. Сравнение архитектур cisc и risc.
- •19.Особенности risc-архитектуры.
- •20.Регистры в risc-процессорах.
- •21.Микропроцессор r10000.
- •22.Вычислительные системы класса мкмд. Многомашинные вычислительные комплексы.
- •23. Вычислительные системы класса мкмд. Многопроцессорные вычислительные комплексы и системы. Каноническая структура мультипроцессора.
- •24.Проблемы повышения производительности мпвк. Типы структурного построения мпвк.
- •25.Классификация мкмд-систем. Вычислительные системы с общей памятью: архитектура uma.
- •26.Классификация мкмд-систем. Вычислительные системы с общей памятью: архитектуры numa и coma.
- •27.Классификация мкмд-систем. Вычислительные системы с распределенной памятью.
5.Алгоритмические уровни параллелизма. Схемные уровни параллелизма.
Выделяют следующие алгоритмические уровни параллелизма:
1. Уровень заданий:
а) между заданиями;
б) между фазами заданий.
2. Программный уровень:
а) между частями программы;
б) в пределах циклов.
3. Командный уровень (между фазами выполнения команд).
4. Арифметический и разрядный уровень:
а) между элементами векторной операции;
б) внутри логических схем АЛУ.
Каждый из уровней характеризуется определенными свойствами, исходя из которых, разработаны специальные структуры вычислительных средств. Командный уровень реализуется в любых современных ЭВМ, включая и персональные ЭВМ.
Схемный уровень параллелизма – это аппаратный уровень, на котором осуществляется распараллеливание обработки данных или организация параллельных вычислений.
Параллельная обработка может быть реализована на следующих схемных уровнях:
На уровне логических вентилей и элементов памяти(рис.1.4)
2. Уровень логических схем и простых автоматов с памятью (рис.1.5).
3. Уровень регистров и интегральных схем памяти (рис.1.6).
4. Уровень элементарных микропроцессоров (рис.1.7).
5. Уровень макропроцессоров, реализующих крупные операции (рис.1.8).
6
.
Уровень вычислительных машин, процессоров
и программ (рис.1.9).
6.Виды параллелизма. Естественный параллелизм и параллелизм множества объектов.
В информационном графе могут быть выделены «вертикальные» независимые подграфы, которые не используют взаимно каких-либо промежуточных результатов, полученных при реализации примитивных операций другого подграфа. Такой вид параллелизма получил название естественного параллелизма независимых задач.
Задача обладает естественным параллелизмом, если в её исходной поста-новке она сводится к операции над многомерными векторами, многомерными матрицами или над решётчатыми функциями (рис.1.10).
Параллелизм множества объектов представляет собой частный случай естественного параллелизма. Его смысл в том, что задача состоит в обработке информации о различных, но однотипных объектах, обрабатываемых по одной и той же или почти по одной и той же программе (рис.1.11).
Здесь сравнительно малый вес занимают так называемые интегральные операции. При параллелизме множества объектов чаще, чем в общем случае, встречаются ситуации, когда отдельные участки вычислений должны выпол-няться различно для разных объектов.
7. Виды параллелизма. Параллелизм независимых ветвей. Отличие параллелизма независимых ветвей от естественного параллелизма и параллелизма независимых ветвей от параллелизма множества объектов.
Суть параллелизма независимых ветвей состоит в том, что в программе решения задачи могут быть выделены независимые части, называемые ветвями. При наличии в ВС соответствующих аппаратных средств ветви могут выполняться параллельно (рис.1.12).
Ветвь программы Y не зависит от ветви X, если:
- между ними нет функциональных связей, т.е. ни одна из входных переменных ветви Y не является выходной переменной ветви X либо какой-нибудь ветви, зависящей от X;
- между ними нет связи по рабочим полям памяти;
- они должны выполняться по разным программам;
- независимы по управлению, т.е. условие выполнения ветви Y не должно зависеть от признаков, вырабатываемых при выполнении ветви X или ветви, от нее зависящей.
