все
.doc
![]()
В
порядку спадання номерів повідомлень
Запитання 136: Множина варіантів
Процедура MPI_SCATTERV(SBUF, SCOUNTS, DISPLS, STYPE, RBUF, RCOUNT, RTYPE, ROOT, COMM, IERR) виконує:
![]()
Розсилку
різної кількості даних з масиву SBUF
![]()
Розсилку
даних з масиву SBUF процесу ROOT в масиви
RBUF всіх процесів
![]()
Розсилку
повідомлення від процесу ROOT всім процесам
даного комунікатора
![]()
Блокуючу
посилку масиву SBUF, що складається з
SCOUNT елементів типу STYPE, процесу з номером
RCOUNT в комунікаторі COMM
Запитання 137: Множина варіантів
Процедура MPI_ALLGATHER(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, COMM, IERR) виконує:
![]()
Збірку
даних з масивів SBUF з усіх процесів в
буфері RBUF кожного процесу
![]()
Розсилку
даних з масиву SBUF процесу ROOT в масиви
RBUF всіх процесів
![]()
Розсилку
повідомлення від процесу ROOT всім процесам
даного комунікатора
![]()
Блокуючу
посилку масиву SBUF, що складається з
SCOUNT елементів типу STYPE, процесу з номером
RCOUNT в комунікаторі COMM
Запитання 138: Множина варіантів
Процедура MPI_ALLGATHERV(SBUF, SCOUNT, STYPE, RBUF, RCOUNTS, DISPLS, RTYPE, COMM, IERR) виконує:
![]()
Збірку
на всіх процесах різної кількості даних
з SBUF
![]()
Збірку
даних з масивів SBUF з усіх процесів в
буфері RBUF кожного процесу
![]()
Розсилку
даних з масиву SBUF процесу ROOT в масиви
RBUF всіх процесів
![]()
Розсилку
повідомлення від процесу ROOT всім процесам
даного комунікатора
Запитання 139: Множина варіантів
Процедура MPI_ALLTOALL(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, COMM, IERR) виконує:
![]()
Розсилку
кожним процесом різних даних всім іншим
процесам
![]()
Збірку
на всіх процесах різної кількості даних
з SBUF
![]()
Збірку
даних з масивів SBUF з усіх процесів в
буфері RBUF кожного процесу
![]()
Розсилку
даних з масиву SBUF процесу ROOT в масиви
RBUF всіх процесів
Запитання 140: Множина варіантів
При використанні процедури MPI_ALLTOALL
![]()
j-й
блок даних i-го процесу потрапляє в i-й
блок j-го процесу
![]()
j-й
блок даних i-го процесу потрапляє в j-й
блок i-го процесу
![]()
i-й
блок даних i-го процесу потрапляє в i-й
блок i-го процесу
![]()
j-й
блок даних j-го процесу потрапляє в i-й
блок i-го процесу
Запитання 141: Множина варіантів
Процедура MPI_ALLTOALLV(SBUF, SCOUNTS, SDISPLS, STYPE, RBUF, RCOUNTS, RDISPLS, RTYPE, COMM, IERR) виконує:
![]()
Розсилку
з усіх процесів різної кількості даних
всім іншим процесам
![]()
Збірку
на всіх процесах різної кількості даних
з SBUF
![]()
Збірку
даних з масивів SBUF з усіх процесів в
буфері RBUF кожного процесу
![]()
Розсилку
даних з масиву SBUF процесу ROOT в масиви
RBUF всіх процесів
Запитання 142: Множина варіантів
Процедура MPI_REDUCE(SBUF, RBUF, COUNT, DATATYPE, OP, ROOT, COMM, IERR) виконує:
![]()
Виконання
COUNT незалежних глобальних операцій OP
над відповідними елементами масивів
SBUF
![]()
Розсилку
з усіх процесів різної кількості даних
всім іншим процесам
![]()
Збірку
даних з масивів SBUF з усіх процесів в
буфері RBUF кожного процесу
![]()
Розсилку
даних з масиву SBUF процесу ROOT в масиви
RBUF всіх процесів
Запитання 143: Множина варіантів
MPI є найбільш поширеним стандартом інтерфейсу обміну даними в
![]()
Паралельному
програмуванні
![]()
Послідовному
програмуванні
![]()
Логічному
програмуванні
![]()
Спортивному
програмуванні
Запитання 144: Множина варіантів
Основним засобом комунікації між процесами в MPI є
![]()
Передача
повідомлень
![]()
Використання
сокетів
![]()
Створення
виділених ліній зв’язку
![]()
Синхронізація
Запитання 145: Множина варіантів
Перша версія MPI вийшла в
![]()
1994
р
![]()
1990
р
![]()
1989
р
![]()
2000
р
![]()
2008
р
Запитання 146: Множина варіантів
Версія MPI 2.1 вийшла в
![]()
2008
р
![]()
2006
р
![]()
2010
р
![]()
2000
р
Запитання 147: Відповідність (графічне)
Вкажіть, які з реалізацій MPI є безкоштовними, а які комерційними:
|
|
A. Безкоштовна B. Комерційна |
Запитання 148: Множина варіантів
Однією з найпоширеніших реалізацій стандарту MPI є
![]()
MPICH
![]()
MPI/PRO
![]()
Mvapich
![]()
Oracle
HPC ClusterTools
Запитання 149: Множинна відповідь
До переваг пакету MPICH можна віднести:
![]()
майже
абсолютну кросплатформість
![]()
те,
що він розповсюджується в початкових
кодах і збирається на місці, з урахуванням
особливостей конкретних платформи і
середовища комуні
![]()
використання
розширеного набору процедур
![]()
збільшену
швидкодію
![]()
легкість
установки та використання
Запитання 150: Відповідність (графічне)
Встановіть співвідношення між функціями та діями, що вони виконують:
|
|
A. Ініціалізація паралельної частини програми B. Завершення паралельної частини додатку C. Ініціалізація відкладеного запиту на виконання операції обміну D. Передача даних |
Запитання 151: Відповідність (графічне)
Встановіть співвідношення між функціями та діями, що вони виконують:
|
|
A. Визначення числа вже прийнятих елементів повідомлення B. Отримання інформації про структуру очікуваного повідомлення C. Перевірка завершення асинхронної операції |
Запитання 152: Відповідність (графічне)
Встановіть співвідношення між функціями та діями, що вони виконують:
|
|
A. Виконання прийому і передачі повідомлень з блокуванням B. Розсилка кожним процесом різних даних всім іншим процесам C. Розсилка з усіх процесів різної кількості даних всім іншим процесам D. Суміщений прийом і передача повідомлень з блокуванням через загальний буфер |
Запитання 153: Відповідність (графічне)
Вкажіть, які з наведених процедур є процедурами з блокуванням, а які без блокування:
|
|
A. З блокуванням B. Без блокування |
Запитання 154: Відповідність (графічне)
Вкажіть, які процеси містять наведені комунікатори:
|
|
A. Усі процеси B. Поточний процес C. Не містить жодного процесу |
Запитання 155: Відповідність (графічне)
Встановіть співвідношення між функціями та діями, що вони виконують:
|
|
A. Визначення загального числа паралельних процесів в групі B. Визначення номера процесу в групі C. Неблокуюча передача повідомлення D. Блокуюча передача повідомлення |
Запитання 156: Множинна відповідь
Повідомлення MPI складається з наступних частин:
![]()
Дані
![]()
Конверт
![]()
Заголовок
![]()
Завершення
![]()
Контрольна
сума
![]()
Прапорці
Запитання 157: Множина варіантів
Для оприділення робочої директорії використовується наступний параметр команди mpirun:
![]()
–wd
![]()
–dir
![]()
–d
![]()
–h
Запитання 158: Множина варіантів
Параметр –h команди mpirun використовується для:
![]()
Виведення
підказки по параметрах команди
![]()
Оприділення
робочої директорії
![]()
Задання
кількості процесорів
![]()
Вказання
списку хостів, на яких буде виконуватися
програма
Запитання 159: Множина варіантів
Загальний синтаксис команди mpirun виглядає наступним чином:
![]()
mpirun
[параметри mpirun] <ім’я програми> [
вхідні параметри програми ]
![]()
mpirun
<ім’я програми> [параметри mpirun] [
вхідні параметри програми ]
![]()
mpirun
<ім’я програми> [ вхідні параметри
програми ] [параметри mpirun]
![]()
mpirun
[параметри mpirun] [ вхідні параметри
програми ] <ім’я програми>
Запитання 160: Множина варіантів
Яким чином запустити на виконання програму “test” так, щоб вона виконувалася на чотирьох процесорах?
![]()
mpirun
-np 4 test
![]()
mpirun
-N 4 test
![]()
mpirun
test -np 4
![]()
mpirun
- 4 test
Запитання 161: Множинна відповідь
Для задання списку хостів, на яких буде виконуватися програма можуть використовуватися наступні параметри команди mpirun:
![]()
–hostfile
![]()
–machinefile
![]()
–runfile
![]()
–run
![]()
–hosts
![]()
–h
Запитання 162: Множина варіантів
Параметр –d команди mpirun використовується для:
![]()
Запуску
програми в режимі відладки
![]()
Оприділення
робочої директорії
![]()
Отримання
довідки
![]()
Задання
кількості процесорів, на яких буде
виконуватися програма
Запитання 163: Множинна відповідь
Які з наведених параметрів команди mpirun використовуються для запуску програми в режимі відладки:
![]()
–d
![]()
--debug
![]()
–debugger
![]()
–db
![]()
--dbr
![]()
-v
Запитання 164: Множина варіантів
Чому на початку MPI програми поаинна стояти директива include ‘mpif.h’?
![]()
Весь
опис інтерфейсу MPI зібрано в файлі
mpif.h’
![]()
Назви
констант MPI будуть записуватися в
нижньому регістрі
![]()
Будуть
усунені конфлікти з об’єктами MPI
![]()
Будуть
доступні додаткові можливості MPI
Запитання 165: Множина варіантів
В які версії стандарту MPI появилася можливість знищення існуючих процесів?
![]()
Версія
2.0
![]()
Версія
1.0
![]()
Версія
1.1
![]()
Версія
1.2
Запитання 166: Множина варіантів
Окреме середовище для спілкування групи процесів називається:
![]()
Комунікатор
![]()
Адресний
простір
![]()
Процесорний
модуль
![]()
Концентратор
