
- •Isbn 978-601-217-247-8
- •Есептеу машиналары
- •§1.1.1 Параллель виртуалды машиналар
- •1 Сурет. Vm/sp, vм/ха, vn/еsа машиналары
- •2 Сурет. Виртуалды машина жүйесі
- •3 Сурет. VMware терезесі
- •4 Сурет. Бір компьютерде бірнеше операциялық жүйе
- •5 Сурет. Вм консолынің мысалы
- •6 Сурет. Виртуалды машиналар жүйесінің архитектурасы
- •§1.1.2 Виртуалды машиналардың түрлері
- •§1.1.3 Виртуаландыру - ақпараттық жүйелерді реттеудің басты жолы
- •§1.2.1 Компьютердің аппараттық құрылымын жетілдіру
- •7 Сурет. Бір операцияны бес тактіде орындайтын тізбекті құрылғының
- •8 Сурет. Бір операцияны әрбірі бес тактіде орындайтын екі бірдей тізбекті
- •10 Сурет. Конвейерлік құрылғы өнімділігінің кіріс деректер
- •11 Сурет. Illiac IV матрицалық жүйесінің жобасы
- •§1.2.2 Компьютерді басқарудың интеллектуалдығын жоғарылату
- •12 Сурет. Ортақ жадылы параллель компьютерлер
- •13 Сурет. Таратылған жадылы параллель компьютерлер
- •14 Сурет. Ортақ шиналы мультипроцессорлық жүйе.
- •15 Сурет. Матрицалық коммутаторлардағы
- •16 Сурет. Омега - желі мультипроцессорлық жүйесі.
- •17 Сурет. Мультикомпьютерлерлік жүйелер байланыс топологияларымен: а – сызықша; б – дөңгелек; в – жұлдызша
- •18 Сурет. Процессорлардың байланыс топологияларының нұсқалары
- •19 Сурет. Сm* есептеу жүйесінің сызбасы
- •20 Сурет. Bbn Butterfly есептеу жүйесінің сызбасы
- •§1.2.3 Функционалды құрылғылар жүйесі
- •§1.3.1 Параллель компьютерлер және жүйелер классификациясы
- •21 Сурет. М. Флин классификациясының sisd және simd кластары
- •22 Сурет. М. Флин классификациясының misd және mimd кластары
- •23 Сурет. Mimd класына р. Хокнидың қосымша
- •§1.3.2 Векторлы-конвейерлік компьютелер
- •24 Сурет. Cray c90 компьютерінің жалпы сүлбесі
- •25 Сурет. Cray c90 компьютері жадысының бөлінуі
- •26 Сурет. Cray c90 компьютерінде векторлық операциялардың орындалуы
- •27 Сурет. Cray c90 компьютерінде векторлық операциялардың ілінісуі
- •§1.3.3 Ортақ жадылы параллель компьютерлер
- •28 Сурет. Hewlett Packard Superdome компьютері
- •29 Сурет. Hewlett Packard Superdome компьютерінің
- •§1.3.4 Таратылған жадылы есептеу жүйелері
- •30 Сурет. Cray t3e компьютерінің коммуникациялық торы
- •31 Сурет. Cray т3d/t3e компьютерлеріндегі барьерлі синхрондау
- •32 Сурет. Есептеу кластерінің жалпы схемасы
- •33 Сурет. Мвс-1000м суперкомпьютерінің құрылымы
- •34 Сурет. Коммуникациялық ортаның латенттілігі және өткізу қабілеті
- •§1.3.5 Метакомпьютинг
- •§2.1.1 Үлкен есептер және үлкен компьютерлер
- •35 Сурет. Сандық эксперименттің этаптары
- •§ 2.1.2 Алгоритм графы және параллель есептеулер
- •§ 2.1.3 Шексіз параллелділік концепциясы
- •§ 2.1.4 Ішкі параллельділік
- •37 Сурет. Матрицаларды көбейту графы
- •38 Сурет. Үшбұрышты жүйелерге арналған графтар
- •39 Сурет. Блокты-екідиагоналды жүйеге арналған Макрограф
- •40 Сурет. Блокты-екідиагоналды жүйеге арналған граф
- •41 Сурет. Жалпыланған пралллель форманың ярустары
- •42 Сурет. Графтағы микро және макропараллельділік
- •§2.2.1 Дәстүрлі тізбекті тілдерді пайдалану.
- •§2.2.2 OpenMp бағдарламалау технологиясы
- •44 Сурет. ОреnМр: бағдарламаның орындалу процесі
- •§2.2.3 Хабарлама жіберу негізіндегі бағдарламалау жүйелері. Mpi бағдарламалау жүйесі
- •Int mpi_Comm_rank(mpi_Comm comm, int *rank)
- •Int mpi_Send(void *buf, int count, mpi_Datatype datatype, int dest, int msgtag, mpi_Comm comm)
- •Integer count, datatype, dest, msgtag, comm, request, ierr
- •Int mpi_Isend(void *buf, int count, mpi_Datatype datatype, int dest, int msgtag, mpi_Comm comm, mpi_Request *request)
- •Int mpi_Irecv(void *buf, int count, mpi_Datatype datatype, int source, int msgtag, mpi_Comm comm, mpi_Request *request)
- •Integer count, datatype, source, msgtag, comm, request, ierr
- •Int main(argc,argv)
- •Int argc;
- •Include 'mpif.H’
- •Integer ierr, rank, size, prev, next, reqs(4), buf(2)
- •Integer stats(mpi_status_size, 4)
- •Int mpi_Waitany( int count, mpi_Request *requests, int *index, mpi_Status *status)
- •Integer count, requests(*), index, status(mpi_status_size), ierr
- •Int mpi_Waitsome( int incount, mpi_Request *requests, int *outcount, int *indexes, mpi_Status *statuses)
- •Integer incount, requests(*), outcount, indexes(*), ierr,
- •Int mpi_Test(mpi_Request *request, int *flag, mpi_Status *status)
- •Integer request, ierr, status(mpi_status_size)
- •Int mpi_Testall( int count, mpi_Request *requests, int *flag, mpi_Status *statuses)
- •Integer count, requests(*), statuses(mpi_status_size,*), ierr
- •Int mpi_Testany(int count, mpi_Request *requests, int *index, int *flag, mpi_Status *status)
- •Integer count, requests(*), index, status(mpi_status_size), ierr
- •Int mpi_Testsome( int incount, mpi_Request *requests, int *outcount, int *indexes, mpi_Status *statuses)
- •Integer incount, requests(*), outcount, indexes(*), ierr,
- •Int mpi_Iprobe( int source, int msgtag, mpi_Comm comm, int *flag, mpi_Status *status)
- •Include 'mpif.H’
- •Integer ierr, rank, size, n, nl, I, j
- •Integer irr, status(mpi_status_size), req(maxproc*2)
- •If(ir .Ne. Rank)
- •Int mpi_Send_init( void *buf, int count, mpi_Datatype datatype, int dest, int msgtag, mpi_Comm comm, mpi_Request *request)
- •Integer count, datatype, dest, msgtag, comm, request, ierr
- •Int mpi_Recv_init( void *buf, int count, mpi_Datatype datatype, int source, int msgtag, mpi_Comm comm, mpi_Request *request)
- •Integer count, datatype, source, msgtag, comm, request, ierr
- •Integer сомм, ierr
- •Include 'mpif.H’
- •Integer ibuf(maxproc)
- •Integer req(2*maxproc), statuses(mpi_status_size, maxproc)
- •Integer count, datatype, root, comm, ierr
- •Integer scount, stype, rcount, rtype, root, comm, ierr
- •Integer scount, stype, rcounts(*), displs(*), rtype, root, comm, ierr
- •Integer scount, stype, rcount, rtype, root, comm, ierr
- •Int mpi_Bcast(void *buf, int count, mpi_Datatype datatype, int source, mpi_Comm comm)
- •Int mpi_Gather( void *sbuf, int scount, mpi_Datatype stype, void *rbuf, int rcount, mpi_Datatype rtype, int dest, mpi_Comm comm)
- •Int mpi_Scatter(void *sbuf, int scount, mpi_Datatype stype, void *rbuf, int rcount, mpi_Datatype rtype, int source, mpi_Comm comm)
- •Int main(argc,argv)
- •Int argc;
- •Int numtasks, rank, sendcount, recvcount, source;
- •Int mpi_Barrier (mpi_Comm comm)
- •§ 2.2.4 Бағдарламалаудың басқа тілдері және жүйелері.
- •Параллель есептеуде қолданылатын қысқаша қазақша-орысша терминологиялық сөздік
- •Параллель есептеуде қолданылатын қысқаша орысша-қазақша терминологиялық сөздік
- •Және орта айнымалылары
- •Mpi функциялары
Int mpi_Recv_init( void *buf, int count, mpi_Datatype datatype, int source, int msgtag, mpi_Comm comm, mpi_Request *request)
out buf — хабарламаны қабылдау буферінің басталу адресі;
count — хабарламадағы қабылданған элементтер саны;
datatype — қабылданған элементтер типтері;
source — процесса-жіберушінің нөмірі;
msgtag — хабарлама идентификаторы;
comm — коммуникатор идентификаторы;
out request — асинхронды қабылдау идентификаторы.
Фортран тіліндегі нұсқасы:
MPI_RECV_INIT(BUF, COUNT, DATATYPE, SOURCE, MSGTAG, COMM, REQUEST, IERR)
<type> BUF(*)
Integer count, datatype, source, msgtag, comm, request, ierr
Хабарламаны қабылдауды орындау біріктірілген сұранысын қалыптастыру. Мұндағы барлық параметрлер дәл MPI_Irecv функциясыныкымен бірдей, бірақ одан айырмашылығы MPI_startall функциясы шақырылғанша нақты қабылдау басталмайды (Си).
MPI_Startall(int count, MPI_Request *requests)
count — ара-қатынас сұраныстарының саны;
out requests — қабылдау/жіберу идентификаторлары массиві.
Барлық қабылдау және жіберу біріктірілген операцияларын жүктеу (MPI_Recv_init, MPI_send_init функцияларымен немесе оның үш модификациясымен). Барлық біріктірілген ара-қатынастар бұғатталусыз режимде жүктеледі, ал олардың аяқталуын MPI_Wait және MPI_Test функцияларының көмегімен анықтауға болады.
Фортран тілінде:
MPI_START(REQUEST, IERR) INTEGER REQUEST, IERR
request параметрінің мәніне сәйкес келетін алмасу операциясын орындауға біріктірілген сұранысын инициалдау. Операция бұғаттаусыз сияқты жіберіледі.
MPI_STARTALL(COUNT, REQUESTS, IERR) INTEGER COUNT, REQUESTS, IERR
request массивінің алғашқы count элементтерінің мәніне сәйкес келетін алмасу операциясын орындауға count біріктірілген сұранысын инициалдау. Операция бұғаттаусыз сияқты жіберіледі (запускаются).
Бұғаттамайтын операциялардан айырмашылығы, біріктірілген сұраныс көмегімен жіберілген операцияның орындалуы соңында request (requestTS) параметрінің мәні сақталады және оны ары қарай пайдалануға да болады!
MPI_REQUEST_FREE(REQUEST, IERR) INTEGER REQUEST, IERR
Берілген процедура request параметріне байланысты деректер құрылымын жояды. Ол орындалғаннан кейін request параметрі mpi_request_null мәніне қойылады. Егер осы сұранысқа қатысты операция орындалып жатса, онда ол аяқталады.
Келесі мысалда, сақина топологиясында көрші процестермен екібағытты алмасу операцияларын орындаудың біріктірілген сұранысы инициалданады. Операциялар келесі циклдің әрбір итерациясында жіберіледі. Цикл аяқталғаннан кейін біріктірілген сұраныстар жойылады (Фортран).
prev = rank - 1
next = rank + 1
if(rank .eq. 0) prev = size - 1
if(rank .eq. size - 1) next = 0
call MPI_RECV_INIT(rbuf(1), 1, MPI_REAL, prev, 5, & MPI_COMM_WORLD, reqs(l), ierr)
call MPI_RECV_INIT(rbuf(2), 1, MPI_REAL, next, 6, & MPI_COMM_WORLD, reqs(2), ierr)
call MPI_SEND_INIT(sbuf(1), 1, MPI_REAL, prev, 6, & MPI_COMM_WORLD, reqs(3), ierr)
call MPI_SEND_INIT(sbuf(2), 1, MPI_REAL, next, 5, & MPI_COMM_WORLD, reqs(4), ierr)
do i=...
sbuf(1)=...
sbuf(2)=...
call MPI_STARTALL(4, reqs, ierr)
call MPI_WAITALL(4, reqs, stats, ierr);
...
end do
call MPI_REQUEST_FREE(reqs(1), ierr)
call MPI_REQUEST_FREE(reqs(2), ierr)
call MPI_REQUEST_FREE(reqs(3), ierr)
call MPI_REQUEST_FREE(reqs(4), ierr)
Процестердің ұжымдық ара-қатынастары
Процестердің ұжымдық ара-қатынастары операцияларында коммуникатордың барлық процестері қатысады. Сәйкес процедура өз параметрлер жиынымен әрбір процеспен шақырылуы керек. Ұжымдық ара-қатынастар процедураларынан қайтарылу, берілген операцияға процестің қатысуы аяқталған мезетте болуы мүмкін. Бұғаттайтын процедуралардағы сияқты, қайтару, қабылдау және жіберу буферіне еркін қатынас рұқсат етілді дегенді білдіреді. MPI технологиясында асинхронды ұжымдық операциялар жоқ.
Ұжымдық операцияларда, «нүкте-нүкте» түріндегі операциялар үшін пайдаланылған коммуникаторларды пайдалануға болады. Сонымен қатар MPI ұжымдық операциялармен шақырылған хабарламалардың, процестердің жеке ара-қатынасы нәтижесінде пайда болған хабарламалармен қиылыспауына және оларға ешқандай әсер етпейтініне кепілдік береді.
Жалпы ұжымдық операциялар көмегімен процестердің синхрондалуына сенім артуға болмайды (mpi_barrier процедурасынан басқасына). Егер қандай да бір процесс ұжымдық операцияда өз қатысуын аяқтаса, онда берілген операция коммуникатордың басқа процестерімен де аяқталды болмаса олармен басталды дегенді білдірмейді.
Ұжымдық операцияларда хабарлама идентификаторлары (тегтер, теги) пайдаланылмайды. Сонымен, бағдарлама текстінде пайда болуына сәйкес ұжымдық операциялар қатаң реттелген.
МРI_BARRIER(СОММ, IERR)