Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
PRO-lectons.doc
Скачиваний:
67
Добавлен:
09.11.2018
Размер:
4.38 Mб
Скачать

[Ред.]Спеціальні паралельні комп'ютери

У галузі паралельних обчислень є спеціальні паралельні пристрої, що займають свої ніші. І хоча вони не є предметно-орієнтованими, та все ж вони зазвичай застосовуються лише для певних класів паралельних задач.

Обчислення загального призначення на графічних співпроцесорах (GPGPU)

Детальніше: GPGPU

Відеокарта Nvidia Tesla

Загальні обчислення на графічних процесорах це порівняно нова тенденція в комп'ютерній інженерії. Графічні процесори — допоміжні процесори, що були сильно оптимізовані для обчислень комп'ютерної графіки.[32] Очислення в комп'ютерній графіці це галузь, в якій панує паралелізм даних, зокрема операції з матрицями в лінійній алгебрі.

На початку, відеокарти використовували графічні API для виконання свої програм. Щоправда тепер з'явилось кілька нових мов програмування та платформ збудованих для виконання обчислень загального призначення на відеокартах як на середовищах CUDA для Nvidia так і наCMT для AMD. Іншими мовами для загальних обчислень на відеокартах є BrookGPUPeakStream, та RapidMind. Nvidia також випустила спеціальні засоби для обчислень на своїх відеокартах серії Tesla.

Це незавершена стаття про комп'ютери. Ви можете допомогти проекту, виправивши або дописавши її.

[Ред.]Посилання

  • Використано матеріали зі статті в англійській Вікіпедії.

  1.  Almasi, G.S. and A. Gottlieb (1989). Highly Parallel Computing. Benjamin-Cummings publishers, Redwood City, CA.

  2.  S.V. Adve et al. (Листопад 2008). "Parallel Computing Research at Illinois: The UPCRC Agenda" (PDF). Parallel@Illinois, University of Illinois at Urbana-Champaign. "Основні технології збільшення продуктивності обчислень — збільшення частоти тактового генератора, та хитріші, проте відповідно набагато складніші архітектури, сьогодні стикаються з так званою стіною потужності. Комп'ютерна промисловість прийняла факт, що майбутні зростання продуктивності обчислень будуть пов'язані зі зростанням кількості процесорів (чи ядер), аніж зі спробами змусити одне ядро працювати швидше.

  3.  Asanovic et al. Старий принцип економії: Електрика безплатна, транзистори дорогі. Новий принцип економії: електрика дорога, але транзистори «безплатні».

  4.  Asanovic, Krste et al. (Грудень 18, 2006). "The Landscape of Parallel Computing Research: A View from Berkeley" (PDF). University of California, Berkeley. Technical Report No. UCB/EECS-2006-183. „Старий принцип вирішення проблем: Збільшення тактової частоти — основний метод покращення продуктивності. Новий принцип: Збільшення паралелізму це основний метод збільшення продуктивності процесора… Навіть представники Intel, компанії, що зазвичай асоціюється з позицією — «чим більша частота тим краще», попереджують, що традиційні підходи до збільшення продуктивності через збільшення тактової частоти досягли своєї межі.“

  5.  Patterson, David A. and John L. Hennessy (1998). Computer Organization and Design, Second Edition, Morgan Kaufmann Publishers, p. 715.ISBN 1-55860-428-6.

  6. ↑ а б Barney, Blaise. «Introduction to Parallel Computing». Lawrence Livermore National Laboratory. Процитовано 2007-11-09.

  7.  Hennessy, John L. and David A. Patterson (2002). Computer Architecture: A Quantitative Approach. 3rd edition, Morgan Kaufmann, p. 43. ISBN 1-55860-724-2.

  8.  Rabaey, J. M. (1996). Digital Integrated Circuits. Prentice Hall, p. 235. ISBN 0-13-178609-1.

  9.  Flynn, Laurie J. "Intel Halts Development of 2 New Microprocessors"The New York Times, May 8, 2004. Retrieved on April 22, 2008.

  10.  Moore, Gordon E. (1965). «Cramming more components onto integrated circuits» (PDF). Electronics Magazine. ст. 4. Процитовано 2006-11-11.

  11.  Amdahl, G. (April 1967) «The validity of the single processor approach to achieving large-scale computing capabilities». In Proceedings of AFIPS Spring Joint Computer Conference, Atlantic City, N.J., AFIPS Press, pp. 483-85.

  12.  Brooks, Frederick P. Jr. The Mythical Man-Month: Essays on Software Engineering. Chapter 2 — The Mythical Man Month. ISBN 0-201-83595-9

  13.  Reevaluating Amdahl's Law (1988). Communications of the ACM 31(5), pp. 532-33.

  14.  Bernstein, A. J. (October 1966). «Program Analysis for Parallel Processing,' IEEE Trans. on Electronic Computers». EC-15, pp. 757-62.

  15.  Roosta, Seyed H. (2000). «Parallel processing and parallel algorithms: theory and computation». Springer, p. 114. ISBN 0-387-98716-9.

  16.  Lamport, Leslie (September 1979). «How to Make a Multiprocessor Computer That Correctly Executes Multiprocess Programs», IEEE Transactions on Computers, C-28,9, pp. 690-91.

  17.  Patterson and Hennessy, p. 748.

  18.  Culler, David E.; Jaswinder Pal Singh and Anoop Gupta (1999). Parallel Computer Architecture — A Hardware/Software Approach. Morgan Kaufmann Publishers, p. 15. ISBN 1-55860-343-3.

  19.  Culler et al. p. 15.

  20.  Patt, Yale (April 2004). The Microprocessor Ten Years From Now: What Are The Challenges, How Do We Meet Them? (wmv). Distinguished Lecturer talk at Carnegie Mellon University. Retrieved on November 7, 2007.

  21. ↑ а б Culler et al. p. 124.

  22. ↑ а б Culler et al. p. 125.

  23. ↑ а б Patterson and Hennessy, p. 713.

  24. ↑ а б Hennessy and Patterson, p. 549.

  25.  Patterson and Hennessy, p. 714.

  26.  What is clustering? Webopedia computer dictionary.

  27.  Beowulf definition. PC Magazine

  28.  Architecture share for 06/2007. TOP500 Supercomputing Sites. Clusters make up 74.60% of the machines on the list. Retrieved on November 7, 2007.

  29.  Hennessy and Patterson, p. 537.

  30.  MPP Definition. PC Magazine. Retrieved on November 7, 2007.

  31.  Kirkpatrick, Scott (January 31, 2003). «Computer Science: Rough Times Ahead». Science, Vol. 299. No. 5607, pp. 668 — 669. DOI: 10.1126/science.1081623

  32.  Boggan, Sha'Kia and Daniel M. Pressel (August 2007). GPUs: An Emerging Platform for General-Purpose Computation (PDF). ARL-SR-154, U.S. Army Research Lab. Retrieved on November 7, 2007.

[сховати]п • о • рПаралельні обчислення

Загальне

Високошвидкісні обчислення · Кластер · Розподілені обчислення · Ґрід

Рівні паралелізму

Bit · Instruction · Data · Task

Ниті

Super-threading · Hyper-threading

Теорія

Закон Амдала · Закон Густафсона · Цінова ефективність · Метрика Карпа-Флатта · Гальма · Speedup

Елементи

Процес · Нить · Волокно · PRAM

Координація

Багатозадачність · Багатонитевість · Когеренція пам'яті · Когеренція кеша · Семафор · М'ютекс · Критична секція · Ф'ютекс ·Бар'єр · Синхронізація · Контрольні точки · Обмін повідомленнями

Програмування

Моделі (Неявний паралелізм · Явний паралелізм · Паралелізм· Таксономія Флінна (SISD • SIMD • MISD • MIMD)

Апаратне забезпечення

Багатопроцесорність (Симетрична · Несиметрична· Пам'ять (NUMA · COMA · distributed · shared · distributed shared· SMT

Масово-паралельна архітектура · Суперскалярність · Векторний процесор · Суперкомп'ютер · Beowulf

API

POSIX Threads · OpenMP · MPI · UPC · Intel Threading Building Blocks · Boost.Thread · Global Arrays · Charm++ · Cilk

Проблеми

Приголомшлива паралельність · Великий Виклик · Програмне блокування  · Масштабовність  · Стан гонитви  · Взаємне блокування  · Детермінований алгоритм

КатегоріїНезавершені статті про комп'юте

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]