stringtranslate.com

IBM Blue Gene

Иерархия процессорных блоков Blue Gene

Blue Gene — проект IBM , направленный на разработку суперкомпьютеров, способных достигать рабочих скоростей в диапазоне петафлопс (ПФЛОПС) при относительно низком энергопотреблении.

В ходе проекта было создано три поколения суперкомпьютеров: Blue Gene/L , Blue Gene/P и Blue Gene/Q . Во время своего развертывания системы Blue Gene часто возглавляли рейтинги TOP500 [1] и Green500 [2] самых мощных и самых энергоэффективных суперкомпьютеров соответственно. Системы Blue Gene также постоянно занимали верхние позиции в списке Graph500 . [3] Проект был награжден Национальной медалью за технологии и инновации 2009 года . [4]

После Blue Gene/Q IBM сосредоточила свои усилия по созданию суперкомпьютеров на платформе OpenPower , используя ускорители, такие как ПЛИС и графические процессоры, для решения проблемы убывающей доходности закона Мура . [5] [6]

История

Видеопрезентация истории и технологий проекта Blue Gene была представлена ​​на конференции Supercomputing 2020. [7]

В декабре 1999 года IBM объявила о исследовательской инициативе стоимостью 100 миллионов долларов США на пятилетние усилия по созданию массивно- параллельного компьютера , который будет применяться для изучения биомолекулярных явлений, таких как сворачивание белков . [8] Исследования и разработки проводились большой междисциплинарной группой в исследовательском центре IBM TJ Watson , первоначально возглавляемой Уильямом Р. Пуллиблэнком . [9] Проект имел две основные цели: углубить понимание механизмов, лежащих в основе сворачивания белков, с помощью крупномасштабного моделирования и исследовать новые идеи в архитектуре и программном обеспечении массивно-параллельных машин. Основные области исследований включали: как использовать эту новую платформу для эффективного достижения ее научных целей, как сделать такие массивно-параллельные машины более удобными в использовании и как достичь целевых показателей производительности по разумной цене с помощью новых архитектур машин.

Первоначальный дизайн Blue Gene был основан на ранней версии архитектуры Cyclops64 , разработанной Монти Денно . Параллельно Алан Гара начал работать над расширением архитектуры QCDOC в более универсальный суперкомпьютер. Министерство энергетики США начало финансировать разработку этой системы, и она стала известна как Blue Gene/L (L для Light). Разработка оригинальной архитектуры Blue Gene продолжилась под названием Blue Gene/C (C для Cyclops) и, позднее, Cyclops64.

Архитектура и проектирование логики микросхем для систем Blue Gene были выполнены в исследовательском центре IBM TJ Watson , проектирование микросхем было завершено и изготовлено компанией IBM Microelectronics , а сами системы были построены на заводе IBM в Рочестере, штат Миннесота .

В ноябре 2004 года 16- стоечная система, в каждой из которых находилось 1024 вычислительных узла, заняла первое место в списке TOP500 с производительностью LINPACK в 70,72 TFLOPS. [1] Таким образом, она обогнала Earth Simulator от NEC , который носил титул самого быстрого компьютера в мире с 2002 года. С 2004 по 2007 год установка Blue Gene/L в LLNL [10] постепенно расширялась до 104 стоек, достигнув 478 TFLOPS Linpack и 596 TFLOPS пиковой. Установка LLNL BlueGene/L удерживала первую позицию в списке TOP500 в течение 3,5 лет, пока в июне 2008 года ее не обогнала система IBM's Cell-based Roadrunner в Лос-Аламосской национальной лаборатории , которая стала первой системой, преодолевшей отметку в 1 PetaFLOPS.

Хотя установка LLNL была крупнейшей установкой Blue Gene/L, за ней последовало множество более мелких установок. В списке TOP500 за ноябрь 2006 года было указано 27 компьютеров с архитектурой eServer Blue Gene Solution . Например, три стойки Blue Gene/L были размещены в суперкомпьютерном центре Сан-Диего .

В то время как TOP500 измеряет производительность на одном тестовом приложении Linpack, Blue Gene/L также установил рекорды производительности на более широком наборе приложений. Blue Gene/L был первым суперкомпьютером, когда-либо работавшим на скорости более 100  TFLOPS, поддерживаемой на реальном приложении, а именно трехмерном коде молекулярной динамики (ddcMD), моделирующем затвердевание (процессы зарождения и роста) расплавленного металла в условиях высокого давления и температуры. Это достижение принесло ему премию Гордона Белла 2005 года .

В июне 2006 года NNSA и IBM объявили, что Blue Gene/L достигла 207,3 TFLOPS в квантово-химическом приложении ( Qbox ). [11] На Supercomputing 2006 [12] Blue Gene/L была удостоена приза победителя во всех классах наград HPC Challenge. [13] В 2007 году команда из исследовательского центра IBM Almaden и Университета Невады запустила искусственную нейронную сеть, почти вдвое менее сложную, чем мозг мыши, в течение эквивалента секунды (сеть работала на 1/10 от нормальной скорости в течение 10 секунд). [14]

Имя

Название Blue Gene происходит от того, для чего он изначально был разработан, чтобы помогать биологам понимать процессы сворачивания белка и развития генов . [15] «Blue» — традиционное прозвище, которое IBM использует для многих своих продуктов и самой компании . Первоначальный дизайн Blue Gene был переименован в «Blue Gene/C» и в конечном итоге в Cyclops64 . «L» в Blue Gene/L происходит от «Light», поскольку изначальное название этого дизайна было «Blue Light». Версия «P» была разработана как дизайн петахапскул . «Q» — это просто буква после «P». [16]

Основные характеристики

Суперкомпьютер Blue Gene/L был уникален в следующих аспектах: [17]

Архитектура

Архитектура Blue Gene/L была развитием архитектур QCDSP и QCDOC . Каждый узел Blue Gene/L Compute или I/O представлял собой одну ASIC с соответствующими чипами памяти DRAM . ASIC интегрировала два встроенных процессора PowerPC 440 с частотой 700 МГц , каждый с двухконвейерным модулем двойной точности с плавающей точкой (FPU), подсистемой кэша со встроенным контроллером DRAM и логикой для поддержки нескольких подсистем связи. Двойные FPU давали каждому узлу Blue Gene/L теоретическую пиковую производительность 5,6  GFLOPS (гигаФЛОПС) . Два ЦП не были когерентны по кэшу друг с другом.

Вычислительные узлы были упакованы по два на вычислительную карту, с 16 вычислительными картами (таким образом, 32 узла) плюс до 2 узлов ввода-вывода на узловую плату. Шкаф/стойка содержали 32 узловые платы. [18] Благодаря интеграции всех основных подсистем на одном чипе и использованию маломощной логики каждый вычислительный или узел ввода-вывода рассеивал около 17 Вт (включая DRAM). Низкая мощность на узел позволяла агрессивно упаковывать до 1024 вычислительных узлов, плюс дополнительные узлы ввода-вывода, в стандартной 19-дюймовой стойке , в разумных пределах по электропитанию и воздушному охлаждению. Метрики производительности системы, с точки зрения FLOPS на ватт , FLOPS на м 2 площади пола и FLOPS на единицу стоимости, позволяли масштабировать до очень высокой производительности. При таком количестве узлов отказы компонентов были неизбежны. Система смогла электрически изолировать неисправные компоненты с точностью до половины стойки (512 вычислительных узлов), что позволило машине продолжить работу.

Каждый узел Blue Gene/L был подключен к трем параллельным сетям связи: 3D тороидальной сети для одноранговой связи между вычислительными узлами, коллективной сети для коллективной связи (трансляции и операции сокращения) и глобальной сети прерываний для быстрых барьеров . Узлы ввода-вывода, работающие под управлением операционной системы Linux , обеспечивали связь с хранилищем и внешними хостами через сеть Ethernet . Узлы ввода-вывода обрабатывали операции файловой системы от имени вычислительных узлов. Отдельная и частная сеть управления Ethernet обеспечивала доступ к любому узлу для настройки, загрузки и диагностики.

Чтобы разрешить одновременный запуск нескольких программ, система Blue Gene/L могла быть разделена на электронно изолированные наборы узлов. Количество узлов в разделе должно было быть положительным целым числом, степенью 2, с не менее чем 2 5 = 32 узлами. Чтобы запустить программу на Blue Gene/L, сначала нужно было зарезервировать раздел компьютера. Затем программа загружалась и запускалась на всех узлах в разделе, и никакая другая программа не могла получить доступ к узлам в разделе, пока он использовался. После завершения узлы раздела освобождались для использования будущими программами.

Вычислительные узлы Blue Gene/L использовали минимальную операционную систему, поддерживающую одну пользовательскую программу. Поддерживалось только подмножество вызовов POSIX , и только один процесс мог выполняться одновременно на узле в режиме сопроцессора — или один процесс на ЦП в виртуальном режиме. Программистам требовалось реализовать зеленые потоки для имитации локального параллелизма. Разработка приложений обычно выполнялась на C , C++ или Fortran с использованием MPI для связи. Однако некоторые языки сценариев, такие как Ruby [19] и Python [20], были перенесены на вычислительные узлы.

IBM опубликовала BlueMatter, приложение, разработанное для реализации Blue Gene/L, как открытый исходный код. [21] Это служит для документирования того, как тор и коллективные интерфейсы использовались приложениями, и может служить основой для других для реализации текущего поколения суперкомпьютеров.

Синий Ген/P

Карта узла Blue Gene/P
Схематический обзор суперкомпьютера Blue Gene/P

В июне 2007 года IBM представила Blue Gene/P , второе поколение серии суперкомпьютеров Blue Gene, разработанное в сотрудничестве с IBM, LLNL и Центром вычислений Аргоннской национальной лаборатории . [22]

Дизайн

Конструкция Blue Gene/P представляет собой технологическую эволюцию Blue Gene/L. Каждый вычислительный чип Blue Gene/P содержит четыре процессорных ядра PowerPC 450 , работающих на частоте 850 МГц. Ядра имеют когерентный кэш , и чип может работать как 4-сторонний симметричный мультипроцессор (SMP). Подсистема памяти на чипе состоит из небольших частных кэшей L2, центрального общего кэша L3 объемом 8 МБ и двух контроллеров памяти DDR2 . Чип также интегрирует логику для связи между узлами, используя те же сетевые топологии, что и Blue Gene/L, но с более чем в два раза большей пропускной способностью. Вычислительная карта содержит чип Blue Gene/P с 2 или 4 ГБ DRAM, включающий «вычислительный узел». Один вычислительный узел имеет пиковую производительность 13,6 GFLOPS. 32 вычислительные карты подключаются к плате узла с воздушным охлаждением. Стойка содержит 32 платы узла (таким образом, 1024 узла, 4096 процессорных ядер). [23] Используя множество небольших, маломощных, плотно упакованных чипов, Blue Gene/P превзошел энергоэффективность других суперкомпьютеров своего поколения, и с производительностью 371  MFLOPS/W установки Blue Gene/P заняли верхние позиции или приблизились к верхним позициям списков Green500 в 2007–2008 годах. [2]

Установки

Ниже приведен неполный список установок Blue Gene/P. По состоянию на ноябрь 2009 года список TOP500 содержал 15 установок Blue Gene/P из 2 стоек (2048 узлов, 8192 процессорных ядер, 23,86  TFLOPS Linpack ) и больше. [1]

Приложения

Синий Ген/Q

Инсталляция IBM Blue Gene/Q Mira в Аргоннской национальной лаборатории , недалеко от Чикаго, штат Иллинойс

Третья конструкция в серии Blue Gene, Blue Gene/Q , значительно расширена и улучшена на архитектурах Blue Gene/L и /P.

Дизайн

«Вычислительный чип» Blue Gene/Q основан на 64-битном процессорном ядре IBM A2 . Ядро процессора A2 является 4-потоковым одновременно многопоточным и было дополнено SIMD -векторным блоком двойной точности с плавающей точкой (IBM QPX). Каждый вычислительный чип Blue Gene/Q содержит 18 таких процессорных ядер A2, работающих на частоте 1,6 ГГц. 16 ядер используются для вычислений приложений, а 17-е ядро ​​используется для обработки вспомогательных функций операционной системы, таких как прерывания , асинхронный ввод-вывод , темп MPI и RAS . 18-е ядро ​​является избыточным производственным запасным, используемым для увеличения выхода годной продукции. Резервное ядро ​​отключается перед началом работы системы. Процессорные ядра чипа связаны перекрестным коммутатором с кэшем eDRAM L2 объемом 32 МБ, работающим на половинной скорости ядра. Кэш L2 является многоверсионным — поддерживает транзакционную память и спекулятивное выполнение — и имеет аппаратную поддержку атомарных операций . [39] Промахи кэша L2 обрабатываются двумя встроенными контроллерами памяти DDR3 , работающими на частоте 1,33 ГГц. Чип также интегрирует логику для связи между чипами в конфигурации 5D torus с пропускной способностью 2 ГБ/с между чипами. Чип Blue Gene/Q производится по медному SOI-процессу IBM на 45 нм. Он обеспечивает пиковую производительность 204,8 GFLOPS при потреблении около 55 Вт. Чип имеет размеры 19×19 мм (359,5 мм²) и содержит 1,47 миллиарда транзисторов. Завершая вычислительный узел, чип монтируется на вычислительной карте вместе с 16 ГБ DDR3 DRAM (т. е. 1 ГБ для каждого ядра пользовательского процессора). [40]

«Вычислительный ящик» Q32 [41] содержит 32 вычислительных узла, каждый с водяным охлаждением. [42] «Средняя панель» (ящик) содержит 16 вычислительных ящиков Q32, в общей сложности 512 вычислительных узлов, электрически соединенных в конфигурации 5D-тора (4x4x4x4x2). За пределами уровня средней панели все соединения являются оптическими. Стойки имеют две средние панели, таким образом, 32 вычислительных ящика, в общей сложности 1024 вычислительных узла, 16 384 пользовательских ядра и 16 ТБ ОЗУ. [42]

Отдельные отсеки ввода-вывода, размещенные в верхней части стойки или в отдельной стойке, охлаждаются воздухом и содержат 8 вычислительных карт и 8 слотов расширения PCIe для сетей InfiniBand или 10 Gigabit Ethernet . [42]

Производительность

На момент анонса системы Blue Gene/Q в ноябре 2011 года [43] первоначальная 4-стоечная система Blue Gene/Q (4096 узлов, 65536 пользовательских процессорных ядер) достигла 17-го места в списке TOP500 [1] с 677,1 ТераФЛОПС Linpack, превзойдя первоначальную 104-стоечную установку BlueGene/L 2007 года, описанную выше. Та же 4-стоечная система достигла верхней позиции в списке Graph500 [3] с более чем 250 GTEPS (гига пройденных граней в секунду ). Системы Blue Gene/Q также возглавили список Green500 самых энергоэффективных суперкомпьютеров с производительностью до 2,1  ГФЛОПС/Вт . [2]

В июне 2012 года установки Blue Gene/Q заняли верхние позиции во всех трех списках: TOP500 , [1] Graph500 [3] и Green500 . [2]

Установки

Ниже приведен неполный список установок Blue Gene/Q. По состоянию на июнь 2012 года список TOP500 содержал 20 установок Blue Gene/Q размером в 1/2 стойки (512 узлов, 8192 процессорных ядра, 86,35 TFLOPS Linpack) и больше. [1] При (независимой от размера) энергоэффективности около 2,1 GFLOPS/Вт все эти системы также заняли верхнюю позицию в списке Green 500 за июнь 2012 года . [2]

Приложения

Рекордные научные приложения были запущены на BG/Q, первом, преодолевшем рубеж в 10 петафлопс устойчивой производительности. Фреймворк космологического моделирования HACC достиг почти 14 петафлопс с 3,6 триллионами частиц в эталонном прогоне, [64] в то время как код Cardioid, [65] [66] , который моделирует электрофизиологию человеческого сердца, достиг почти 12 петафлопс с моделированием в режиме, близком к реальному времени, оба на Sequoia . Полностью сжимаемый решатель потока также достиг 14,4 ПФЛОП/с (первоначально 11 ПФЛОП/с) на Sequoia, 72% от номинальной пиковой производительности машины. [67]

Смотрите также

Ссылки

  1. ^ abcdefghi "Ноябрь 2004 г. - TOP500 Supercomputer Sites". Top500.org . Получено 13 декабря 2019 г. .
  2. ^ abcde "Green500 - TOP500 Supercomputer Sites". Green500.org . Архивировано из оригинала 26 августа 2016 года . Получено 13 октября 2017 года .
  3. ^ abc "The Graph500 List". Архивировано из оригинала 2011-12-27.
  4. ^ Харрис, Марк (18 сентября 2009 г.). «Обама чествует суперкомпьютер IBM». Techradar.com . Получено 18 сентября 2009 г.
  5. ^ "Стратегия суперкомпьютеров меняется в мире без BlueGene". Nextplatform.com . 14 апреля 2015 г. Получено 13 октября 2017 г.
  6. ^ "IBM to Build DoE's Next-Gen Coral Supercomputers - EE Times". EETimes . Архивировано из оригинала 30 апреля 2017 года . Получено 13 октября 2017 года .
  7. ^ Конференция «Суперкомпьютерные вычисления 2020», видеопрезентация премии «Испытание временем»
  8. ^ "Blue Gene: Видение науки о белках с использованием петафлопного суперкомпьютера" (PDF) . IBM Systems Journal . 40 (2). 2017-10-23.
  9. «Разговор с мозгом, стоящим за Blue Gene», BusinessWeek , 6 ноября 2001 г., архивировано из оригинала 11 декабря 2014 г.
  10. ^ "BlueGene/L". Архивировано из оригинала 2011-07-18 . Получено 2007-10-05 .
  11. ^ "hpcwire.com". Архивировано из оригинала 28 сентября 2007 г.
  12. ^ "SC06". sc06.supercomputing.org . Получено 13 октября 2017 г. .
  13. ^ "HPC Challenge Award Competition". Архивировано из оригинала 2006-12-11 . Получено 2006-12-03 .
  14. ^ "Мозг мыши смоделирован на компьютере". BBC News. 27 апреля 2007 г. Архивировано из оригинала 25-05-2007.
  15. ^ "IBM100 - Blue Gene". 03.ibm.com . 7 марта 2012 г. Архивировано из оригинала 3 апреля 2012 г. Получено 13 октября 2017 г.
  16. ^ Кункель, Джулиан М.; Людвиг, Томас; Мейер, Ганс (12 июня 2013 г.). Суперкомпьютер: 28-я Международная суперкомпьютерная конференция, ISC 2013, Лейпциг, Германия, 16-20 июня 2013 г. Труды. Springer. ISBN 9783642387500. Получено 13 октября 2017 г. – через Google Books.
  17. ^ "Blue Gene". Журнал исследований и разработок IBM . 49 (2/3). 2005.
  18. ^ Kissel, Lynn. "BlueGene/L Configuration". asc.llnl.gov . Архивировано из оригинала 17 февраля 2013 г. Получено 13 октября 2017 г.
  19. ^ "Compute Node Ruby for Bluegene/L". www.ece.iastate.edu . Архивировано из оригинала 11 февраля 2009 г.
  20. Уильям Скаллин (12 марта 2011 г.). Python для высокопроизводительных вычислений. Атланта, Джорджия.
  21. ^ Исходный код Blue Matter, получен 28 февраля 2020 г.
  22. ^ "IBM утроила производительность самого быстрого и энергоэффективного суперкомпьютера в мире". 2007-06-27. Архивировано из оригинала 8 июля 2007 года . Получено 2011-12-24 .
  23. ^ «Обзор проекта IBM Blue Gene/P». IBM Journal of Research and Development . 52 : 199–220. Январь 2008. doi :10.1147/rd.521.0199.
  24. ^ «Суперкомпьютеры: Юлих снова среди мировых лидеров». Служба новостей IDG. 12 ноября 2007 г.
  25. ^ "IBM Press room - 2009-02-10 Новый суперкомпьютер IBM Petaflop в немецком исследовательском центре в Юлихе станет самым мощным в Европе". 03.ibm.com. 2009-02-10. Архивировано из оригинала 12 февраля 2009 года . Получено 2011-03-11 .
  26. ^ "Аргоннский суперкомпьютер назван самым быстрым в мире для открытой науки, третьим в общем зачете". Mcs.anl.gov . Архивировано из оригинала 8 февраля 2009 года . Получено 13 октября 2017 года .
  27. ^ "Университет Райса и IBM объединяются для поставки первого суперкомпьютера Blue Gene в Техас". news.rice.edu . Архивировано из оригинала 2012-04-05 . Получено 2012-04-01 .
  28. ^ Вече си имаме и суперкомпьютер. Архивировано 23 декабря 2009 г. на Wayback Machine , Dir.bg, 9 сентября 2008 г.
  29. ^ "IBM Press room - 2010-02-11 IBM будет сотрудничать с ведущими австралийскими институтами, чтобы расширить границы медицинских исследований - Австралия". 03.ibm.com. 2010-02-11. Архивировано из оригинала 16 июля 2012 г. Получено 2011-03-11 .
  30. ^ "Rutgers Gets Big Data Weapon in IBM Supercomputer - Hardware -". Архивировано из оригинала 2013-03-06 . Получено 2013-09-07 .
  31. ^ "Университет Рочестера и IBM расширяют партнерство в поисках новых рубежей в здравоохранении". Медицинский центр Университета Рочестера. 11 мая 2012 г. Архивировано из оригинала 2012-05-11.
  32. ^ "IBM и Universiti Brunei Darussalam будут сотрудничать в исследовании моделирования климата". IBM News Room. 2010-10-13. Архивировано из оригинала 12 декабря 2010 года . Получено 18 октября 2012 года .
  33. ^ Ронда, Ренье Аллан. «Суперкомпьютер DOST для ученых уже в строю». Philstar.com . Получено 13 октября 2017 г. .
  34. ^ "Тренировка Топалова с суперкомпьютером Blue Gene P". Players.chessdo.com . Архивировано из оригинала 19 мая 2013 года . Получено 13 октября 2017 года .
  35. Каку, Мичио. Физика будущего (Нью-Йорк: Doubleday, 2011), 91.
  36. ^ "Project Kittyhawk: A Global-Scale Computer". Research.ibm.com . Получено 13 октября 2017 г. .
  37. ^ Аппаву, Джонатан; Улиг, Фолькмар; Ватерланд, Амос. «Проект Kittyhawk: Создание компьютера глобального масштаба» (PDF) . Yorktown Heights, NY: IBM TJ Watson Research Center. Архивировано из оригинала 2008-10-31 . Получено 2018-03-13 .{{cite web}}: CS1 maint: бот: исходный статус URL неизвестен ( ссылка )
  38. ^ "Rutgers-led Experts Assemble Global-Spanning Supercomputer Cloud". News.rutgers.edu . 2011-07-06. Архивировано из оригинала 2011-11-10 . Получено 2011-12-24 .
  39. ^ "Размышления о памяти вычислительного чипа Blue Gene/Q" . Получено 23.12.2011 .
  40. ^ "The Blue Gene/Q Compute chip" (PDF) . Архивировано из оригинала (PDF) 2015-04-29 . Получено 2011-12-23 .
  41. ^ "Суперкомпьютер IBM Blue Gene/Q обеспечивает петафлопсные вычисления для высокопроизводительных вычислительных приложений" (PDF) . 01.ibm.com . Получено 13 октября 2017 г. .
  42. ^ abc "IBM раскрывает 20 петафлопсный BlueGene/Q super". The Register . 2010-11-22 . Получено 2010-11-25 .
  43. ^ "IBM анонсирует 20-петафлопсный суперкомпьютер". Курцвейл. 18 ноября 2011 г. Получено 13 ноября 2012 г. IBM анонсировала суперкомпьютер Blue Gene/Q с пиковой производительностью 20 петафлопс.
  44. ^ Фельдман, Майкл (2009-02-03). "Lawrence Livermore Prepares for 20 Petaflop Blue Gene/Q". HPCwire. Архивировано из оригинала 2009-02-12 . Получено 2011-03-11 .
  45. ^ Б. Джонстон, Дональд (18.06.2012). "Суперкомпьютер Sequoia от NNSA признан самым быстрым в мире". Архивировано из оригинала 02.09.2014 . Получено 23.06.2012 .
  46. ^ "TOP500 Press Release". Архивировано из оригинала 24 июня 2012 года.
  47. ^ "MIRA: Самый быстрый суперкомпьютер в мире - Argonne Leadership Computing Facility". Alcf.anl.gov . Получено 13 октября 2017 г. .
  48. ^ "Mira - Argonne Leadership Computing Facility". Alcf.anl.gov . Получено 13 октября 2017 г. .
  49. ^ "Vulcan—выведен из эксплуатации". hpc.llnl.gov . Получено 10 апреля 2019 г. .
  50. ^ "HPC Innovation Center". hpcinnovationcenter.llnl.gov . Получено 13 октября 2017 г. .
  51. ^ «Vulcan Лоуренса Ливермора обеспечивает вычислительную мощность в 5 петафлопс для сотрудничества с промышленностью и академическими кругами в целях развития науки и технологий». Llnl.gov . 11 июня 2013 г. Архивировано из оригинала 9 декабря 2013 г. Получено 13 октября 2017 г.
  52. ^ "Ibm-Fermi | Scai". Архивировано из оригинала 2013-10-30 . Получено 2013-05-13 .
  53. ^ "DiRAC BlueGene/Q". epcc.ed.ac.uk .
  54. ^ "Rensselaer at Petascale: AMOS среди самых быстрых и мощных суперкомпьютеров в мире". News.rpi.edu . Получено 13 октября 2017 г.
  55. ^ Майкл Малланевар. «AMOS занимает 1-е место среди суперкомпьютеров в частных американских университетах». News.rpi.edi . Получено 13 октября 2017 г.
  56. ^ "Самый зеленый суперкомпьютер в мире прибывает в Мельбурн - The Melbourne Engineer". Themelbourneengineer.eng.unimelb.edu.au/ . 16 февраля 2012 г. Архивировано из оригинала 2 октября 2017 г. Получено 13 октября 2017 г.
  57. ^ "Melbourne Bioinformatics - Для всех исследователей и студентов, работающих в биомедицинском и бионаучном исследовательском округе Мельбурна". Melbourne Bioinformatics . Получено 13 октября 2017 г.
  58. ^ "Доступ к высокопроизводительным системам - Мельбурнская биоинформатика". Vlsci.org.au . Получено 13 октября 2017 г. .
  59. ^ "Университет Рочестера открывает новую эру исследований в области здравоохранения". Rochester.edu . Получено 13 октября 2017 г. .
  60. ^ "Ресурсы - Центр комплексных исследовательских вычислений". Circ.rochester.edu . Получено 13 октября 2017 г. .
  61. ^ "EPFL BlueGene/L Homepage". Архивировано из оригинала 2007-12-10 . Получено 2021-03-10 .
  62. ^ Utilisateur, Super. "À propos". Cadmos.org . Архивировано из оригинала 10 января 2016 года . Получено 13 октября 2017 года .
  63. ^ "A*STAR Computational Resource Centre". Acrc.a-star.edu.sg . Архивировано из оригинала 2016-12-20 . Получено 24-08-2016 .
  64. ^ S. Habib; V. Morozov; H. Finkel; A. Pope; K. Heitmann ; K. Kumaran; T. Peterka; J. Insley; D. Daniel; P. Fasel; N. Frontiere & Z. Lukic (2012). "Вселенная в экстремальных масштабах: многопетафлопсное моделирование неба на BG/Q". arXiv : 1211.4864 [cs.DC].
  65. ^ "Проект моделирования кардиоидного сердца". Researcher.watson.ibm.com . 25 июля 2016 г. Архивировано из оригинала 21 мая 2013 г. Получено 13 октября 2017 г.
  66. ^ "Venturing into the Heart of High-Performance Computing Simulations". Str.llnl.gov . Архивировано из оригинала 14 февраля 2013 года . Получено 13 октября 2017 года .
  67. ^ Россинелли, Диего; Хеджазиалхоссейни, Бабак; Хаджидукас, Панайотис; Бекас, Костас; Куриони, Алессандро; Берч, Адам; Футрал, Скотт; Шмидт, Штеффен Дж.; Адамс, Николаус А.; Кумутсакос, Петрос (17 ноября 2013 г.). "11 PFLOP/S моделирования коллапса облачной кавитации". Труды Международной конференции по высокопроизводительным вычислениям, сетевым технологиям, хранению и анализу . SC '13. стр. 1–13. doi :10.1145/2503210.2504565. ISBN 9781450323789. S2CID  12651650.

Внешние ссылки