stringtranslate.com

IBM Blue Gene

Иерархия процессорных блоков Blue Gene

Blue Gene — проект IBM , направленный на разработку суперкомпьютеров, способных достигать рабочей скорости в диапазоне петафлопс (ПФЛОПС) при низком энергопотреблении.

В ходе проекта было создано три поколения суперкомпьютеров: Blue Gene/L , Blue Gene/P и Blue Gene/Q . Во время своего развертывания системы Blue Gene часто возглавляли рейтинги TOP500 [1] и Green500 [2] самых мощных и самых энергоэффективных суперкомпьютеров соответственно. Системы Blue Gene также постоянно занимали верхние позиции в списке Graph500 . [3] Проект был награжден Национальной медалью за технологии и инновации 2009 года . [4]

После Blue Gene/Q IBM сосредоточила свои усилия по созданию суперкомпьютеров на платформе OpenPower , используя ускорители, такие как ПЛИС и графические процессоры, для решения проблемы убывающей доходности закона Мура . [5] [6]

История

Видеопрезентация истории и технологий проекта Blue Gene была представлена ​​на конференции Supercomputing 2020. [7]

В декабре 1999 года IBM объявила о исследовательской инициативе стоимостью 100 миллионов долларов США на пятилетние усилия по созданию массивно- параллельного компьютера , который будет применяться для изучения биомолекулярных явлений, таких как сворачивание белков . [8] Исследования и разработки проводились большой междисциплинарной группой в исследовательском центре IBM TJ Watson , первоначально возглавляемой Уильямом Р. Пуллиблэнком . [9] Проект имел две основные цели: углубить понимание механизмов, лежащих в основе сворачивания белков, с помощью крупномасштабного моделирования и исследовать новые идеи в архитектуре и программном обеспечении массивно-параллельных машин. Основные области исследований включали: как использовать эту новую платформу для эффективного достижения ее научных целей, как сделать такие массивно-параллельные машины более удобными в использовании и как достичь целевых показателей производительности по разумной цене с помощью новых архитектур машин.

Первоначальный дизайн Blue Gene был основан на ранней версии архитектуры Cyclops64 , разработанной Монти Денно . Параллельно Алан Гара начал работать над расширением архитектуры QCDOC в более универсальный суперкомпьютер. Министерство энергетики США начало финансировать разработку этой системы, и она стала известна как Blue Gene/L (L для Light). Разработка оригинальной архитектуры Blue Gene продолжилась под названием Blue Gene/C (C для Cyclops) и, позднее, Cyclops64.

Архитектура и проектирование логики микросхем для систем Blue Gene были выполнены в исследовательском центре IBM TJ Watson , проектирование микросхем было завершено и изготовлено компанией IBM Microelectronics , а сами системы были построены на заводе IBM в Рочестере, штат Миннесота .

В ноябре 2004 года система из 16 стоек , каждая из которых содержала 1024 вычислительных узла, заняла первое место в списке TOP500 с производительностью LINPACK-тестов 70,72 TFLOPS. [1] Таким образом, она обогнала Earth Simulator от NEC , который носил титул самого быстрого компьютера в мире с 2002 года. С 2004 по 2007 год установка Blue Gene/L в LLNL [10] постепенно расширялась до 104 стоек, достигнув 478 TFLOPS Linpack и 596 TFLOPS пиковой. Установка LLNL BlueGene/L удерживала первую позицию в списке TOP500 в течение 3,5 лет, пока в июне 2008 года ее не обогнала система Roadrunner на базе Cell от IBM в Лос-Аламосской национальной лаборатории , которая стала первой системой, преодолевшей отметку в 1 PetaFLOPS.

Хотя установка LLNL была крупнейшей установкой Blue Gene/L, за ней последовало множество более мелких установок. В списке TOP500 за ноябрь 2006 года было указано 27 компьютеров с архитектурой eServer Blue Gene Solution . Например, три стойки Blue Gene/L были размещены в суперкомпьютерном центре Сан-Диего .

В то время как TOP500 измеряет производительность на одном тестовом приложении Linpack, Blue Gene/L также установил рекорды производительности на более широком наборе приложений. Blue Gene/L был первым суперкомпьютером, когда-либо работавшим на скорости более 100  TFLOPS, поддерживаемой на реальном приложении, а именно трехмерном молекулярно-динамическом коде (ddcMD), моделирующем затвердевание (процессы зарождения и роста) расплавленного металла в условиях высокого давления и температуры. Это достижение принесло ему премию Гордона Белла 2005 года .

В июне 2006 года NNSA и IBM объявили, что Blue Gene/L достигла 207,3 TFLOPS в квантово-химическом приложении ( Qbox ). [11] На Supercomputing 2006 [12] Blue Gene/L была удостоена приза победителя во всех классах наград HPC Challenge. [13] В 2007 году команда из исследовательского центра IBM Almaden и Университета Невады запустила искусственную нейронную сеть, почти вдвое менее сложную, чем мозг мыши, в течение эквивалента секунды (сеть работала на 1/10 от нормальной скорости в течение 10 секунд). [14]

Имя

Название Blue Gene происходит от того, для чего он изначально был разработан, чтобы помогать биологам понимать процессы сворачивания белка и развития генов . [15] «Blue» — традиционное прозвище, которое IBM использует для многих своих продуктов и самой компании . Первоначальный дизайн Blue Gene был переименован в «Blue Gene/C» и в конечном итоге в Cyclops64 . «L» в Blue Gene/L происходит от «Light», поскольку изначальное название этого дизайна было «Blue Light». Версия «P» была разработана как дизайн петахапскул . «Q» — это просто буква после «P». [16]

Основные характеристики

Суперкомпьютер Blue Gene/L был уникален в следующих аспектах: [17]

Архитектура

Архитектура Blue Gene/L была развитием архитектур QCDSP и QCDOC . Каждый узел Blue Gene/L Compute или I/O представлял собой одну ASIC с соответствующими чипами памяти DRAM . ASIC интегрировала два встроенных процессора PowerPC 440 с частотой 700 МГц , каждый с двухконвейерным модулем двойной точности с плавающей точкой (FPU), подсистемой кэша со встроенным контроллером DRAM и логикой для поддержки нескольких подсистем связи. Двойные FPU давали каждому узлу Blue Gene/L теоретическую пиковую производительность 5,6  GFLOPS (гигаФЛОПС) . Два ЦП не были когерентны по кэшу друг с другом.

Вычислительные узлы были упакованы по два на вычислительную карту, с 16 вычислительными картами (таким образом, 32 узла) плюс до 2 узлов ввода-вывода на узловую плату. Шкаф/стойка содержали 32 узловые платы. [18] Благодаря интеграции всех основных подсистем на одном чипе и использованию маломощной логики каждый вычислительный или узел ввода-вывода рассеивал около 17 Вт (включая DRAM). Низкая мощность на узел позволяла агрессивно упаковывать до 1024 вычислительных узлов, плюс дополнительные узлы ввода-вывода, в стандартной 19-дюймовой стойке , в разумных пределах по электропитанию и воздушному охлаждению. Метрики производительности системы, с точки зрения FLOPS на ватт , FLOPS на м 2 площади пола и FLOPS на единицу стоимости, позволяли масштабировать до очень высокой производительности. При таком количестве узлов отказы компонентов были неизбежны. Система смогла электрически изолировать неисправные компоненты с точностью до половины стойки (512 вычислительных узлов), что позволило машине продолжить работу.

Каждый узел Blue Gene/L был подключен к трем параллельным сетям связи: 3D тороидальной сети для одноранговой связи между вычислительными узлами, коллективной сети для коллективной связи (трансляции и операции сокращения) и глобальной сети прерываний для быстрых барьеров . Узлы ввода-вывода, работающие под управлением операционной системы Linux , обеспечивали связь с хранилищем и внешними хостами через сеть Ethernet . Узлы ввода-вывода обрабатывали операции файловой системы от имени вычислительных узлов. Отдельная и частная сеть управления Ethernet обеспечивала доступ к любому узлу для настройки, загрузки и диагностики.

Чтобы разрешить одновременный запуск нескольких программ, система Blue Gene/L могла быть разделена на электронно изолированные наборы узлов. Количество узлов в разделе должно было быть положительным целым числом, степенью 2, с не менее чем 2 5 = 32 узлами. Чтобы запустить программу на Blue Gene/L, сначала нужно было зарезервировать раздел компьютера. Затем программа загружалась и запускалась на всех узлах в разделе, и никакая другая программа не могла получить доступ к узлам в разделе, пока он использовался. После завершения узлы раздела освобождались для использования будущими программами.

Вычислительные узлы Blue Gene/L использовали минимальную операционную систему, поддерживающую одну пользовательскую программу. Поддерживалось только подмножество вызовов POSIX , и только один процесс мог выполняться одновременно на узле в режиме сопроцессора — или один процесс на ЦП в виртуальном режиме. Программистам требовалось реализовать зеленые потоки для имитации локального параллелизма. Разработка приложений обычно выполнялась на C , C++ или Fortran с использованием MPI для связи. Однако некоторые языки сценариев, такие как Ruby [19] и Python [20], были перенесены на вычислительные узлы.

IBM опубликовала BlueMatter, приложение, разработанное для реализации Blue Gene/L, как открытый исходный код. [21] Это служит для документирования того, как тор и коллективные интерфейсы использовались приложениями, и может служить основой для других для реализации текущего поколения суперкомпьютеров.

Синий Ген/P

Карта узла Blue Gene/P
Схематический обзор суперкомпьютера Blue Gene/P

В июне 2007 года IBM представила Blue Gene/P , второе поколение серии суперкомпьютеров Blue Gene, разработанное в сотрудничестве с IBM, LLNL и Центром вычислений Аргоннской национальной лаборатории . [22]

Дизайн

Конструкция Blue Gene/P представляет собой технологическую эволюцию Blue Gene/L. Каждый вычислительный чип Blue Gene/P содержит четыре процессорных ядра PowerPC 450 , работающих на частоте 850 МГц. Ядра имеют когерентный кэш , и чип может работать как 4-сторонний симметричный мультипроцессор (SMP). Подсистема памяти на чипе состоит из небольших частных кэшей L2, центрального общего кэша L3 объемом 8 МБ и двух контроллеров памяти DDR2 . Чип также интегрирует логику для связи между узлами, используя те же сетевые топологии, что и Blue Gene/L, но с более чем в два раза большей пропускной способностью. Вычислительная карта содержит чип Blue Gene/P с 2 или 4 ГБ DRAM, включающий «вычислительный узел». Один вычислительный узел имеет пиковую производительность 13,6 GFLOPS. 32 вычислительные карты подключаются к плате узла с воздушным охлаждением. Стойка содержит 32 платы узла (таким образом, 1024 узла, 4096 процессорных ядер). [23] Используя множество небольших, маломощных, плотно упакованных чипов, Blue Gene/P превзошел энергоэффективность других суперкомпьютеров своего поколения, и с производительностью 371  MFLOPS/W установки Blue Gene/P заняли верхние позиции или приблизились к верхним позициям списков Green500 в 2007–2008 годах. [2]

Установки

Ниже приведен неполный список установок Blue Gene/P. По состоянию на ноябрь 2009 года список TOP500 содержал 15 установок Blue Gene/P из 2 стоек (2048 узлов, 8192 процессорных ядер, 23,86  TFLOPS Linpack ) и больше. [1]

Приложения

Синий Ген/Q

Инсталляция IBM Blue Gene/Q Mira в Аргоннской национальной лаборатории , недалеко от Чикаго, штат Иллинойс

Третья конструкция в серии Blue Gene, Blue Gene/Q , значительно расширена и улучшена на архитектурах Blue Gene/L и /P.

Дизайн

«Вычислительный чип» Blue Gene/Q основан на 64-битном процессорном ядре IBM A2 . Ядро процессора A2 является 4-потоковым одновременно многопоточным и было дополнено SIMD -векторным блоком двойной точности с плавающей точкой (IBM QPX). Каждый вычислительный чип Blue Gene/Q содержит 18 таких процессорных ядер A2, работающих на частоте 1,6 ГГц. 16 ядер используются для вычислений приложений, а 17-е ядро ​​используется для обработки вспомогательных функций операционной системы, таких как прерывания , асинхронный ввод-вывод , темп MPI и RAS . 18-е ядро ​​является избыточным производственным запасным, используемым для увеличения выхода годной продукции. Резервное ядро ​​отключается перед началом работы системы. Процессорные ядра чипа связаны перекрестным коммутатором с кэшем eDRAM L2 объемом 32 МБ, работающим на половинной скорости ядра. Кэш L2 является многоверсионным — поддерживает транзакционную память и спекулятивное выполнение — и имеет аппаратную поддержку атомарных операций . [39] Промахи кэша L2 обрабатываются двумя встроенными контроллерами памяти DDR3 , работающими на частоте 1,33 ГГц. Чип также интегрирует логику для связи между чипами в конфигурации 5D torus с пропускной способностью 2 ГБ/с между чипами. Чип Blue Gene/Q производится по медному SOI-процессу IBM на 45 нм. Он обеспечивает пиковую производительность 204,8 GFLOPS при потреблении около 55 Вт. Чип имеет размеры 19×19 мм (359,5 мм²) и содержит 1,47 миллиарда транзисторов. Завершая вычислительный узел, чип монтируется на вычислительной карте вместе с 16 ГБ DDR3 DRAM (т. е. 1 ГБ для каждого ядра пользовательского процессора). [40]

«Вычислительный ящик» Q32 [41] содержит 32 вычислительных узла, каждый с водяным охлаждением. [42] «Средняя панель» (ящик) содержит 16 вычислительных ящиков Q32, в общей сложности 512 вычислительных узлов, электрически соединенных в конфигурации 5D-тора (4x4x4x4x2). За пределами уровня средней панели все соединения являются оптическими. Стойки имеют две средние панели, таким образом, 32 вычислительных ящика, в общей сложности 1024 вычислительных узла, 16 384 пользовательских ядра и 16 ТБ ОЗУ. [42]

Отдельные отсеки ввода-вывода, размещенные в верхней части стойки или в отдельной стойке, охлаждаются воздухом и содержат 8 вычислительных карт и 8 слотов расширения PCIe для сетей InfiniBand или 10 Gigabit Ethernet . [42]

Производительность

На момент анонса системы Blue Gene/Q в ноябре 2011 года [43] первоначальная 4-стоечная система Blue Gene/Q (4096 узлов, 65536 пользовательских процессорных ядер) достигла 17-го места в списке TOP500 [1] с 677,1 ТераФЛОПС Linpack, превзойдя первоначальную 104-стоечную установку BlueGene/L 2007 года, описанную выше. Та же 4-стоечная система достигла верхней позиции в списке Graph500 [3] с более чем 250 GTEPS (гига пройденных граней в секунду ). Системы Blue Gene/Q также возглавили список Green500 самых энергоэффективных суперкомпьютеров с производительностью до 2,1  ГФЛОПС/Вт . [2]

В июне 2012 года установки Blue Gene/Q заняли верхние позиции во всех трех списках: TOP500 , [1] Graph500 [3] и Green500 . [2]

Установки

Ниже приведен неполный список установок Blue Gene/Q. По состоянию на июнь 2012 года список TOP500 содержал 20 установок Blue Gene/Q размером в 1/2 стойки (512 узлов, 8192 процессорных ядра, 86,35 TFLOPS Linpack) и больше. [1] При (независимой от размера) энергоэффективности около 2,1 GFLOPS/Вт все эти системы также заняли верхнюю позицию в списке Green 500 за июнь 2012 года . [2]

Приложения

Рекордные научные приложения были запущены на BG/Q, первом, преодолевшем рубеж в 10 петафлопс устойчивой производительности. Фреймворк космологического моделирования HACC достиг почти 14 петафлопс с 3,6 триллионами частиц в эталонном прогоне, [64] в то время как код Cardioid, [65] [66] , который моделирует электрофизиологию человеческого сердца, достиг почти 12 петафлопс с моделированием в режиме, близком к реальному времени, оба на Sequoia . Полностью сжимаемый решатель потока также достиг 14,4 ПФЛОП/с (первоначально 11 ПФЛОП/с) на Sequoia, 72% от номинальной пиковой производительности машины. [67]

Смотрите также

Ссылки

  1. ^ abcdefghi "Ноябрь 2004 г. - TOP500 Supercomputer Sites". Top500.org . Получено 13 декабря 2019 г. .
  2. ^ abcde "Green500 - TOP500 Supercomputer Sites". Green500.org . Архивировано из оригинала 26 августа 2016 года . Получено 13 октября 2017 года .
  3. ^ abc "The Graph500 List". Архивировано из оригинала 2011-12-27.
  4. ^ Харрис, Марк (18 сентября 2009 г.). «Обама чествует суперкомпьютер IBM». Techradar.com . Получено 18 сентября 2009 г.
  5. ^ "Стратегия суперкомпьютеров меняется в мире без BlueGene". Nextplatform.com . 14 апреля 2015 г. Получено 13 октября 2017 г.
  6. ^ "IBM to Build DoE's Next-Gen Coral Supercomputers - EE Times". EETimes . Архивировано из оригинала 30 апреля 2017 года . Получено 13 октября 2017 года .
  7. ^ Конференция «Суперкомпьютерные вычисления 2020», видеопрезентация премии «Испытание временем»
  8. ^ "Blue Gene: Видение науки о белках с использованием петафлопного суперкомпьютера" (PDF) . IBM Systems Journal . 40 (2). 2017-10-23.
  9. «Разговор с мозгом, стоящим за Blue Gene», BusinessWeek , 6 ноября 2001 г., архивировано из оригинала 11 декабря 2014 г.
  10. ^ "BlueGene/L". Архивировано из оригинала 2011-07-18 . Получено 2007-10-05 .
  11. ^ "hpcwire.com". Архивировано из оригинала 28 сентября 2007 г.
  12. ^ "SC06". sc06.supercomputing.org . Получено 13 октября 2017 г. .
  13. ^ "HPC Challenge Award Competition". Архивировано из оригинала 2006-12-11 . Получено 2006-12-03 .
  14. ^ "Мозг мыши смоделирован на компьютере". BBC News. 27 апреля 2007 г. Архивировано из оригинала 25-05-2007.
  15. ^ "IBM100 - Blue Gene". 03.ibm.com . 7 марта 2012 г. Архивировано из оригинала 3 апреля 2012 г. Получено 13 октября 2017 г.
  16. ^ Кункель, Джулиан М.; Людвиг, Томас; Мейер, Ганс (12 июня 2013 г.). Суперкомпьютер: 28-я Международная суперкомпьютерная конференция, ISC 2013, Лейпциг, Германия, 16-20 июня 2013 г. Труды. Springer. ISBN 9783642387500. Получено 13 октября 2017 г. – через Google Books.
  17. ^ "Blue Gene". Журнал исследований и разработок IBM . 49 (2/3). 2005.
  18. ^ Kissel, Lynn. "BlueGene/L Configuration". asc.llnl.gov . Архивировано из оригинала 17 февраля 2013 г. Получено 13 октября 2017 г.
  19. ^ "Compute Node Ruby for Bluegene/L". www.ece.iastate.edu . Архивировано из оригинала 11 февраля 2009 г.
  20. Уильям Скаллин (12 марта 2011 г.). Python для высокопроизводительных вычислений. Атланта, Джорджия.
  21. Исходный код Blue Matter, получен 28 февраля 2020 г.
  22. ^ "IBM утроила производительность самого быстрого и энергоэффективного суперкомпьютера в мире". 2007-06-27. Архивировано из оригинала 8 июля 2007 года . Получено 2011-12-24 .
  23. ^ «Обзор проекта IBM Blue Gene/P». IBM Journal of Research and Development . 52 : 199–220. Январь 2008. doi :10.1147/rd.521.0199.
  24. ^ «Суперкомпьютеры: Юлих снова среди мировых лидеров». Служба новостей IDG. 12 ноября 2007 г.
  25. ^ "IBM Press room - 2009-02-10 Новый суперкомпьютер IBM Petaflop в немецком исследовательском центре в Юлихе станет самым мощным в Европе". 03.ibm.com. 2009-02-10. Архивировано из оригинала 12 февраля 2009 года . Получено 2011-03-11 .
  26. ^ "Аргоннский суперкомпьютер назван самым быстрым в мире для открытой науки, третьим в общем зачете". Mcs.anl.gov . Архивировано из оригинала 8 февраля 2009 года . Получено 13 октября 2017 года .
  27. ^ "Университет Райса и IBM объединяются для поставки первого суперкомпьютера Blue Gene в Техас". news.rice.edu . Архивировано из оригинала 2012-04-05 . Получено 2012-04-01 .
  28. ^ Вече си имаме и суперкомпьютер. Архивировано 23 декабря 2009 г. на Wayback Machine , Dir.bg, 9 сентября 2008 г.
  29. ^ "IBM Press room - 2010-02-11 IBM будет сотрудничать с ведущими австралийскими институтами, чтобы расширить границы медицинских исследований - Австралия". 03.ibm.com. 2010-02-11. Архивировано из оригинала 16 июля 2012 г. Получено 2011-03-11 .
  30. ^ "Rutgers Gets Big Data Weapon in IBM Supercomputer - Hardware -". Архивировано из оригинала 2013-03-06 . Получено 2013-09-07 .
  31. ^ "Университет Рочестера и IBM расширяют партнерство в поисках новых рубежей в здравоохранении". Медицинский центр Университета Рочестера. 11 мая 2012 г. Архивировано из оригинала 2012-05-11.
  32. ^ "IBM и Universiti Brunei Darussalam будут сотрудничать в исследовании моделирования климата". IBM News Room. 2010-10-13. Архивировано из оригинала 12 декабря 2010 года . Получено 18 октября 2012 года .
  33. ^ Ронда, Ренье Аллан. «Суперкомпьютер DOST для ученых уже в строю». Philstar.com . Получено 13 октября 2017 г. .
  34. ^ "Тренировка Топалова с суперкомпьютером Blue Gene P". Players.chessdo.com . Архивировано из оригинала 19 мая 2013 года . Получено 13 октября 2017 года .
  35. Каку, Мичио. Физика будущего (Нью-Йорк: Doubleday, 2011), 91.
  36. ^ "Project Kittyhawk: A Global-Scale Computer". Research.ibm.com . Получено 13 октября 2017 г. .
  37. ^ Аппаву, Джонатан; Улиг, Фолькмар; Ватерланд, Амос. «Проект Kittyhawk: Создание компьютера глобального масштаба» (PDF) . Yorktown Heights, NY: IBM TJ Watson Research Center. Архивировано из оригинала 2008-10-31 . Получено 2018-03-13 .{{cite web}}: CS1 maint: бот: исходный статус URL неизвестен ( ссылка )
  38. ^ "Rutgers-led Experts Assemble Global-Spanning Supercomputer Cloud". News.rutgers.edu . 2011-07-06. Архивировано из оригинала 2011-11-10 . Получено 2011-12-24 .
  39. ^ "Размышления о памяти вычислительного чипа Blue Gene/Q" . Получено 23.12.2011 .
  40. ^ "The Blue Gene/Q Compute chip" (PDF) . Архивировано из оригинала (PDF) 2015-04-29 . Получено 2011-12-23 .
  41. ^ "Суперкомпьютер IBM Blue Gene/Q обеспечивает петафлопсные вычисления для высокопроизводительных вычислительных приложений" (PDF) . 01.ibm.com . Получено 13 октября 2017 г. .
  42. ^ abc "IBM раскрывает 20 петафлопсный BlueGene/Q super". The Register . 2010-11-22 . Получено 2010-11-25 .
  43. ^ "IBM анонсирует 20-петафлопсный суперкомпьютер". Курцвейл. 18 ноября 2011 г. Получено 13 ноября 2012 г. IBM анонсировала суперкомпьютер Blue Gene/Q с пиковой производительностью 20 петафлопс.
  44. ^ Фельдман, Майкл (2009-02-03). "Lawrence Livermore Prepares for 20 Petaflop Blue Gene/Q". HPCwire. Архивировано из оригинала 2009-02-12 . Получено 2011-03-11 .
  45. ^ Б. Джонстон, Дональд (18.06.2012). "Суперкомпьютер Sequoia от NNSA признан самым быстрым в мире". Архивировано из оригинала 02.09.2014 . Получено 23.06.2012 .
  46. ^ "TOP500 Press Release". Архивировано из оригинала 24 июня 2012 года.
  47. ^ "MIRA: Самый быстрый суперкомпьютер в мире - Argonne Leadership Computing Facility". Alcf.anl.gov . Получено 13 октября 2017 г. .
  48. ^ "Mira - Argonne Leadership Computing Facility". Alcf.anl.gov . Получено 13 октября 2017 г. .
  49. ^ "Vulcan—выведен из эксплуатации". hpc.llnl.gov . Получено 10 апреля 2019 г. .
  50. ^ "HPC Innovation Center". hpcinnovationcenter.llnl.gov . Получено 13 октября 2017 г. .
  51. ^ «Vulcan Лоуренса Ливермора обеспечивает вычислительную мощность в 5 петафлопс для сотрудничества с промышленностью и академическими кругами в целях развития науки и технологий». Llnl.gov . 11 июня 2013 г. Архивировано из оригинала 9 декабря 2013 г. Получено 13 октября 2017 г.
  52. ^ "Ibm-Fermi | Scai". Архивировано из оригинала 2013-10-30 . Получено 2013-05-13 .
  53. ^ "DiRAC BlueGene/Q". epcc.ed.ac.uk .
  54. ^ "Rensselaer at Petascale: AMOS среди самых быстрых и мощных суперкомпьютеров в мире". News.rpi.edu . Получено 13 октября 2017 г.
  55. ^ Майкл Малланевар. «AMOS занимает 1-е место среди суперкомпьютеров в частных американских университетах». News.rpi.edi . Получено 13 октября 2017 г.
  56. ^ "Самый зеленый суперкомпьютер в мире прибывает в Мельбурн - The Melbourne Engineer". Themelbourneengineer.eng.unimelb.edu.au/ . 16 февраля 2012 г. Архивировано из оригинала 2 октября 2017 г. Получено 13 октября 2017 г.
  57. ^ "Melbourne Bioinformatics - Для всех исследователей и студентов, работающих в биомедицинском и бионаучном исследовательском округе Мельбурна". Melbourne Bioinformatics . Получено 13 октября 2017 г.
  58. ^ "Доступ к высокопроизводительным системам - Мельбурнская биоинформатика". Vlsci.org.au . Получено 13 октября 2017 г. .
  59. ^ "Университет Рочестера открывает новую эру исследований в области здравоохранения". Rochester.edu . Получено 13 октября 2017 г. .
  60. ^ "Ресурсы - Центр комплексных исследовательских вычислений". Circ.rochester.edu . Получено 13 октября 2017 г. .
  61. ^ "EPFL BlueGene/L Homepage". Архивировано из оригинала 2007-12-10 . Получено 2021-03-10 .
  62. ^ Utilisateur, Super. "À propos". Cadmos.org . Архивировано из оригинала 10 января 2016 года . Получено 13 октября 2017 года .
  63. ^ "A*STAR Computational Resource Centre". Acrc.a-star.edu.sg . Архивировано из оригинала 2016-12-20 . Получено 24-08-2016 .
  64. ^ S. Habib; V. Morozov; H. Finkel; A. Pope; K. Heitmann ; K. Kumaran; T. Peterka; J. Insley; D. Daniel; P. Fasel; N. Frontiere & Z. Lukic (2012). "Вселенная в экстремальных масштабах: многопетафлопсное моделирование неба на BG/Q". arXiv : 1211.4864 [cs.DC].
  65. ^ "Проект моделирования кардиоидного сердца". Researcher.watson.ibm.com . 25 июля 2016 г. Архивировано из оригинала 21 мая 2013 г. Получено 13 октября 2017 г.
  66. ^ "Venturing into the Heart of High-Performance Computing Simulations". Str.llnl.gov . Архивировано из оригинала 14 февраля 2013 года . Получено 13 октября 2017 года .
  67. ^ Россинелли, Диего; Хеджазиалхоссейни, Бабак; Хаджидукас, Панайотис; Бекас, Костас; Куриони, Алессандро; Берч, Адам; Футрал, Скотт; Шмидт, Штеффен Дж.; Адамс, Николаус А.; Кумутсакос, Петрос (17 ноября 2013 г.). "11 PFLOP/S моделирования коллапса облачной кавитации". Труды Международной конференции по высокопроизводительным вычислениям, сетевым технологиям, хранению и анализу . SC '13. стр. 1–13. doi :10.1145/2503210.2504565. ISBN 9781450323789. S2CID  12651650.

Внешние ссылки