Blue Gene — проект IBM , направленный на разработку суперкомпьютеров, способных достигать рабочих скоростей в диапазоне петафлопс (ПФЛОПС) при относительно низком энергопотреблении.
В ходе проекта было создано три поколения суперкомпьютеров: Blue Gene/L , Blue Gene/P и Blue Gene/Q . Во время своего развертывания системы Blue Gene часто возглавляли рейтинги TOP500 [1] и Green500 [2] самых мощных и самых энергоэффективных суперкомпьютеров соответственно. Системы Blue Gene также постоянно занимали верхние позиции в списке Graph500 . [3] Проект был награжден Национальной медалью за технологии и инновации 2009 года . [4]
После Blue Gene/Q IBM сосредоточила свои усилия по созданию суперкомпьютеров на платформе OpenPower , используя ускорители, такие как ПЛИС и графические процессоры, для решения проблемы убывающей доходности закона Мура . [5] [6]
История
Видеопрезентация истории и технологий проекта Blue Gene была представлена на конференции Supercomputing 2020. [7]
В декабре 1999 года IBM объявила о исследовательской инициативе стоимостью 100 миллионов долларов США на пятилетние усилия по созданию массивно- параллельного компьютера , который будет применяться для изучения биомолекулярных явлений, таких как сворачивание белков . [8] Исследования и разработки проводились большой междисциплинарной группой в исследовательском центре IBM TJ Watson , первоначально возглавляемой Уильямом Р. Пуллиблэнком . [9]
Проект имел две основные цели: углубить понимание механизмов, лежащих в основе сворачивания белков, с помощью крупномасштабного моделирования и исследовать новые идеи в архитектуре и программном обеспечении массивно-параллельных машин. Основные области исследований включали: как использовать эту новую платформу для эффективного достижения ее научных целей, как сделать такие массивно-параллельные машины более удобными в использовании и как достичь целевых показателей производительности по разумной цене с помощью новых архитектур машин.
Первоначальный дизайн Blue Gene был основан на ранней версии архитектуры Cyclops64 , разработанной Монти Денно . Параллельно Алан Гара начал работать над расширением архитектуры QCDOC в более универсальный суперкомпьютер. Министерство энергетики США начало финансировать разработку этой системы, и она стала известна как Blue Gene/L (L для Light). Разработка оригинальной архитектуры Blue Gene продолжилась под названием Blue Gene/C (C для Cyclops) и, позднее, Cyclops64.
В ноябре 2004 года 16- стоечная система, в каждой из которых находилось 1024 вычислительных узла, заняла первое место в списке TOP500 с производительностью LINPACK в 70,72 TFLOPS. [1] Таким образом, она обогнала Earth Simulator от NEC , который носил титул самого быстрого компьютера в мире с 2002 года. С 2004 по 2007 год установка Blue Gene/L в LLNL [10] постепенно расширялась до 104 стоек, достигнув 478 TFLOPS Linpack и 596 TFLOPS пиковой. Установка LLNL BlueGene/L удерживала первую позицию в списке TOP500 в течение 3,5 лет, пока в июне 2008 года ее не обогнала система IBM's Cell-based Roadrunner в Лос-Аламосской национальной лаборатории , которая стала первой системой, преодолевшей отметку в 1 PetaFLOPS.
Хотя установка LLNL была крупнейшей установкой Blue Gene/L, за ней последовало множество более мелких установок. В списке TOP500 за ноябрь 2006 года было указано 27 компьютеров с архитектурой eServer Blue Gene Solution . Например, три стойки Blue Gene/L были размещены в суперкомпьютерном центре Сан-Диего .
В то время как TOP500 измеряет производительность на одном тестовом приложении Linpack, Blue Gene/L также установил рекорды производительности на более широком наборе приложений. Blue Gene/L был первым суперкомпьютером, когда-либо работавшим на скорости более 100 TFLOPS, поддерживаемой на реальном приложении, а именно трехмерном коде молекулярной динамики (ddcMD), моделирующем затвердевание (процессы зарождения и роста) расплавленного металла в условиях высокого давления и температуры. Это достижение принесло ему премию Гордона Белла 2005 года .
В июне 2006 года NNSA и IBM объявили, что Blue Gene/L достигла 207,3 TFLOPS в квантово-химическом приложении ( Qbox ). [11] На Supercomputing 2006 [12] Blue Gene/L была удостоена приза победителя во всех классах наград HPC Challenge. [13] В 2007 году команда из исследовательского центра IBM Almaden и Университета Невады запустила искусственную нейронную сеть, почти вдвое менее сложную, чем мозг мыши, в течение эквивалента секунды (сеть работала на 1/10 от нормальной скорости в течение 10 секунд). [14]
Имя
Название Blue Gene происходит от того, для чего он изначально был разработан, чтобы помогать биологам понимать процессы сворачивания белка и развития генов . [15] «Blue» — традиционное прозвище, которое IBM использует для многих своих продуктов и самой компании . Первоначальный дизайн Blue Gene был переименован в «Blue Gene/C» и в конечном итоге в Cyclops64 . «L» в Blue Gene/L происходит от «Light», поскольку изначальное название этого дизайна было «Blue Light». Версия «P» была разработана как дизайн петахапскул . «Q» — это просто буква после «P». [16]
Основные характеристики
Суперкомпьютер Blue Gene/L был уникален в следующих аспектах: [17]
Торговля скоростью процессоров ради более низкого энергопотребления. Blue Gene/L использовал низкочастотные и маломощные встроенные ядра PowerPC с ускорителями с плавающей точкой. Хотя производительность каждого чипа была относительно низкой, система могла достичь лучшей энергоэффективности для приложений, которые могли использовать большое количество узлов.
Два процессора на узел с двумя режимами работы: режим сопроцессора, в котором один процессор выполняет вычисления, а другой — обмен данными; и режим виртуального узла, в котором оба процессора доступны для выполнения пользовательского кода, но процессоры разделяют как вычислительную, так и коммуникационную нагрузку.
Конструкция «система на кристалле». Компоненты были встроены в один кристалл для каждого узла, за исключением 512 МБ внешней DRAM.
Большое количество узлов (масштабируется с шагом 1024 до минимум 65 536).
Трехмерное торообразное соединение со вспомогательными сетями для глобальной связи (трансляции и редукции), ввода-вывода и управления.
Легкая ОС на узел для минимизации накладных расходов на систему (системного шума).
Архитектура
Архитектура Blue Gene/L была развитием архитектур QCDSP и QCDOC . Каждый узел Blue Gene/L Compute или I/O представлял собой одну ASIC с соответствующими чипами памяти DRAM . ASIC интегрировала два встроенных процессора PowerPC 440 с частотой 700 МГц , каждый с двухконвейерным модулем двойной точности с плавающей точкой (FPU), подсистемой кэша со встроенным контроллером DRAM и логикой для поддержки нескольких подсистем связи. Двойные FPU давали каждому узлу Blue Gene/L теоретическую пиковую производительность 5,6 GFLOPS (гигаФЛОПС) . Два ЦП не были когерентны по кэшу друг с другом.
Вычислительные узлы были упакованы по два на вычислительную карту, с 16 вычислительными картами (таким образом, 32 узла) плюс до 2 узлов ввода-вывода на узловую плату. Шкаф/стойка содержали 32 узловые платы. [18] Благодаря интеграции всех основных подсистем на одном чипе и использованию маломощной логики каждый вычислительный или узел ввода-вывода рассеивал около 17 Вт (включая DRAM). Низкая мощность на узел позволяла агрессивно упаковывать до 1024 вычислительных узлов, плюс дополнительные узлы ввода-вывода, в стандартной 19-дюймовой стойке , в разумных пределах по электропитанию и воздушному охлаждению. Метрики производительности системы, с точки зрения FLOPS на ватт , FLOPS на м 2 площади пола и FLOPS на единицу стоимости, позволяли масштабировать до очень высокой производительности. При таком количестве узлов отказы компонентов были неизбежны. Система смогла электрически изолировать неисправные компоненты с точностью до половины стойки (512 вычислительных узлов), что позволило машине продолжить работу.
Каждый узел Blue Gene/L был подключен к трем параллельным сетям связи: 3D тороидальной сети для одноранговой связи между вычислительными узлами, коллективной сети для коллективной связи (трансляции и операции сокращения) и глобальной сети прерываний для быстрых барьеров . Узлы ввода-вывода, работающие под управлением операционной системы Linux , обеспечивали связь с хранилищем и внешними хостами через сеть Ethernet . Узлы ввода-вывода обрабатывали операции файловой системы от имени вычислительных узлов. Отдельная и частная сеть управления Ethernet обеспечивала доступ к любому узлу для настройки, загрузки и диагностики.
Чтобы разрешить одновременный запуск нескольких программ, система Blue Gene/L могла быть разделена на электронно изолированные наборы узлов. Количество узлов в разделе должно было быть положительным целым числом, степенью 2, с не менее чем 2 5 = 32 узлами. Чтобы запустить программу на Blue Gene/L, сначала нужно было зарезервировать раздел компьютера. Затем программа загружалась и запускалась на всех узлах в разделе, и никакая другая программа не могла получить доступ к узлам в разделе, пока он использовался. После завершения узлы раздела освобождались для использования будущими программами.
Вычислительные узлы Blue Gene/L использовали минимальную операционную систему, поддерживающую одну пользовательскую программу. Поддерживалось только подмножество вызовов POSIX , и только один процесс мог выполняться одновременно на узле в режиме сопроцессора — или один процесс на ЦП в виртуальном режиме. Программистам требовалось реализовать зеленые потоки для имитации локального параллелизма. Разработка приложений обычно выполнялась на C , C++ или Fortran с использованием MPI для связи. Однако некоторые языки сценариев, такие как Ruby [19] и Python [20], были перенесены на вычислительные узлы.
IBM опубликовала BlueMatter, приложение, разработанное для реализации Blue Gene/L, как открытый исходный код. [21] Это служит для документирования того, как тор и коллективные интерфейсы использовались приложениями, и может служить основой для других для реализации текущего поколения суперкомпьютеров.
Синий Ген/P
В июне 2007 года IBM представила Blue Gene/P , второе поколение серии суперкомпьютеров Blue Gene, разработанное в сотрудничестве с IBM, LLNL и Центром вычислений Аргоннской национальной лаборатории . [22]
Дизайн
Конструкция Blue Gene/P представляет собой технологическую эволюцию Blue Gene/L. Каждый вычислительный чип Blue Gene/P содержит четыре процессорных ядра PowerPC 450 , работающих на частоте 850 МГц. Ядра имеют когерентный кэш , и чип может работать как 4-сторонний симметричный мультипроцессор (SMP). Подсистема памяти на чипе состоит из небольших частных кэшей L2, центрального общего кэша L3 объемом 8 МБ и двух контроллеров памяти DDR2 . Чип также интегрирует логику для связи между узлами, используя те же сетевые топологии, что и Blue Gene/L, но с более чем в два раза большей пропускной способностью. Вычислительная карта содержит чип Blue Gene/P с 2 или 4 ГБ DRAM, включающий «вычислительный узел». Один вычислительный узел имеет пиковую производительность 13,6 GFLOPS. 32 вычислительные карты подключаются к плате узла с воздушным охлаждением. Стойка содержит 32 платы узла (таким образом, 1024 узла, 4096 процессорных ядер). [23]
Используя множество небольших, маломощных, плотно упакованных чипов, Blue Gene/P превзошел энергоэффективность других суперкомпьютеров своего поколения, и с производительностью 371 MFLOPS/W установки Blue Gene/P заняли верхние позиции или приблизились к верхним позициям списков Green500 в 2007–2008 годах. [2]
Установки
Ниже приведен неполный список установок Blue Gene/P. По состоянию на ноябрь 2009 года список TOP500 содержал 15 установок Blue Gene/P из 2 стоек (2048 узлов, 8192 процессорных ядер, 23,86 TFLOPS Linpack ) и больше. [1]
12 ноября 2007 года первая установка Blue Gene/P, JUGENE , с 16 стойками (16 384 узла, 65 536 процессоров) была запущена в исследовательском центре Юлих в Германии с производительностью 167 TFLOPS. [24] На момент открытия это был самый быстрый суперкомпьютер в Европе и шестой по скорости в мире. В 2009 году JUGENE был модернизирован до 72 стоек (73 728 узлов, 294 912 процессорных ядер) с 144 терабайтами памяти и 6 петабайтами хранилища и достиг пиковой производительности 1 петафлопс. Эта конфигурация включала новые теплообменники типа «воздух-вода» между стойками, что существенно снизило стоимость охлаждения. [25] JUGENE был закрыт в июле 2012 года и заменен системой Blue Gene/Q JUQUEEN .
Система «Intrepid» с 40 стойками (40960 узлов, 163840 процессорных ядер) в Аргоннской национальной лаборатории заняла 3-е место в списке 500 лучших в июне 2008 года. [26] Система Intrepid является одним из основных ресурсов программы INCITE, в которой процессорные часы присуждаются «грандиозным» научным и инженерным проектам в рецензируемом конкурсе.
Система Blue Gene/P размером 2,5 стойки является центральным процессором для проекта Low Frequency Array for Radio astronomy ( LOFAR ) в Нидерландах и соседних европейских странах. Это приложение использует возможности потоковой передачи данных машины.
В 2012 году в Ратгерском университете в Пискатауэй, штат Нью-Джерси, был установлен Blue Gene/P на 2 стойки . Его назвали «Экскалибур» в честь талисмана Ратгерского университета, Алого рыцаря. [30]
Первый Blue Gene/P в регионе АСЕАН был установлен в 2010 году в исследовательском центре Университета Брунея-Даруссалама , Центре UBD-IBM . Установка побудила университет к сотрудничеству в области исследований и исследований IBM по моделированию климата, которые будут изучать влияние изменения климата на прогнозирование наводнений, урожайность, возобновляемую энергию и здоровье тропических лесов в регионе, среди прочего. [32]
В 2013 году одностоечный Blue Gene/P был передан в дар Министерству науки и технологий для прогнозирования погоды, управления стихийными бедствиями, точного земледелия и здравоохранения. Он размещен в Национальном компьютерном центре в Дилимане, Кесон-Сити, под эгидой Филиппинского геномного центра (PGC) и Центра биоинформатики (CFB) в Филиппинском университете в Дилимане, Кесон-Сити. [33]
Приложения
Веселин Топалов , претендент на звание чемпиона мира по шахматам 2010 года, подтвердил в интервью, что он использовал суперкомпьютер Blue Gene/P во время подготовки к матчу. [34]
Компьютер Blue Gene/P использовался для моделирования приблизительно одного процента коры головного мозга человека, содержащей 1,6 миллиарда нейронов с приблизительно 9 триллионами связей. [35]
Команда проекта IBM Kittyhawk перенесла Linux на вычислительные узлы и продемонстрировала выполнение общих рабочих нагрузок Web 2.0 в масштабе на Blue Gene/P. Их статья, опубликованная в ACM Operating Systems Review, описывает драйвер ядра, который туннелирует Ethernet по древовидной сети, что приводит к всеобщему подключению TCP/IP . [36] [37] При запуске стандартного программного обеспечения Linux, такого как MySQL , их результаты производительности на SpecJBB входят в число самых высоких за всю историю. [ требуется ссылка ]
В 2011 году команда Ратгерского университета, IBM и Техасского университета объединила установку KAUST Shaheen с установкой Blue Gene/P в исследовательском центре IBM Watson в «объединенное высокопроизводительное вычислительное облако», выиграв конкурс IEEE SCALE 2011 с приложением для оптимизации нефтяного резервуара. [38]
Синий Ген/Q
Третья конструкция в серии Blue Gene, Blue Gene/Q , значительно расширена и улучшена на архитектурах Blue Gene/L и /P.
Дизайн
«Вычислительный чип» Blue Gene/Q основан на 64-битном процессорном ядре IBM A2 . Ядро процессора A2 является 4-потоковым одновременно многопоточным и было дополнено SIMD -векторным блоком двойной точности с плавающей точкой (IBM QPX). Каждый вычислительный чип Blue Gene/Q содержит 18 таких процессорных ядер A2, работающих на частоте 1,6 ГГц. 16 ядер используются для вычислений приложений, а 17-е ядро используется для обработки вспомогательных функций операционной системы, таких как прерывания , асинхронный ввод-вывод , темп MPI и RAS . 18-е ядро является избыточным производственным запасным, используемым для увеличения выхода годной продукции. Резервное ядро отключается перед началом работы системы. Процессорные ядра чипа связаны перекрестным коммутатором с кэшем eDRAM L2 объемом 32 МБ, работающим на половинной скорости ядра. Кэш L2 является многоверсионным — поддерживает транзакционную память и спекулятивное выполнение — и имеет аппаратную поддержку атомарных операций . [39] Промахи кэша L2 обрабатываются двумя встроенными контроллерами памяти DDR3 , работающими на частоте 1,33 ГГц. Чип также интегрирует логику для связи между чипами в конфигурации 5D torus с пропускной способностью 2 ГБ/с между чипами. Чип Blue Gene/Q производится по медному SOI-процессу IBM на 45 нм. Он обеспечивает пиковую производительность 204,8 GFLOPS при потреблении около 55 Вт. Чип имеет размеры 19×19 мм (359,5 мм²) и содержит 1,47 миллиарда транзисторов. Завершая вычислительный узел, чип монтируется на вычислительной карте вместе с 16 ГБ DDR3 DRAM (т. е. 1 ГБ для каждого ядра пользовательского процессора). [40]
«Вычислительный ящик» Q32 [41] содержит 32 вычислительных узла, каждый с водяным охлаждением. [42]
«Средняя панель» (ящик) содержит 16 вычислительных ящиков Q32, в общей сложности 512 вычислительных узлов, электрически соединенных в конфигурации 5D-тора (4x4x4x4x2). За пределами уровня средней панели все соединения являются оптическими. Стойки имеют две средние панели, таким образом, 32 вычислительных ящика, в общей сложности 1024 вычислительных узла, 16 384 пользовательских ядра и 16 ТБ ОЗУ. [42]
Отдельные отсеки ввода-вывода, размещенные в верхней части стойки или в отдельной стойке, охлаждаются воздухом и содержат 8 вычислительных карт и 8 слотов расширения PCIe для сетей InfiniBand или 10 Gigabit Ethernet . [42]
Производительность
На момент анонса системы Blue Gene/Q в ноябре 2011 года [43] первоначальная 4-стоечная система Blue Gene/Q (4096 узлов, 65536 пользовательских процессорных ядер) достигла 17-го места в списке TOP500 [1] с 677,1 ТераФЛОПС Linpack, превзойдя первоначальную 104-стоечную установку BlueGene/L 2007 года, описанную выше. Та же 4-стоечная система достигла верхней позиции в списке Graph500 [3] с более чем 250 GTEPS (гига пройденных граней в секунду ). Системы Blue Gene/Q также возглавили список Green500 самых энергоэффективных суперкомпьютеров с производительностью до 2,1 ГФЛОПС/Вт . [2]
В июне 2012 года установки Blue Gene/Q заняли верхние позиции во всех трех списках: TOP500 , [1] Graph500 [3] и Green500 . [2]
Установки
Ниже приведен неполный список установок Blue Gene/Q. По состоянию на июнь 2012 года список TOP500 содержал 20 установок Blue Gene/Q размером в 1/2 стойки (512 узлов, 8192 процессорных ядра, 86,35 TFLOPS Linpack) и больше. [1] При (независимой от размера) энергоэффективности около 2,1 GFLOPS/Вт все эти системы также заняли верхнюю позицию в списке Green 500 за июнь 2012 года . [2]
Система Blue Gene/Q под названием Sequoia была доставлена в Ливерморскую национальную лабораторию имени Лоуренса (LLNL) в начале 2011 года и была полностью развернута в июне 2012 года. Она является частью Программы усовершенствованного моделирования и вычислений, которая занимается ядерным моделированием и передовыми научными исследованиями. Она состоит из 96 стоек (включая 98 304 вычислительных узла с 1,6 миллионами процессорных ядер и 1,6 ПБ памяти), занимая площадь около 3000 квадратных футов (280 м 2 ). [44] В июне 2012 года система была признана самым быстрым суперкомпьютером в мире. [45] [46] при пиковой производительности 20,1 PFLOPS , постоянной 16,32 PFLOPS (Linpack), потребляя до 7,9 мегаватт электроэнергии. [1] В июне 2013 года его производительность составляла 17,17 PFLOPS (Linpack). [1]
Система Blue Gene/Q с производительностью 10 PFLOPS (пик) под названием Mira была установлена в Аргоннской национальной лаборатории в вычислительном центре Argonne Leadership в 2012 году. Она состоит из 48 стоек (49 152 вычислительных узлов) с 70 ПБ дискового хранилища (пропускная способность ввода-вывода 470 ГБ/с). [47] [48]
JUQUEEN в исследовательском центре в Юлихе — это 28-стоечная система Blue Gene/Q, которая с июня 2013 года по ноябрь 2015 года занимала первое место в рейтинге Top500 в Европе. [1]
Vulcan в Ливерморской национальной лаборатории им. Лоуренса (LLNL) — это 24-стоечная система Blue Gene/Q производительностью 5 PFLOPS (пик), которая была введена в эксплуатацию в 2012 году и выведена из эксплуатации в 2019 году. [49] Vulcan обслуживала проекты лабораторной промышленности через Инновационный центр высокопроизводительных вычислений (HPC) Ливермора [50], а также академическое сотрудничество в поддержку миссий Министерства энергетики США и Национального управления по ядерной безопасности (NNSA). [51]
Fermi в суперкомпьютерном центре CINECA в Болонье, Италия, [52] представляет собой 10-стоечную систему Blue Gene/Q производительностью 2 ПФЛОПС (пик).
В 2013 году в Политехническом институте Ренсселера была установлена пятистоечная система Blue Gene/Q с дополнительным вычислительным оборудованием под названием AMOS. [54] Система имела производительность 1048,6 терафлопс, став самым мощным суперкомпьютером среди частных университетов и третьим по мощности суперкомпьютером среди всех университетов в 2014 году. [55]
Система Blue Gene/Q с производительностью 838 TFLOPS (пик) под названием Avoca была установлена в Victorian Life Sciences Computation Initiative в июне 2012 года. [56] Эта система является частью сотрудничества IBM и VLSCI, направленного на улучшение диагностики, поиск новых лекарственных препаратов, совершенствование методов лечения и углубление нашего понимания болезней. [57] Система состоит из 4 стоек с 350 ТБ хранилища, 65 536 ядер, 64 ТБ ОЗУ. [58]
Система Blue Gene/Q мощностью 209 TFLOPS (пик) была установлена в Университете Рочестера в июле 2012 года. [59] Эта система является частью Центра вычислительных инноваций в области медицинских наук, архивировано 19 октября 2012 г. в Wayback Machine , который занимается применением высокопроизводительных вычислений в исследовательских программах в области медицинских наук . Система состоит из одной стойки (1024 вычислительных узла) с 400 ТБ высокопроизводительного хранилища. [60]
Система Blue Gene/Q с пиковой производительностью 209 TFLOPS (172 TFLOPS LINPACK) под названием Lemanicus была установлена в EPFL в марте 2013 года. [61] Эта система принадлежит Центру передовых методов моделирования CADMOS ( [62] ), который является результатом сотрудничества трех основных научно-исследовательских институтов на берегу Женевского озера во франкоговорящей части Швейцарии: Университета Лозанны , Женевского университета и EPFL . Система состоит из одной стойки (1024 вычислительных узла) с 2,1 ПБ хранилища IBM GPFS-GSS.
В начале 2011 года в Центре вычислительных ресурсов A*STAR в Сингапуре была установлена полустойковая система Blue Gene/Q с пиковой производительностью около 100 терафлопс, названная Cumulus . [63]
Приложения
Рекордные научные приложения были запущены на BG/Q, первом, преодолевшем рубеж в 10 петафлопс устойчивой производительности. Фреймворк космологического моделирования HACC достиг почти 14 петафлопс с 3,6 триллионами частиц в эталонном прогоне, [64] в то время как код Cardioid, [65] [66] , который моделирует электрофизиологию человеческого сердца, достиг почти 12 петафлопс с моделированием в режиме, близком к реальному времени, оба на Sequoia . Полностью сжимаемый решатель потока также достиг 14,4 ПФЛОП/с (первоначально 11 ПФЛОП/с) на Sequoia, 72% от номинальной пиковой производительности машины. [67]
^ abcdefghi "Ноябрь 2004 г. - TOP500 Supercomputer Sites". Top500.org . Получено 13 декабря 2019 г. .
^ abcde "Green500 - TOP500 Supercomputer Sites". Green500.org . Архивировано из оригинала 26 августа 2016 года . Получено 13 октября 2017 года .
^ abc "The Graph500 List". Архивировано из оригинала 2011-12-27.
^ Харрис, Марк (18 сентября 2009 г.). «Обама чествует суперкомпьютер IBM». Techradar.com . Получено 18 сентября 2009 г.
^ "Стратегия суперкомпьютеров меняется в мире без BlueGene". Nextplatform.com . 14 апреля 2015 г. Получено 13 октября 2017 г.
^ "IBM to Build DoE's Next-Gen Coral Supercomputers - EE Times". EETimes . Архивировано из оригинала 30 апреля 2017 года . Получено 13 октября 2017 года .
^ Конференция «Суперкомпьютерные вычисления 2020», видеопрезентация премии «Испытание временем»
^ "Blue Gene: Видение науки о белках с использованием петафлопного суперкомпьютера" (PDF) . IBM Systems Journal . 40 (2). 2017-10-23.
↑ «Разговор с мозгом, стоящим за Blue Gene», BusinessWeek , 6 ноября 2001 г., архивировано из оригинала 11 декабря 2014 г.
^ "BlueGene/L". Архивировано из оригинала 2011-07-18 . Получено 2007-10-05 .
^ "hpcwire.com". Архивировано из оригинала 28 сентября 2007 г.
^ "SC06". sc06.supercomputing.org . Получено 13 октября 2017 г. .
^ "HPC Challenge Award Competition". Архивировано из оригинала 2006-12-11 . Получено 2006-12-03 .
^ "Мозг мыши смоделирован на компьютере". BBC News. 27 апреля 2007 г. Архивировано из оригинала 25-05-2007.
^ "IBM100 - Blue Gene". 03.ibm.com . 7 марта 2012 г. Архивировано из оригинала 3 апреля 2012 г. Получено 13 октября 2017 г.
^ Кункель, Джулиан М.; Людвиг, Томас; Мейер, Ганс (12 июня 2013 г.). Суперкомпьютер: 28-я Международная суперкомпьютерная конференция, ISC 2013, Лейпциг, Германия, 16-20 июня 2013 г. Труды. Springer. ISBN9783642387500. Получено 13 октября 2017 г. – через Google Books.
^ "Blue Gene". Журнал исследований и разработок IBM . 49 (2/3). 2005.
^ Kissel, Lynn. "BlueGene/L Configuration". asc.llnl.gov . Архивировано из оригинала 17 февраля 2013 г. Получено 13 октября 2017 г.
^ "Compute Node Ruby for Bluegene/L". www.ece.iastate.edu . Архивировано из оригинала 11 февраля 2009 г.
↑ Уильям Скаллин (12 марта 2011 г.). Python для высокопроизводительных вычислений. Атланта, Джорджия.
^ Исходный код Blue Matter, получен 28 февраля 2020 г.
^ "IBM утроила производительность самого быстрого и энергоэффективного суперкомпьютера в мире". 2007-06-27. Архивировано из оригинала 8 июля 2007 года . Получено 2011-12-24 .
^ «Обзор проекта IBM Blue Gene/P». IBM Journal of Research and Development . 52 : 199–220. Январь 2008. doi :10.1147/rd.521.0199.
^ «Суперкомпьютеры: Юлих снова среди мировых лидеров». Служба новостей IDG. 12 ноября 2007 г.
^ "IBM Press room - 2009-02-10 Новый суперкомпьютер IBM Petaflop в немецком исследовательском центре в Юлихе станет самым мощным в Европе". 03.ibm.com. 2009-02-10. Архивировано из оригинала 12 февраля 2009 года . Получено 2011-03-11 .
^ "Аргоннский суперкомпьютер назван самым быстрым в мире для открытой науки, третьим в общем зачете". Mcs.anl.gov . Архивировано из оригинала 8 февраля 2009 года . Получено 13 октября 2017 года .
^ "Университет Райса и IBM объединяются для поставки первого суперкомпьютера Blue Gene в Техас". news.rice.edu . Архивировано из оригинала 2012-04-05 . Получено 2012-04-01 .
^ Вече си имаме и суперкомпьютер. Архивировано 23 декабря 2009 г. на Wayback Machine , Dir.bg, 9 сентября 2008 г.
^ "IBM Press room - 2010-02-11 IBM будет сотрудничать с ведущими австралийскими институтами, чтобы расширить границы медицинских исследований - Австралия". 03.ibm.com. 2010-02-11. Архивировано из оригинала 16 июля 2012 г. Получено 2011-03-11 .
^ "Rutgers Gets Big Data Weapon in IBM Supercomputer - Hardware -". Архивировано из оригинала 2013-03-06 . Получено 2013-09-07 .
^ "Университет Рочестера и IBM расширяют партнерство в поисках новых рубежей в здравоохранении". Медицинский центр Университета Рочестера. 11 мая 2012 г. Архивировано из оригинала 2012-05-11.
^ "IBM и Universiti Brunei Darussalam будут сотрудничать в исследовании моделирования климата". IBM News Room. 2010-10-13. Архивировано из оригинала 12 декабря 2010 года . Получено 18 октября 2012 года .
^ Ронда, Ренье Аллан. «Суперкомпьютер DOST для ученых уже в строю». Philstar.com . Получено 13 октября 2017 г. .
^ "Тренировка Топалова с суперкомпьютером Blue Gene P". Players.chessdo.com . Архивировано из оригинала 19 мая 2013 года . Получено 13 октября 2017 года .
↑ Каку, Мичио. Физика будущего (Нью-Йорк: Doubleday, 2011), 91.
^ "Project Kittyhawk: A Global-Scale Computer". Research.ibm.com . Получено 13 октября 2017 г. .
^ Аппаву, Джонатан; Улиг, Фолькмар; Ватерланд, Амос. «Проект Kittyhawk: Создание компьютера глобального масштаба» (PDF) . Yorktown Heights, NY: IBM TJ Watson Research Center. Архивировано из оригинала 2008-10-31 . Получено 2018-03-13 .{{cite web}}: CS1 maint: бот: исходный статус URL неизвестен ( ссылка )
^ "Размышления о памяти вычислительного чипа Blue Gene/Q" . Получено 23.12.2011 .
^ "The Blue Gene/Q Compute chip" (PDF) . Архивировано из оригинала (PDF) 2015-04-29 . Получено 2011-12-23 .
^ "Суперкомпьютер IBM Blue Gene/Q обеспечивает петафлопсные вычисления для высокопроизводительных вычислительных приложений" (PDF) . 01.ibm.com . Получено 13 октября 2017 г. .
^ "IBM анонсирует 20-петафлопсный суперкомпьютер". Курцвейл. 18 ноября 2011 г. Получено 13 ноября 2012 г. IBM анонсировала суперкомпьютер Blue Gene/Q с пиковой производительностью 20 петафлопс.
^ Фельдман, Майкл (2009-02-03). "Lawrence Livermore Prepares for 20 Petaflop Blue Gene/Q". HPCwire. Архивировано из оригинала 2009-02-12 . Получено 2011-03-11 .
^ Б. Джонстон, Дональд (18.06.2012). "Суперкомпьютер Sequoia от NNSA признан самым быстрым в мире". Архивировано из оригинала 02.09.2014 . Получено 23.06.2012 .
^ "TOP500 Press Release". Архивировано из оригинала 24 июня 2012 года.
^ "MIRA: Самый быстрый суперкомпьютер в мире - Argonne Leadership Computing Facility". Alcf.anl.gov . Получено 13 октября 2017 г. .
^ "Mira - Argonne Leadership Computing Facility". Alcf.anl.gov . Получено 13 октября 2017 г. .
^ "Vulcan—выведен из эксплуатации". hpc.llnl.gov . Получено 10 апреля 2019 г. .
^ "HPC Innovation Center". hpcinnovationcenter.llnl.gov . Получено 13 октября 2017 г. .
^ «Vulcan Лоуренса Ливермора обеспечивает вычислительную мощность в 5 петафлопс для сотрудничества с промышленностью и академическими кругами в целях развития науки и технологий». Llnl.gov . 11 июня 2013 г. Архивировано из оригинала 9 декабря 2013 г. Получено 13 октября 2017 г.
^ "Rensselaer at Petascale: AMOS среди самых быстрых и мощных суперкомпьютеров в мире". News.rpi.edu . Получено 13 октября 2017 г.
^ Майкл Малланевар. «AMOS занимает 1-е место среди суперкомпьютеров в частных американских университетах». News.rpi.edi . Получено 13 октября 2017 г.
^ "Самый зеленый суперкомпьютер в мире прибывает в Мельбурн - The Melbourne Engineer". Themelbourneengineer.eng.unimelb.edu.au/ . 16 февраля 2012 г. Архивировано из оригинала 2 октября 2017 г. Получено 13 октября 2017 г.
^ "Melbourne Bioinformatics - Для всех исследователей и студентов, работающих в биомедицинском и бионаучном исследовательском округе Мельбурна". Melbourne Bioinformatics . Получено 13 октября 2017 г.
^ "Доступ к высокопроизводительным системам - Мельбурнская биоинформатика". Vlsci.org.au . Получено 13 октября 2017 г. .
^ "Университет Рочестера открывает новую эру исследований в области здравоохранения". Rochester.edu . Получено 13 октября 2017 г. .
^ "Ресурсы - Центр комплексных исследовательских вычислений". Circ.rochester.edu . Получено 13 октября 2017 г. .
^ S. Habib; V. Morozov; H. Finkel; A. Pope; K. Heitmann ; K. Kumaran; T. Peterka; J. Insley; D. Daniel; P. Fasel; N. Frontiere & Z. Lukic (2012). "Вселенная в экстремальных масштабах: многопетафлопсное моделирование неба на BG/Q". arXiv : 1211.4864 [cs.DC].
^ "Проект моделирования кардиоидного сердца". Researcher.watson.ibm.com . 25 июля 2016 г. Архивировано из оригинала 21 мая 2013 г. Получено 13 октября 2017 г.
^ "Venturing into the Heart of High-Performance Computing Simulations". Str.llnl.gov . Архивировано из оригинала 14 февраля 2013 года . Получено 13 октября 2017 года .
^ Россинелли, Диего; Хеджазиалхоссейни, Бабак; Хаджидукас, Панайотис; Бекас, Костас; Куриони, Алессандро; Берч, Адам; Футрал, Скотт; Шмидт, Штеффен Дж.; Адамс, Николаус А.; Кумутсакос, Петрос (17 ноября 2013 г.). "11 PFLOP/S моделирования коллапса облачной кавитации". Труды Международной конференции по высокопроизводительным вычислениям, сетевым технологиям, хранению и анализу . SC '13. стр. 1–13. doi :10.1145/2503210.2504565. ISBN9781450323789. S2CID 12651650.
Внешние ссылки
История IBM: IBM Blue Gene
Суперкомпьютеры нового поколения — обзор Blue Gene/P (pdf)