Summit или OLCF-4 — суперкомпьютер , разработанный IBM для использования в Oak Ridge Leadership Computing Facility (OLCF), объекте Национальной лаборатории Ок-Ридж , Соединенные Штаты Америки . По состоянию на июнь 2024 года [обновлять]это 9-й по скорости суперкомпьютер в мире в списке TOP500 . Он занимал позицию номер 1 в этом списке с ноября 2018 года по июнь 2020 года. [5] [6] Его текущий [ когда? ] Тест LINPACK показал тактовую частоту 148,6 петафлопс. [7]
По состоянию на ноябрь 2019 года суперкомпьютер занимал 5-е место в мире по энергоэффективности с измеренной энергоэффективностью 14,668 гигафлопс/ватт. [8] Summit был первым суперкомпьютером, достигшим скорости эксафлопс (квинтиллион операций в секунду) по нестандартным показателям: 1,88 эксафлопс во время геномного анализа и, как ожидается, достигнет 3,3 эксафлопс при использовании вычислений смешанной точности . [9]
В ноябре 2014 года Министерство энергетики США заключило контракт на сумму 325 миллионов долларов с IBM, Nvidia и Mellanox . Усилия привели к строительству Саммита и Сьерры . Саммит занимается гражданскими научными исследованиями и расположен в Национальной лаборатории Ок-Ридж в Теннесси. Sierra предназначена для моделирования ядерного оружия и расположена в Ливерморской национальной лаборатории имени Лоуренса в Калифорнии. [10]
По оценкам, площадь Summit составит 5600 квадратных футов (520 м 2 ) [11] и потребуется 219 километров (136 миль) кабелей. [12] Исследователи будут использовать Summit в различных областях, таких как космология , медицина и климатология . [13]
В 2015 году проект под названием «Сотрудничество Ок-Риджа, Аргонна и Лоуренса Ливермора» (CORAL) включал в себя третий суперкомпьютер под названием « Аврора» и планировался для установки в Аргоннской национальной лаборатории . [14] К 2018 году Aurora была модернизирована, и ее завершение ожидается в 2021 году как эксафлопсный вычислительный проект вместе с Frontier и El Capitan , который будет завершен вскоре после этого. [15] «Аврора» была завершена в конце 2022 года. [16]
Суперкомпьютер Summit может быть использован для исследований в области энергетики, искусственного интеллекта, здоровья человека и других областей исследований. [17] Его использовали при моделировании землетрясений, моделировании экстремальных погодных условий, материаловедении, геномике и прогнозировании времени жизни нейтрино. [18]
Каждый из 4608 узлов состоит из 2 процессоров IBM POWER9 , 6 графических процессоров Nvidia Tesla [19] и более 600 ГБ когерентной памяти (96 ГБ HBM2 плюс 512 ГБ DDR4 ), к которой могут обращаться все процессоры и графические процессоры, а также 800 ГБ неиспользуемой памяти. энергозависимая оперативная память , которую можно использовать как пакетный буфер или как расширенную память. [20] Процессоры POWER9 и графические процессоры Nvidia Volta соединены с помощью высокоскоростного интерфейса NVLink от Nvidia . Это позволяет создать гетерогенную вычислительную модель. [21]
Чтобы обеспечить высокую скорость передачи данных, узлы соединены в неблокируемой топологии «толстого дерева» с использованием двухрельсового соединения Mellanox EDR InfiniBand как для хранения, так и для трафика межпроцессной связи, что обеспечивает полосу пропускания 200 Гбит/с между узлов и ускорение вычислений внутри сети для таких коммуникационных инфраструктур, как MPI и SHMEM / PGAS .
Хранилище Summit [22] имеет быстрый внутрисистемный уровень и центральный уровень параллельной файловой системы. Внутрисистемный уровень оптимизирован для быстрого хранения благодаря твердотельным накопителям на каждом узле, а параллельная файловая система по всему центру обеспечивает легкий доступ к данным, хранящимся на жестких дисках. Эти два уровня работают вместе, поэтому пользователям не нужно различать свои потребности в хранении данных. Параллельной файловой системой по всему центру является GPFS (IBM Storage Scale). Он обеспечивает 250 ПБ памяти. Кластер обеспечивает пиковую пропускную способность чтения одного потока 2,5 ТБ/с и пропускную способность 1 ТБ/с при 1 млн файлов. Это был один из первых суперкомпьютеров, которому также требовалась чрезвычайно высокая производительность метаданных для поддержки рабочих нагрузок AI/ML, примером чего является объем создаваемых файлов размером 2,6 млн. 32 тыс. в секунду.