stringtranslate.com

Суперкомпьютер

Суперкомпьютер IBM Blue Gene/P «Intrepid» в Аргоннской национальной лаборатории использует 164 000 процессорных ядер, используя обычное кондиционирование воздуха в центре обработки данных, сгруппированных в 40 стоек/шкафов, соединенных высокоскоростной сетью 3D-тора . [1] [2]
Вычислительная мощность 1-го лучшего суперкомпьютера за каждый год, измеряемая в FLOPS

Суперкомпьютер — это тип компьютера с высоким уровнем производительности по сравнению с компьютером общего назначения. Производительность суперкомпьютера обычно измеряется в операциях с плавающей точкой в ​​секунду ( FLOPS ), а не в миллионах инструкций в секунду (MIPS). С 2017 года существуют суперкомпьютеры, которые могут выполнять более 10 17 FLOPS  (сто квадриллионов FLOPS, 100 петафлопс или 100 PFLOPS). [3] Для сравнения, производительность настольного компьютера находится в диапазоне от сотен гигафлопс (10 11 ) до десятков терафлопс (10 13 ). [4] [5] С ноября 2017 года все 500 самых быстрых суперкомпьютеров в мире работают на операционных системах на базе Linux . [6] В США, Европейском союзе, Тайване, Японии и Китае проводятся дополнительные исследования для создания более быстрых, мощных и технологически превосходящих суперкомпьютеров exascale . [7]

Суперкомпьютеры играют важную роль в области вычислительной науки и используются для широкого спектра вычислительно интенсивных задач в различных областях, включая квантовую механику , прогнозирование погоды , климатические исследования , разведку нефти и газа , молекулярное моделирование (вычисление структур и свойств химических соединений, биологических макромолекул , полимеров и кристаллов) и физическое моделирование (например, моделирование ранних моментов Вселенной, аэродинамики самолетов и космических кораблей , детонации ядерного оружия и ядерного синтеза ). Они были необходимы в области криптоанализа . [8]

Суперкомпьютеры были представлены в 1960-х годах, и в течение нескольких десятилетий самые быстрые из них были созданы Сеймуром Крейем в Control Data Corporation (CDC), Cray Research и последующих компаниях, носящих его имя или монограмму. Первые такие машины представляли собой тщательно настроенные обычные конструкции, которые работали быстрее, чем их более универсальные современники. В течение десятилетия добавлялось все большее количество параллелизма , при этом типичным было от одного до четырех процессоров . В 1970-х годах векторные процессоры, работающие с большими массивами данных, стали доминировать. Ярким примером является весьма успешный Cray-1 1976 года. Векторные компьютеры оставались доминирующей конструкцией вплоть до 1990-х годов. С тех пор и по сей день нормой стали массивно-параллельные суперкомпьютеры с десятками тысяч готовых процессоров. [9] [10]

США долгое время были лидером в области суперкомпьютеров, сначала благодаря почти непрерывному доминированию Cray в этой области, а затем благодаря различным технологическим компаниям. Япония добилась больших успехов в этой области в 1980-х и 90-х годах, а Китай становился все более активным в этой области. По состоянию на июнь 2024 года самым быстрым суперкомпьютером в списке суперкомпьютеров TOP500 является Frontier в США с результатом теста LINPACK 1,102 экзафлоп/с, за ним следует Aurora . В США пять из 10 лучших; у Японии, Финляндии, Швейцарии, Италии и Испании по одному. [11] В июне 2018 года все объединенные суперкомпьютеры в списке TOP500 преодолели отметку в 1  экзафлопс . [12]

История

Печатная плата от IBM 7030
CDC 6600. За системной консолью находятся два "рука" шкафа в форме знака плюс с открытыми крышками. В каждом "руке" машины было до четырех таких стоек. Справа - система охлаждения.
Cray -1, хранящийся в Немецком музее

В 1960 году UNIVAC построил Ливерморский атомный исследовательский компьютер (LARC), который сегодня считается одним из первых суперкомпьютеров, для Научно-исследовательского центра ВМС США. Он по-прежнему использовал высокоскоростную барабанную память , а не недавно появившуюся технологию дисковых накопителей . [13] Также одним из первых суперкомпьютеров был IBM 7030 Stretch . IBM 7030 был построен IBM для Лос-Аламосской национальной лаборатории , которая в 1955 году запросила компьютер в 100 раз быстрее любого существующего компьютера. IBM 7030 использовал транзисторы , память на магнитных сердечниках, конвейерные инструкции, предварительную выборку данных через контроллер памяти и включал в себя новаторские дисковые накопители с произвольным доступом. IBM 7030 был завершен в 1961 году и, несмотря на то, что не справился с задачей стократного увеличения производительности, он был куплен Лос-Аламосской национальной лабораторией. Клиенты в Англии и Франции также купили компьютер, и он стал основой для IBM 7950 Harvest , суперкомпьютера, созданного для криптоанализа . [14]

Третьим пионерским проектом суперкомпьютера в начале 1960-х годов был Atlas в Университете Манчестера , созданный командой под руководством Тома Килбурна . Он спроектировал Atlas так, чтобы иметь память для миллиона слов по 48 бит, но поскольку магнитная память с такой емкостью была недоступна, фактическая основная память Atlas составляла всего 16 000 слов, а барабан обеспечивал память для дополнительных 96 000 слов. Atlas Supervisor обменивался данными в виде страниц между магнитным сердечником и барабаном. Операционная система Atlas также ввела разделение времени в суперкомпьютерах, так что на суперкомпьютере можно было выполнять более одной программы в любой момент времени. [15] Atlas был совместным предприятием Ferranti и Манчестерского университета и был разработан для работы со скоростью обработки, приближающейся к одной микросекунде на инструкцию, около миллиона инструкций в секунду. [16]

CDC 6600 , разработанный Сеймуром Крэем , был закончен в 1964 году и ознаменовал переход от германиевых к кремниевым транзисторам. Кремниевые транзисторы могли работать быстрее, а проблема перегрева была решена путем внедрения охлаждения в конструкцию суперкомпьютера. [17] Таким образом, CDC6600 стал самым быстрым компьютером в мире. Учитывая, что 6600 превзошел все другие современные компьютеры примерно в 10 раз, его окрестили суперкомпьютером и определили рынок суперкомпьютеров, когда сто компьютеров были проданы по 8 миллионов долларов каждый. [18] [19] [20] [21]

Крей покинул CDC в 1972 году, чтобы основать собственную компанию Cray Research . [19] Спустя четыре года после ухода из CDC, в 1976 году Крей выпустил Cray-1 с тактовой частотой 80 МГц , который стал одним из самых успешных суперкомпьютеров в истории. [22] [23] Cray -2 был выпущен в 1985 году. Он имел восемь центральных процессоров (ЦП), жидкостное охлаждение , а охлаждающая жидкость для электроники Fluorinert прокачивалась через архитектуру суперкомпьютера . Он достиг 1,9  гигафлопс , что сделало его первым суперкомпьютером, преодолевшим барьер в гигафлопс. [24]

Массивно-параллельные проекты

Корпус массивно-параллельного Blue Gene /L, на котором видны сложенные друг на друга лезвия , каждое из которых содержит много процессоров.

Единственным компьютером, который серьезно оспаривал производительность Cray-1 в 1970-х годах, был ILLIAC IV . Эта машина была первым реализованным примером настоящего массивно-параллельного компьютера, в котором множество процессоров работали вместе для решения различных частей одной более крупной задачи. В отличие от векторных систем, которые были разработаны для максимально быстрого запуска одного потока данных, в этой концепции компьютер вместо этого подает отдельные части данных на совершенно разные процессоры, а затем рекомбинирует результаты. Проект ILLIAC был завершен в 1966 году с 256 процессорами и предлагал скорость до 1 GFLOPS по сравнению с пиком Cray-1 в 1970-х годах в 250 MFLOPS. Однако проблемы разработки привели к тому, что было построено всего 64 процессора, и система никогда не могла работать быстрее, чем около 200 MFLOPS, будучи намного больше и сложнее, чем Cray. Другая проблема заключалась в том, что написание программного обеспечения для системы было сложным, а достижение ее максимальной производительности требовало серьезных усилий.

Но частичный успех ILLIAC IV широко рассматривался как указание пути к будущему суперкомпьютеров. Крей выступил против этого, остроумно заявив: «Если бы вы пахали поле, что бы вы предпочли использовать? Двух сильных вола или 1024 цыплят?» [25] Но к началу 1980-х годов несколько команд работали над параллельными проектами с тысячами процессоров, в частности, над Connection Machine (CM), разработанной в результате исследований в MIT . CM-1 использовал до 65 536 упрощенных пользовательских микропроцессоров, соединенных вместе в сеть для обмена данными. Затем последовало несколько обновленных версий; суперкомпьютер CM-5 — это компьютер с массивной параллельной обработкой, способный выполнять многие миллиарды арифметических операций в секунду. [26]

В 1982 году система компьютерной графики LINKS-1 Университета Осаки использовала архитектуру массивной параллельной обработки с 514 микропроцессорами , включая 257 управляющих процессоров Zilog Z8001 и 257 процессоров с плавающей точкой iAPX 86/20 . Она в основном использовалась для рендеринга реалистичной трехмерной компьютерной графики . [27] VPP500 от Fujitsu 1992 года необычен, поскольку для достижения более высоких скоростей его процессоры использовали GaAs , материал, обычно используемый для микроволновых приложений из-за его токсичности. [28] Суперкомпьютер Numerical Wind Tunnel от Fujitsu использовал 166 векторных процессоров, чтобы занять первое место в 1994 году с пиковой скоростью 1,7  гигаФЛОПС (GFLOPS) на процессор. [29] [30] Hitachi SR2201 достиг пиковой производительности 600 GFLOPS в 1996 году, используя 2048 процессоров, соединенных через быструю трехмерную перекрестную сеть. [31] [32] [33] Intel Paragon мог иметь от 1000 до 4000 процессоров Intel i860 в различных конфигурациях и был признан самым быстрым в мире в 1993 году. Paragon был машиной MIMD , которая соединяла процессоры через высокоскоростную двумерную сетку, позволяя процессам выполняться на отдельных узлах, взаимодействуя через интерфейс передачи сообщений . [34]

Разработка программного обеспечения оставалась проблемой, но серия CM послужила толчком к значительному исследованию этой проблемы. Аналогичные проекты с использованием специального оборудования были созданы многими компаниями, включая Evans & Sutherland ES-1 , MasPar , nCUBE , Intel iPSC и Goodyear MPP . Но к середине 1990-х годов производительность ЦП общего назначения настолько улучшилась, что можно было построить суперкомпьютер, используя их в качестве отдельных процессорных блоков, вместо использования специальных чипов. К началу 21-го века проекты с десятками тысяч обычных ЦП стали нормой, а более поздние машины добавили к этому графические блоки . [9] [10]

В 1998 году Дэвид Бейдер разработал первый суперкомпьютер Linux , используя стандартные детали. [35] Во время работы в Университете Нью-Мексико Бейдер стремился построить суперкомпьютер, работающий под управлением Linux, используя потребительские готовые детали и высокоскоростную сеть межсоединений с низкой задержкой. Прототип использовал Alta Technologies «AltaCluster» из восьми двухъядерных компьютеров Intel Pentium II с частотой 333 МГц, работающих под управлением модифицированного ядра Linux. Бейдер перенес значительное количество программного обеспечения для обеспечения поддержки Linux для необходимых компонентов, а также код от членов Национального вычислительного научного альянса (NCSA) для обеспечения совместимости, поскольку ни один из них ранее не запускался на Linux. [36] Используя успешный дизайн прототипа, он возглавил разработку «RoadRunner», первого суперкомпьютера Linux для открытого использования национальным научным и инженерным сообществом через Национальную технологическую сеть Национального научного фонда. RoadRunner был запущен в эксплуатацию в апреле 1999 года. На момент его развертывания он считался одним из 100 самых быстрых суперкомпьютеров в мире. [36] [37] Хотя кластеры на базе Linux, использующие компоненты потребительского класса, такие как Beowulf , существовали до разработки прототипа Бейдера и RoadRunner, им не хватало масштабируемости, пропускной способности и возможностей параллельных вычислений, чтобы считаться «настоящими» суперкомпьютерами. [36]

Доля ЦП TOP500
Схема трехмерного тороидального соединения, используемого в таких системах, как Blue Gene, Cray XT3 и т. д.

Системы с огромным числом процессоров обычно выбирают один из двух путей. В подходе сетевых вычислений вычислительная мощность многих компьютеров, организованных как распределенные, разнообразные административные домены, используется по мере необходимости всякий раз, когда компьютер доступен. [38] В другом подходе многие процессоры используются в непосредственной близости друг от друга, например, в компьютерном кластере . В такой централизованной массивно-параллельной системе скорость и гибкостьМежсоединения становятся очень важными, и современные суперкомпьютеры используют различные подходы, начиная от усовершенствованныхInfinibandи заканчивая трехмернымиторовыми межсоединениями.[39][40]Использованиемногоядерных процессоровв сочетании с централизацией является новым направлением, например, как вCyclops64.[41][42]

Поскольку цена, производительность и энергоэффективность графических процессоров общего назначения (GPGPU) улучшились, ряд суперкомпьютеров с производительностью петафлопс, таких как Tianhe-I и Nebulae, начали полагаться на них. [43] Однако другие системы, такие как компьютер K, продолжают использовать обычные процессоры, такие как конструкции на базе SPARC , и общая применимость GPGPU в высокопроизводительных вычислительных приложениях общего назначения стала предметом дебатов, поскольку, хотя GPGPU можно настроить на хорошие результаты в определенных тестах, его общая применимость к повседневным алгоритмам может быть ограничена, если не будут приложены значительные усилия для настройки приложения под него. [44] Однако графические процессоры набирают обороты, и в 2012 году суперкомпьютер Jaguar был преобразован в Titan путем модернизации центральных процессоров с графическими процессорами. [45] [46] [47]

Ожидаемый жизненный цикл высокопроизводительных компьютеров составляет около трех лет, прежде чем потребуется модернизация. [48] Суперкомпьютер Gyoukou уникален тем, что он использует как массивно-параллельную конструкцию, так и жидкостное охлаждение .

Суперкомпьютеры специального назначения

Было разработано несколько систем специального назначения, предназначенных для одной проблемы. Это позволяет использовать специально запрограммированные чипы FPGA или даже специальные микросхемы ASIC , что позволяет улучшить соотношение цена/производительность, жертвуя универсальностью. Примерами суперкомпьютеров специального назначения являются Belle , [49] Deep Blue , [50] и Hydra [51] для игры в шахматы , Gravity Pipe для астрофизики, [52] MDGRAPE-3 для предсказания структуры белка и молекулярной динамики, [53] и Deep Crack для взлома шифра DES . [54]

Использование энергии и управление теплом

Суперкомпьютер Summit по состоянию на ноябрь 2018 года был самым быстрым суперкомпьютером в мире. [55] С измеренной энергоэффективностью 14,668 Гфлопс/Вт он также является третьим по энергоэффективности в мире. [56]

На протяжении десятилетий управление плотностью тепла оставалось ключевой проблемой для большинства централизованных суперкомпьютеров. [57] [58] [59] Большое количество тепла, вырабатываемого системой, может также иметь другие эффекты, например, сокращать срок службы других компонентов системы. [60] Существовали различные подходы к управлению теплом, от прокачки Fluorinert через систему до гибридной системы жидкостно-воздушного охлаждения или воздушного охлаждения с нормальными температурами кондиционирования воздуха . [61] [62] Типичный суперкомпьютер потребляет большое количество электроэнергии, почти вся из которой преобразуется в тепло, требующее охлаждения. Например, Tianhe-1A потребляет 4,04  мегаватт (МВт) электроэнергии. [63] Стоимость питания и охлаждения системы может быть значительной, например, 4 МВт по цене 0,10 долл. США/кВт·ч составляет 400 долл. США в час или около 3,5 млн. долл. США в год.

Лезвие IBM HS20

Управление теплом является серьезной проблемой в сложных электронных устройствах и влияет на мощные компьютерные системы различными способами. [64] Проблемы тепловой мощности проектирования и рассеивания мощности ЦП в суперкомпьютерах превосходят проблемы традиционных технологий охлаждения компьютеров . Награды суперкомпьютерам за экологичные вычисления отражают эту проблему. [65] [66] [67]

Упаковка тысяч процессоров вместе неизбежно генерирует значительные объемы тепловой плотности , с которыми необходимо иметь дело. Cray-2 был жидкостным охлаждением и использовал «охлаждающий водопад» Fluorinert , который подавался через модули под давлением. [61] Однако подход с погружным жидкостным охлаждением был непрактичен для многошкафных систем, основанных на готовых процессорах, и в System X совместно с компанией Liebert была разработана специальная система охлаждения, которая сочетала кондиционирование воздуха с жидкостным охлаждением . [62]

В системе Blue Gene IBM намеренно использовала маломощные процессоры, чтобы справиться с плотностью тепла. [68] IBM Power 775 , выпущенный в 2011 году, имеет плотно упакованные элементы, требующие водяного охлаждения. [69] Система IBM Aquasar использует водяное охлаждение для достижения энергоэффективности, вода также используется для отопления зданий. [70] [71]

Энергоэффективность компьютерных систем обычно измеряется в терминах « FLOPS на ватт ». В 2008 году Roadrunner от IBM работал на уровне 376  MFLOPS/Вт . [72] [73] В ноябре 2010 года Blue Gene/Q достиг 1684 MFLOPS/Вт [74] [75] , а в июне 2011 года первые два места в списке Green 500 заняли машины Blue Gene в Нью-Йорке (одна из них достигла 2097 MFLOPS/Вт), а кластер DEGIMA в Нагасаки занял третье место с 1375 MFLOPS/Вт. [76]

Поскольку медные провода могут передавать энергию в суперкомпьютер с гораздо более высокой плотностью мощности, чем нагнетаемый воздух или циркулирующие хладагенты могут удалять отработанное тепло , [77] способность систем охлаждения удалять отработанное тепло является ограничивающим фактором. [78] [79] По состоянию на 2015 год многие существующие суперкомпьютеры имеют большую емкость инфраструктуры, чем фактическая пиковая потребность машины — проектировщики обычно консервативно проектируют инфраструктуру питания и охлаждения, чтобы обрабатывать больше, чем теоретическая пиковая электрическая мощность, потребляемая суперкомпьютером. Проекты будущих суперкомпьютеров ограничены по мощности — тепловая расчетная мощность суперкомпьютера в целом, количество, которое может обрабатывать инфраструктура питания и охлаждения, несколько больше ожидаемого нормального потребления мощности, но меньше теоретического пикового потребления мощности электронного оборудования. [80]

Программное обеспечение и управление системой

Операционные системы

С конца 20-го века операционные системы суперкомпьютеров претерпели значительные изменения, основанные на изменениях в архитектуре суперкомпьютеров . [81] В то время как ранние операционные системы были индивидуально адаптированы для каждого суперкомпьютера для увеличения скорости, тенденция заключалась в переходе от внутренних операционных систем к адаптации общего программного обеспечения, такого как Linux . [82]

Поскольку современные суперкомпьютеры с массовым параллелизмом обычно отделяют вычисления от других служб, используя несколько типов узлов , они обычно используют разные операционные системы на разных узлах, например, используя небольшое и эффективное легковесное ядро , такое как CNK или CNL, на вычислительных узлах, но более крупную систему, такую ​​как производная Linux, на серверах и узлах ввода-вывода . [83] [84] [85]

В то время как в традиционной многопользовательской компьютерной системе планирование заданий , по сути, является проблемой постановки задач для обработки и периферийных ресурсов, в системе с массовым параллелизмом система управления заданиями должна управлять распределением как вычислительных, так и коммуникационных ресурсов, а также изящно справляться с неизбежными сбоями оборудования при наличии десятков тысяч процессоров. [86]

Хотя большинство современных суперкомпьютеров используют операционные системы на базе Linux , у каждого производителя есть своя собственная производная от Linux, и не существует отраслевого стандарта, отчасти из-за того, что различия в аппаратной архитектуре требуют изменений для оптимизации операционной системы под каждую аппаратную конструкцию. [81] [87]

Программные инструменты и передача сообщений

Широкоугольный вид коррелятора ALMA [ 88]

Параллельная архитектура суперкомпьютеров часто диктует использование специальных методов программирования для использования их скорости. Программные инструменты для распределенной обработки включают стандартные API, такие как MPI [89] и PVM , VTL , а также программное обеспечение с открытым исходным кодом, такое как Beowulf .

В наиболее распространенном сценарии используются такие среды, как PVM и MPI для слабо связанных кластеров и OpenMP для тесно скоординированных машин с общей памятью. Требуются значительные усилия для оптимизации алгоритма для характеристик межсоединений машины, на которой он будет запущен; цель состоит в том, чтобы не допустить, чтобы какой-либо из ЦП тратил время на ожидание данных от других узлов. GPGPU имеют сотни процессорных ядер и программируются с использованием моделей программирования, таких как CUDA или OpenCL .

Более того, отлаживать и тестировать параллельные программы довольно сложно. Для тестирования и отладки таких приложений необходимо использовать специальные методы .

Распределенные суперкомпьютеры

Оппортунистические подходы

Пример архитектуры сетевой вычислительной системы, соединяющей множество персональных компьютеров через Интернет

Оппортунистические супервычисления — это форма сетевых вычислений , в которой «супервиртуальный компьютер» из множества слабосвязанных добровольных вычислительных машин выполняет очень большие вычислительные задачи. Сетевые вычисления были применены к ряду крупномасштабных ошеломляюще параллельных задач, которые требуют масштабов производительности суперкомпьютеров. Однако базовые подходы к сетевым и облачным вычислениям , которые полагаются на добровольные вычисления, не могут справиться с традиционными задачами суперкомпьютеров, такими как моделирование динамики жидкости. [90]

Самая быстрая система сетевых вычислений — проект добровольных вычислений Folding@home (F@h). По состоянию на апрель 2020 года F@h сообщил о 2,5 эксафлопс вычислительной мощности x86 . Из них более 100 PFLOPS вносят клиенты, работающие на различных графических процессорах, а остальное — различные системы ЦП. [91]

Платформа Berkeley Open Infrastructure for Network Computing (BOINC) размещает ряд проектов по добровольному вычислению. По состоянию на февраль 2017 года BOINC зафиксировал вычислительную мощность более 166 петафлопс через более чем 762 тысячи активных компьютеров (хостов) в сети. [92]

По состоянию на октябрь 2016 года распределенный поиск простых чисел Мерсенна Great Internet Mersenne Prime Search (GIMPS) достиг производительности около 0,313 PFLOPS с использованием более 1,3 миллиона компьютеров. [93] Сервер PrimeNet поддерживал подход GIMPS к сетевым вычислениям, один из самых ранних проектов добровольных вычислений, с 1997 года.

Квазиоппортунистические подходы

Квази-оппортунистические суперкомпьютеры — это форма распределенных вычислений , в которой «супервиртуальный компьютер» множества объединенных в сеть географически распределенных компьютеров выполняет вычислительные задачи, требующие огромной вычислительной мощности. [94] Квази-оппортунистические суперкомпьютеры нацелены на обеспечение более высокого качества обслуживания, чем оппортунистические грид-вычисления, путем достижения большего контроля над назначением задач распределенным ресурсам и использования интеллекта о доступности и надежности отдельных систем в суперкомпьютерной сети. Однако квази-оппортунистическое распределенное выполнение требовательного параллельного вычислительного программного обеспечения в гридах должно быть достигнуто путем внедрения соглашений о распределении по сетке, подсистем совместного распределения, механизмов распределения с учетом топологии связи, отказоустойчивых библиотек передачи сообщений и предварительной подготовки данных. [94]

Высокопроизводительные вычислительные облака

Облачные вычисления с их недавним и быстрым расширением и развитием привлекли внимание пользователей и разработчиков высокопроизводительных вычислений (HPC) в последние годы. Облачные вычисления пытаются предоставлять HPC-как-услугу точно так же, как и другие формы услуг, доступных в облаке, такие как программное обеспечение как услуга , платформа как услуга и инфраструктура как услуга . Пользователи HPC могут извлечь выгоду из облака с разных сторон, таких как масштабируемость, ресурсы по требованию, быстрота и недорогостоимость. С другой стороны, перемещение приложений HPC также имеет ряд проблем. Хорошими примерами таких проблем являются накладные расходы виртуализации в облаке, многопользовательская аренда ресурсов и проблемы с задержкой сети. В настоящее время проводится много исследований, чтобы преодолеть эти проблемы и сделать HPC в облаке более реалистичной возможностью. [95] [96] [97] [98]

В 2016 году Penguin Computing, Parallel Works, R-HPC, Amazon Web Services , Univa , Silicon Graphics International , Rescale , Sabalcore и Gomput начали предлагать облачные вычисления HPC . Облако Penguin On Demand (POD) представляет собой вычислительную модель bare-metal для выполнения кода, но каждому пользователю предоставляется виртуализированный узел входа. Вычислительные узлы POD подключаются через невиртуализированные сети Ethernet 10 Гбит/с или QDR InfiniBand . Скорость подключения пользователей к центру обработки данных POD составляет от 50 Мбит/с до 1 Гбит/с. [99] Ссылаясь на EC2 Elastic Compute Cloud от Amazon, Penguin Computing утверждает, что виртуализация вычислительных узлов не подходит для HPC. Penguin Computing также критиковал то, что облака HPC могли выделять вычислительные узлы клиентам, которые находятся далеко друг от друга, что приводило к задержкам, которые ухудшали производительность некоторых приложений HPC. [100]

Измерение производительности

Возможности против емкости

Суперкомпьютеры обычно стремятся к максимуму в вычислительных возможностях, а не к вычислительным мощностям. Вычисления возможностей обычно рассматриваются как использование максимальной вычислительной мощности для решения одной большой проблемы за кратчайшее время. Часто система возможностей способна решить проблему такого размера или сложности, которую не может решить ни один другой компьютер, например, очень сложное приложение для моделирования погоды . [101]

Напротив, вычисление мощности обычно рассматривается как использование эффективной и экономически эффективной вычислительной мощности для решения нескольких довольно крупных задач или множества мелких задач. [101] Архитектуры, которые позволяют поддерживать множество пользователей для выполнения рутинных повседневных задач, могут иметь большую мощность, но обычно не считаются суперкомпьютерами, учитывая, что они не решают ни одной очень сложной задачи. [101]

Показатели производительности

Максимальная скорость суперкомпьютеров: скорость logscale за 60 лет

В целом, скорость суперкомпьютеров измеряется и тестируется в FLOPS (операции с плавающей точкой в ​​секунду), а не в терминах MIPS (миллионы инструкций в секунду), как в случае с компьютерами общего назначения. [102] Эти измерения обычно используются с префиксом СИ , таким как тера- , объединенным в сокращенное обозначение TFLOPS (10 12 FLOPS, произносится как терафлопс ), или пета- , объединенным в сокращенное обозначение PFLOPS (10 15 FLOPS, произносится как петафлопс ). Суперкомпьютеры Petascale могут обрабатывать один квадриллион (10 15 ) (1000 триллионов) FLOPS. Exascale — это вычислительная производительность в диапазоне exaFLOPS (EFLOPS). EFLOPS составляет один квинтиллион (10 18 ) FLOPS (один миллион TFLOPS). Однако производительность суперкомпьютера может серьезно зависеть от колебаний, вызванных такими факторами, как нагрузка на систему, сетевой трафик и параллельные процессы, как упоминают Брем и Брувилер (2015). [103]

Ни одно число не может отразить общую производительность компьютерной системы, однако цель теста Linpack — приблизительно оценить, насколько быстро компьютер решает численные задачи, и он широко используется в отрасли. [104] Измерение FLOPS либо указывается на основе теоретической производительности процессора с плавающей точкой (выведенной из спецификаций процессора производителя и показанной как «Rpeak» в списках TOP500), которая, как правило, недостижима при выполнении реальных рабочих нагрузок, либо на достижимой пропускной способности, выведенной из тестов LINPACK и показанной как «Rmax» в списке TOP500. [105] Тест LINPACK обычно выполняет LU-разложение большой матрицы. [106] Производительность LINPACK дает некоторое представление о производительности для некоторых реальных задач, но не обязательно соответствует требованиям обработки многих других рабочих нагрузок суперкомпьютера, которые, например, могут потребовать большей пропускной способности памяти или могут потребовать лучшей производительности целочисленных вычислений, или могут потребовать высокопроизводительной системы ввода-вывода для достижения высокого уровня производительности. [104]

Список ТОП500

20 лучших суперкомпьютеров мира (июнь 2014 г.)

С 1993 года самые быстрые суперкомпьютеры ранжируются в списке TOP500 согласно результатам бенчмарка LINPACK . Список не претендует на беспристрастность или окончательность, но это широко цитируемое текущее определение «самого быстрого» суперкомпьютера, доступного в любой момент времени.

Это список компьютеров, которые появлялись на вершине списка TOP500 с июня 1993 года, [107] а "Пиковая скорость" указана как рейтинг "Rmax". В 2018 году Lenovo стала крупнейшим в мире поставщиком суперкомпьютеров TOP500 с 117 произведенными единицами. [108]

Приложения

Этапы применения суперкомпьютера можно суммировать в следующей таблице:

Компьютер IBM Blue Gene /P использовался для моделирования ряда искусственных нейронов, эквивалентных приблизительно одному проценту коры головного мозга человека, содержащей 1,6 миллиарда нейронов с приблизительно 9 триллионами связей. Та же исследовательская группа также преуспела в использовании суперкомпьютера для моделирования ряда искусственных нейронов, эквивалентных всему мозгу крысы. [120]

Современное прогнозирование погоды также опирается на суперкомпьютеры. Национальное управление океанических и атмосферных исследований использует суперкомпьютеры для обработки сотен миллионов наблюдений, чтобы сделать прогнозы погоды более точными. [121]

В 2011 году проблемы и трудности в развитии суперкомпьютеров были подчеркнуты отказом IBM от петафлопсного проекта Blue Waters . [122]

В настоящее время Программа усовершенствованного моделирования и вычислений использует суперкомпьютеры для поддержания и моделирования ядерного арсенала США. [123]

В начале 2020 года COVID-19 был в центре внимания в мире. Суперкомпьютеры использовали различные симуляции для поиска соединений, которые могли бы потенциально остановить распространение. Эти компьютеры работают десятки часов, используя несколько параллельно работающих ЦП для моделирования различных процессов. [124] [125] [126]

Taiwania 3 — тайваньский суперкомпьютер, который помог научному сообществу бороться с COVID-19 . Он был запущен в 2020 году и имеет производительность около двух-трех ПетаФЛОПС .

Развитие и тенденции

Распределение суперкомпьютеров TOP500 по странам в ноябре 2015 г.

В 2010-х годах Китай, США, Европейский союз и другие страны соревновались за право первыми создать суперкомпьютер производительностью 1  экзаФЛОПС ( 1018 или один квинтиллион ФЛОПС). [127] Эрик П. ДеБенедиктис из Sandia National Laboratories предположил, что для полного моделирования погоды , которое могло бы точно охватить двухнедельный промежуток времени, требуется компьютер производительностью зеттаФЛОПС ( 1021 или один секстиллион ФЛОПС). [128] [129] [130] Такие системы могут быть построены около 2030 года. [131]

Многие модели Монте-Карло используют один и тот же алгоритм для обработки случайно сгенерированного набора данных; в частности, интегро-дифференциальные уравнения, описывающие физические процессы переноса , случайные пути , столкновения, а также передачу энергии и импульса нейтронам, фотонам, ионам, электронам и т. д.Следующим шагом для микропроцессоров может стать переход в третье измерение ; и, специализируясь на методе Монте-Карло, многие слои могут быть идентичны, что упростит процесс проектирования и производства. [132]

Стоимость эксплуатации высокопроизводительных суперкомпьютеров возросла, в основном из-за увеличения энергопотребления. В середине 1990-х годов топ-10 суперкомпьютеров требовали около 100 киловатт, в 2010 году топ-10 суперкомпьютеров требовали от 1 до 2 мегаватт. [133] Исследование 2010 года, заказанное DARPA, определило энергопотребление как наиболее распространенную проблему в достижении Exascale вычислений . [134] В то время мегаватт в год потребления энергии стоил около 1 миллиона долларов. Суперкомпьютерные мощности были построены для эффективного удаления растущего количества тепла, вырабатываемого современными многоядерными центральными процессорами . Основываясь на энергопотреблении списка суперкомпьютеров Green 500 в период с 2007 по 2011 год, суперкомпьютер с 1 эксафлопс в 2011 году потребовал бы почти 500 мегаватт. Операционные системы были разработаны для существующего оборудования, чтобы экономить энергию, когда это возможно. [135] Ядра ЦП, не используемые во время выполнения параллельного приложения, были переведены в состояния с низким энергопотреблением, что обеспечивало экономию энергии для некоторых суперкомпьютерных приложений. [136]

Растущая стоимость эксплуатации суперкомпьютеров стала движущим фактором в тенденции к объединению ресурсов через распределенную суперкомпьютерную инфраструктуру. Национальные суперкомпьютерные центры впервые появились в США, затем в Германии и Японии. Европейский союз запустил Партнерство по передовым вычислениям в Европе (PRACE) с целью создания постоянной общеевропейской суперкомпьютерной инфраструктуры с услугами по поддержке ученых по всему Европейскому союзу в портировании, масштабировании и оптимизации суперкомпьютерных приложений. [133] Исландия построила первый в мире суперкомпьютер с нулевым уровнем выбросов. Расположенный в Центре обработки данных Thor в Рейкьявике , Исландия, этот суперкомпьютер использует полностью возобновляемые источники энергии, а не ископаемое топливо. Более холодный климат также снижает потребность в активном охлаждении, что делает его одним из самых экологичных объектов в мире компьютеров. [137]

Финансирование суперкомпьютерного оборудования также становилось все более сложным. В середине 1990-х годов топ-10 суперкомпьютеров стоил около 10 миллионов евро, в то время как в 2010 году топ-10 суперкомпьютеров требовали инвестиций в размере от 40 до 50 миллионов евро. [133] В 2000-х годах национальные правительства внедрили различные стратегии финансирования суперкомпьютеров. В Великобритании национальное правительство полностью финансировало суперкомпьютеры, а высокопроизводительные вычисления были переданы под контроль национального агентства по финансированию. Германия разработала смешанную модель финансирования, объединяющую местное государственное финансирование и федеральное финансирование. [133]

В художественной литературе

Примерами суперкомпьютеров в художественной литературе являются HAL 9000 , Multivac , The Machine Stops , GLaDOS , The Evitable Conflict , Vulcan's Hammer , Colossus , WOPR , AM и Deep Thought . Суперкомпьютер от Thinking Machines упоминался как суперкомпьютер, использовавшийся для секвенирования ДНК, извлеченной из законсервированных паразитов в серии «Парк Юрского периода» .

Смотрите также

Ссылки

  1. ^ "Анонс IBM Blue Gene". 03.ibm.com. 26 июня 2007 г. Архивировано из оригинала 8 июля 2007 г. Получено 9 июня 2012 г.
  2. ^ "Intrepid". Argonne Leadership Computing Facility . Argonne National Laboratory . Архивировано из оригинала 7 мая 2013 года . Получено 26 марта 2020 года .
  3. ^ "Список: июнь 2018". Топ 500. Получено 25 июня 2018 .
  4. ^ "AMD Playstation 5 GPU Specs". TechPowerUp . Получено 11 сентября 2021 г. .
  5. ^ "NVIDIA GeForce GT 730 Specs". TechPowerUp . Получено 11 сентября 2021 г. .
  6. ^ "Семейство операционных систем / Linux". TOP500.org . Получено 30 ноября 2017 г. .
  7. ^ Андерсон, Марк (21 июня 2017 г.). «Глобальная гонка за экзафлопсными вычислительными мощностями выведет суперкомпьютеры и искусственный интеллект на массовый уровень». Spectrum.IEEE.org . Получено 20 января 2019 г.
  8. ^ Лемке, Тим (8 мая 2013 г.). "АНБ начинает строительство огромного вычислительного центра" . Получено 11 декабря 2013 г.
  9. ^ ab Хоффман, Аллан Р.; и др. (1990). Суперкомпьютеры: направления в технологии и приложениях . Национальные академии. стр. 35–47. ISBN 978-0-309-04088-4.
  10. ^ ab Hill, Mark Donald; Jouppi, Norman Paul ; Sohi, Gurindar (1999). Чтения по компьютерной архитектуре . Gulf Professional. стр. 40–49. ISBN 978-1-55860-539-8.
  11. ^ "Япония завоёвывает корону TOP500 с суперкомпьютером на базе Arm - веб-сайт TOP500". www.top500.org .
  12. ^ "Performance Development". www.top500.org . Получено 27 октября 2022 г. .
  13. ^ Эрик Г. Сведин; Дэвид Л. Ферро (2007). Компьютеры: история жизни технологии . JHU Press. стр. 57. ISBN 9780801887741.
  14. ^ Эрик Г. Сведин; Дэвид Л. Ферро (2007). Компьютеры: история жизни технологии . JHU Press. стр. 56. ISBN 9780801887741.
  15. ^ Эрик Г. Сведин; Дэвид Л. Ферро (2007). Компьютеры: история жизни технологии . JHU Press. стр. 58. ISBN 9780801887741.
  16. Атлас, Манчестерский университет, архивировано из оригинала 28 июля 2012 г. , извлечено 21 сентября 2010 г.
  17. Супермены , Чарльз Мюррей, Wiley & Sons, 1997.
  18. ^ Пол Э. Черуцци (2003). История современных вычислений . MIT Press. стр. 161. ISBN 978-0-262-53203-7.
  19. ^ ab Hannan, Caryn (2008). Биографический словарь Висконсина. State History Publications. стр. 83–84. ISBN 978-1-878592-63-7.
  20. ^ Джон Импальяццо; Джон А. Н. Ли (2004). История вычислений в образовании. Springer Science & Business Media. стр. 172. ISBN 978-1-4020-8135-4.
  21. ^ Эндрю Р. Л. Кэйтон; Ричард Сиссон; Крис Захер (2006). Американский Средний Запад: Интерпретативная энциклопедия. Издательство Индианского университета. стр. 1489. ISBN 978-0-253-00349-2.
  22. ^ Чтения по компьютерной архитектуре Марка Дональда Хилла, Нормана Пола Джуппи, Гуриндара Сохи 1999 ISBN 978-1-55860-539-8 страницы 41-48 
  23. ^ Вехи в компьютерной науке и информационных технологиях Эдвина Д. Рейли 2003 ISBN 1-57356-521-0 стр. 65 
  24. ^ Из-за советской пропаганды иногда можно прочитать, что советский суперкомпьютер М13 был первым, кто достиг гигафлопсного барьера. На самом деле, строительство М13 началось в 1984 году, но он не был введен в эксплуатацию до 1986 года. Рогачев Юрий Васильевич, Российский виртуальный компьютерный музей
  25. ^ "Цитаты Сеймура Крея". BrainyQuote .
  26. Стив Нельсон (3 октября 2014 г.). «ComputerGK.com: Суперкомпьютеры».
  27. ^ "LINKS-1 Компьютерная графическая система-Музей компьютеров". museum.ipsj.or.jp .
  28. ^ "VPP500 (1992) - Fujitsu Global".
  29. ^ "TOP500 Annual Report 1994". Netlib.org. 1 октября 1996 г. Получено 9 июня 2012 г.
  30. ^ Н. Хиросе и М. Фукуда (1997). «Численная аэродинамическая труба (NWT) и исследования CFD в Национальной аэрокосмической лаборатории». Труды Высокопроизводительные вычисления на информационной супермагистрали. HPC Asia '97 . Труды HPC-Asia '97. IEEE Computer SocietyPages. стр. 99–103. doi :10.1109/HPC.1997.592130. ISBN 0-8186-7901-8.
  31. ^ H. Fujii, Y. Yasuda, H. Akashi, Y. Inagami, M. Koga, O. Ishihara, M. Syazwan, H. Wada, T. Sumimoto, Архитектура и производительность массивно-параллельной процессорной системы Hitachi SR2201, Труды 11-го Международного симпозиума по параллельной обработке, апрель 1997 г., страницы 233–241.
  32. ^ Y. Iwasaki, Проект CP-PACS, Ядерная физика B: Дополнения к трудам, том 60, выпуски 1–2, январь 1998 г., страницы 246–254.
  33. ^ Эй Джей ван дер Стин, Обзор новейших суперкомпьютеров, Публикация NCF, Stichting Nationale Computer Faciliteiten, Нидерланды, январь 1997 г.
  34. ^ Масштабируемый ввод/вывод: достижение баланса системы Дэниел А. Рид 2003 ISBN 978-0-262-68142-1 страница 182 
  35. ^ "Дэвид Бейдер выбран для получения премии Сидни Фернбаха IEEE Computer Society 2021 года". IEEE Computer Society. 22 сентября 2021 г. Получено 12 октября 2023 г.
  36. ^ abc Bader, David A. (2021). «Linux и суперкомпьютеры: как моя страсть к созданию систем COTS привела к революции HPC». IEEE Annals of the History of Computing . 43 (3): 73–80. doi : 10.1109/MAHC.2021.3101415 . S2CID  237318907.
  37. Флек, Джон (8 апреля 1999 г.). «UNM сегодня развернет суперкомпьютер стоимостью 400 000 долларов». Albuquerque Journal . стр. D1.
  38. ^ Продан, Раду; Фарингер, Томас (2007). Сетевые вычисления: управление экспериментом, интеграция инструментов и научные рабочие процессы . Springer. стр. 1–4. ISBN 978-3-540-69261-4.
  39. Найт, Уилл: «IBM создает самый мощный в мире компьютер», служба новостей NewScientist.com , июнь 2007 г.
  40. ^ NR Agida; et al. (2005). "Blue Gene/L Torus Interconnection Network | IBM Journal of Research and Development" (PDF) . Torus Interconnection Network . стр. 265. Архивировано из оригинала (PDF) 15 августа 2011 г.
  41. ^ Niu, Yanwei; Hu, Ziang; Barner, Kenneth ; Gao, Guang R. (2005). "Performance Modeling and Optimization of Memory Access on Cellular Computer Architecture Cyclops64" (PDF) . Сетевые и параллельные вычисления . Конспект лекций по информатике. Том 3779. С. 132–143. doi :10.1007/11577188_18. ISBN 978-3-540-29810-6. Архивировано (PDF) из оригинала 9 октября 2022 г.
  42. ^ Анализ и результаты производительности вычислений промежуточной центральности на IBM Cyclops64, авторы: Гуанмин Тан, Вугранам С. Сридхар и Гуан Р. Гао. Журнал суперкомпьютеров. Том 56, номер 1, 1–24 сентября 2011 г.
  43. Прикетт, Тимоти (31 мая 2010 г.). «500 лучших суперкомпьютеров – Рассвет графических процессоров». Theregister.co.uk.
  44. ^ Ганс Хакер; Карстен Тринитис; Йозеф Вайдендорфер; Маттиас Брем (2010). «Рассмотрение GPGPU для центров HPC: стоит ли это усилий?». В Райнер Келлер; Дэвид Крамер; Ян-Филипп Вайс (ред.). Столкновение с многоядерным вызовом: аспекты новых парадигм и технологий в параллельных вычислениях . Springer Science & Business Media. стр. 118–121. ISBN 978-3-642-16232-9.
  45. Дэймон Поэтер (11 октября 2011 г.). «Суперкомпьютер Titan компании Cray для ORNL может стать самым быстрым в мире». Pcmag.com.
  46. Фельдман, Майкл (11 октября 2011 г.). «Графические процессоры превратят Jaguar от ORNL в 20-петафлопсный Titan». Hpcwire.com.
  47. ^ Тимоти Прикетт Морган (11 октября 2011 г.). «Oak Ridge меняет пятна Jaguar с CPU на GPU». Theregister.co.uk.
  48. ^ «Суперкомпьютер NETL» Архивировано 4 сентября 2015 г. на Wayback Machine . Страница 2.
  49. ^ Кондон, Дж. Х. и К. Томпсон, «Оборудование Belle Chess», В книге Advances in Computer Chess 3 (ред. М. Р. Кларк), Pergamon Press, 1982.
  50. ^ Сюй, Фэн-сюн (2002). За Deep Blue: Создание компьютера, который победил чемпиона мира по шахматам . Princeton University Press . ISBN 978-0-691-09065-8.
  51. ^ C. Donninger, U. Lorenz. Шахматный монстр Гидра. Труды 14-й Международной конференции по программируемой логике и приложениям (FPL), 2004, Антверпен – Бельгия, LNCS 3203, стр. 927 – 932
  52. ^ Дж. Макино и М. Тайджи, Научное моделирование с использованием компьютеров специального назначения: системы GRAPE , Wiley. 1998.
  53. ^ Пресс-релиз RIKEN, Завершение создания компьютерной системы производительностью один петафлопс для моделирования молекулярной динамики. Архивировано 2 декабря 2012 г. на Wayback Machine.
  54. ^ Electronic Frontier Foundation (1998). Взлом DES – Секреты исследований шифрования, политики прослушивания и проектирования чипов. Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
  55. ^ Лор, Стив (8 июня 2018 г.). «Подвинься, Китай: США снова стали домом для самого быстрого суперкомпьютера в мире». New York Times . Получено 19 июля 2018 г.
  56. ^ "Список Green500 - ноябрь 2018". TOP500 . Получено 19 июля 2018 .
  57. ^ Сюэ-Джун Ян; Сян-Кэ Ляо; и др. (2011). «Суперкомпьютер TianHe-1A: его аппаратное и программное обеспечение». Журнал компьютерной науки и технологий . 26 (3): 344–351. doi :10.1007/s02011-011-1137-8. S2CID  1389468.
  58. «Супермены: история Сеймура Крея и технических волшебников, стоящих за суперкомпьютером» Чарльза Дж. Мюррея, 1997, ISBN 0-471-04885-2 , страницы 133–135. 
  59. ^ Параллельная вычислительная гидродинамика; последние достижения и будущие направления под редакцией Рупака Бисваса 2010 ISBN 1-60595-022-X страница 401 
  60. ^ Supercomputing Research Advances by Yongge Huáng 2008, ISBN 1-60456-186-6 , страницы 313–314 
  61. ^ ab Параллельные вычисления для обработки сигналов в реальном времени и управления авторства MO Tokhi, Mohammad Alamgir Hossain 2003, ISBN 978-1-85233-599-1 , страницы 201–202 
  62. ^ ab Computational science – ICCS 2005: 5-я международная конференция под редакцией Вайди С. Сандерама 2005, ISBN 3-540-26043-9 , страницы 60–67 
  63. ^ "Графические процессоры NVIDIA Tesla обеспечивают работу самого быстрого суперкомпьютера в мире" (пресс-релиз). Nvidia. 29 октября 2010 г. Архивировано из оригинала 2 марта 2014 г. Получено 21 февраля 2011 г.
  64. ^ Баландин, Александр А. (октябрь 2009 г.). "Лучшие вычисления через охлаждение ЦП". IEEE . Архивировано из оригинала 14 июля 2012 г.
  65. ^ "The Green 500". Green500.org. Архивировано из оригинала 26 августа 2016 года . Получено 14 августа 2011 года .
  66. ^ "Green 500 list ranks supercomputers". iTnews Australia . Архивировано из оригинала 22 октября 2008 года.
  67. ^ У-чунь Фэн (2003). «Создание доводов в пользу эффективных суперкомпьютеров | Журнал ACM Queue, том 1, выпуск 7, 10 января 2003 г. doi 10.1145/957717.957772». Queue . 1 (7): 54. doi : 10.1145/957717.957772 . S2CID  11283177.
  68. ^ "IBM раскрывает 20 петафлопс BlueGene/Q super". The Register . 22 ноября 2010 . Получено 25 ноября 2010 .
  69. ^ Прикетт, Тимоти (15 июля 2011 г.). "The Register: IBM 'Blue Waters' super node прибивает к берегу в августе". Theregister.co.uk . Получено 9 июня 2012 г.
  70. ^ "IBM Hot Water-Cooled Supercomputer Goes Live at ETH Zurich". IBM News room . 2 июля 2010 г. Архивировано из оригинала 10 января 2011 г. Получено 16 марта 2020 г.
  71. ^ Мартин Ламоника (10 мая 2010 г.). "CNet 10 мая 2010 г.". News.cnet.com. Архивировано из оригинала 1 ноября 2013 г. Получено 9 июня 2012 г.
  72. ^ "Правительство представляет самый быстрый в мире компьютер". CNN . Архивировано из оригинала 10 июня 2008 г. выполнение 376 миллионов вычислений на каждый ватт потребляемой электроэнергии.
  73. ^ "IBM Roadrunner берет золото в гонке петафлоп". Архивировано из оригинала 17 декабря 2008 года . Получено 16 марта 2020 года .
  74. ^ «Список 500 лучших суперкомпьютеров раскрывает тенденции в области вычислений». 20 июля 2010 г. Система IBM... BlueGene/Q... установила рекорд энергоэффективности со значением 1680 МФЛОПС/Вт, что более чем в два раза превышает показатели следующей лучшей системы.
  75. ^ "IBM Research — явный победитель в рейтинге Green 500". 18 ноября 2010 г.
  76. ^ "Список Green 500". Green500.org. Архивировано из оригинала 3 июля 2011 г. Получено 16 марта 2020 г.
  77. ^ Саед Г. Юнис. «Асимптотически нулевые вычисления энергии с использованием логики восстановления заряда с разделением уровней». 1994. стр. 14.
  78. ^ «Горячая тема – проблема охлаждения суперкомпьютеров». Архивировано 18 января 2015 г. на Wayback Machine .
  79. ^ Ананд Лал Шимпи. «Внутри суперкомпьютера Titan: 299 тыс. ядер AMD x86 и 18,6 тыс. графических процессоров NVIDIA». 2012.
  80. ^ Кертис Сторли; Джо Секстон; Скотт Пэйкин; Майкл Лэнг; Брайан Райх; Уильям Раст. «Моделирование и прогнозирование энергопотребления высокопроизводительных вычислительных задач». 2014.
  81. ^ ab Энциклопедия параллельных вычислений Дэвида Падуи 2011 ISBN 0-387-09765-1 страницы 426–429 
  82. ^ Знание машин: эссе о технических изменениях Дональда Маккензи 1998 ISBN 0-262-63188-1 стр. 149-151 
  83. ^ Параллельная обработка Euro-Par 2004: 10-я Международная конференция Euro-Par 2004, Марко Данелутто, Марко Ваннески и Доменико Лафоренца, ISBN 3-540-22924-8 , стр. 835 
  84. ^ Параллельная обработка Euro-Par 2006: 12-я международная конференция Euro-Par , 2006, Вольфганг Э. Нагель, Вольфганг В. Вальтер и Вольфганг Ленер ISBN 3-540-37783-2 стр. 
  85. ^ Оценка Oak Ridge National Laboratory Cray XT3 Садафом Р. Аламом и др. Международный журнал по высокопроизводительным вычислительным приложениям Февраль 2008 г. Том 22 № 1 52–80
  86. ^ Открытая архитектура управления заданиями для суперкомпьютера Blue Gene/L Ярива Аридора и др. в Стратегиях планирования заданий для параллельной обработки Дрора Г. Фейтельсона 2005 ISBN 978-3-540-31024-2 страницы 95–101 
  87. ^ "Top500 OS chart". Top500.org. Архивировано из оригинала 5 марта 2012 года . Получено 31 октября 2010 года .
  88. ^ "Широкоугольный вид коррелятора ALMA". Пресс-релиз ESO . Получено 13 февраля 2013 г.
  89. ^ Нильсен, Франк (2016). Введение в HPC с MPI для науки о данных . Springer. С. 185–221. ISBN 978-3-319-21903-5.
  90. ^ Рахат, Назмул. «Глава 03 Программное обеспечение и управление системами».
  91. ^ Pande lab. "Статистика клиентов по ОС". Folding@home . Стэнфордский университет . Получено 10 апреля 2020 г. .
  92. ^ "BOINC Combined". BOINCstats . BOINC . Архивировано из оригинала 19 сентября 2010 г. . Получено 30 октября 2016 г. Обратите внимание, что эта ссылка будет предоставлять текущую статистику, а не на дату последнего доступа.{{cite web}}: CS1 maint: постскриптум ( ссылка )
  93. ^ "Интернет PrimeNet Server Distributed Computing Technology for the Great Internet Mersenne Prime Search". GIMPS . Получено 6 июня 2011 г.
  94. ^ ab Кравцов, Валентин; Кармели, Дэвид; Дубицкий, Вернер; Орда, Ариэль; Шустер, Ассаф ; Йошпа, Бенни. "Квазиоппортунистические супервычисления в сетках, горячая тематическая статья (2007)". IEEE International Symposium on High Performance Distributed Computing . IEEE. CiteSeerX 10.1.1.135.8993 . Получено 4 августа 2011 г. 
  95. ^ Джамалиан, С.; Раджаи, Х. (1 марта 2015 г.). «ASETS: система планирования задач с поддержкой SDN для HPCaaS в облаке». Международная конференция IEEE по облачной инженерии 2015 г. стр. 329–334. doi :10.1109/IC2E.2015.56. ISBN 978-1-4799-8218-9. S2CID  10974077.
  96. ^ Джамалиан, С.; Раджаи, Х. (1 июня 2015 г.). «Планирование задач HPC с интенсивным использованием данных с помощью SDN для реализации HPC-как-услуги». 8-я международная конференция IEEE по облачным вычислениям 2015 г. стр. 596–603. doi :10.1109/CLOUD.2015.85. ISBN 978-1-4673-7287-9. S2CID  10141367.
  97. ^ Гупта, А.; Милойчич, Д. (1 октября 2011 г.). «Оценка приложений HPC в облаке». 2011 Sixth Open Cirrus Summit . С. 22–26. CiteSeerX 10.1.1.294.3936 . doi :10.1109/OCS.2011.10. ISBN  978-0-7695-4650-6. S2CID  9405724.
  98. ^ Ким, Х.; эль-Хамра, И.; Джа, С.; Парашар, М. (1 декабря 2009 г.). «Автономный подход к интегрированному использованию сетей и облаков HPC». Пятая международная конференция IEEE по электронной науке 2009 г. С. 366–373. CiteSeerX 10.1.1.455.7000 . doi :10.1109/e-Science.2009.58. ISBN  978-1-4244-5340-5. S2CID  11502126.
  99. ^ Эдлайн, Дуглас. «Перенос HPC в облако». Журнал Admin . Получено 30 марта 2019 г.
  100. ^ Niccolai, James (11 августа 2009 г.). «Penguin помещает высокопроизводительные вычисления в облако». PCWorld . IDG Consumer & SMB . Получено 6 июня 2016 г. .
  101. ^ abc Потенциальное воздействие высокопроизводительных вычислений на четыре показательные области науки и техники, Комитет по потенциальному воздействию высокопроизводительных вычислений на показательные области науки и техники и Национальный исследовательский совет (28 октября 2008 г.) ISBN 0-309-12485-9 стр. 9 
  102. ^ Синфу Ву (1999). Оценка производительности, прогнозирование и визуализация параллельных систем. Springer Science & Business Media. С. 114–117. ISBN 978-0-7923-8462-5.
  103. ^ Брем, М. и Брухвилер, Д.Л. (2015) «Характеристики производительности плазменного кильватерного ускорения, управляемого протонными пучками». Журнал физики: Серия конференций
  104. ^ ab Dongarra, Jack J.; Luszczek, Piotr; Petitet, Antoine (2003), "The LINPACK Benchmark: past, present and future" (PDF) , Concurrency and Computation: Practice and Experience , 15 (9): 803–820, doi :10.1002/cpe.728, S2CID  1900724
  105. ^ "Понимание мер производительности суперкомпьютера и емкости системы хранения". Университет Индианы . Получено 3 декабря 2017 г.
  106. ^ "Часто задаваемые вопросы". TOP500.org . Получено 3 декабря 2017 г. .
  107. ^ "Списки Top500". Top500.org . Получено 3 августа 2024 г. .
  108. ^ «Lenovo получает статус крупнейшего мирового поставщика суперкомпьютеров TOP500». Business Wire . 25 июня 2018 г.
  109. ^ "Ноябрь 2022 | TOP500". www.top500.org . Получено 7 декабря 2022 г. .
  110. ^ ab "Китай возглавил рейтинг суперкомпьютеров с новой 93-петафлопной машиной | TOP500". www.top500.org .
  111. ^ "Матрица-2000 - NUDT - WikiChip". en.wikichip.org . Получено 19 июля 2019 .
  112. ^ "Tianhe-2A - TH-IVB-FEP Cluster, Intel Xeon E5-2692v2 12C 2.2GHz, TH Express-2, Matrix-2000 | TOP500 Supercomputer Sites". www.top500.org . Получено 16 ноября 2022 г. .
  113. ^ "The Cray-1 Computer System" (PDF) . Cray Research, Inc. Архивировано (PDF) из оригинала 9 октября 2022 г. Получено 25 мая 2011 г.
  114. ^ Джоши, Раджани Р. (9 июня 1998 г.). «Новый эвристический алгоритм для вероятностной оптимизации». Computers & Operations Research . 24 (7): 687–697. doi :10.1016/S0305-0548(96)00056-1.
  115. ^ "Реферат для SAMSY – Модульная система анализа экранирования". Агентство по ядерной энергии ОЭСР, Исси-ле-Мулино, Франция . Получено 25 мая 2011 г.
  116. ^ "EFF DES Cracker Source Code". Cosic.esat.kuleuven.be . Получено 8 июля 2011 г. .
  117. ^ «Disarmament Diplomacy: – DOE Supercomputing & Test Simulation Programme». Acronym.org.uk. 22 августа 2000 г. Архивировано из оригинала 16 мая 2013 г. Получено 8 июля 2011 г.
  118. ^ "Инвестиции Китая в суперкомпьютеры на базе графических процессоров начинают приносить большую прибыль!". Blogs.nvidia.com. Архивировано из оригинала 5 июля 2011 г. Получено 8 июля 2011 г.
  119. ^ Эндрю, Скотти (19 марта 2020 г.). «Самый быстрый в мире суперкомпьютер определил химические вещества, которые могут остановить распространение коронавируса, что является важным шагом на пути к лечению». CNN . Получено 12 мая 2020 г.
  120. Каку, Мичио. Физика будущего (Нью-Йорк: Doubleday, 2011), 65.
  121. ^ "Более быстрые суперкомпьютеры помогают прогнозировать погоду". News.nationalgeographic.com. 28 октября 2010 г. Архивировано из оригинала 5 сентября 2005 г. Получено 8 июля 2011 г.
  122. ^ "IBM Drops 'Blue Waters' Supercomputer Project". International Business Times . 9 августа 2011 г. Получено 14 декабря 2018 г.  – через EBSCO (требуется подписка)
  123. ^ "Суперкомпьютеры". Министерство энергетики США . Архивировано из оригинала 7 марта 2017 года . Получено 7 марта 2017 года .
  124. ^ "Суперкомпьютерное моделирование помогает продвигать исследования электрохимических реакций". ucsdnews.ucsd.edu . Получено 12 мая 2020 г. .
  125. ^ «Саммит IBM — суперкомпьютер, борющийся с коронавирусом». MedicalExpo e-Magazine . 16 апреля 2020 г. Получено 12 мая 2020 г.
  126. ^ "OSTP финансирует исследования суперкомпьютеров для борьбы с COVID-19 – MeriTalk" . Получено 12 мая 2020 г. .
  127. ^ "Проект суперкомпьютера стоимостью 1,2 долл. США для нескольких компьютеров мощностью 10-100 петафлоп к 2020 году и 100 петафлоп к 2022 году | NextBigFuture.com". NextBigFuture.com . 4 февраля 2018 г. . Получено 21 мая 2018 г. .
  128. ^ ДеБенедиктис, Эрик П. (2004). «Путь к экстремальным вычислениям» (PDF) . Зеттафлопс . Sandia National Laboratories. Архивировано из оригинала (PDF) 3 августа 2007 г. Получено 9 сентября 2020 г.
  129. ^ Коэн, Реувен (28 ноября 2013 г.). «Глобальная вычислительная мощность биткоина теперь в 256 раз быстрее, чем у 500 лучших суперкомпьютеров, вместе взятых!». Forbes . Получено 1 декабря 2017 г.
  130. ^ ДеБенедиктис, Эрик П. (2005). «Обратимая логика для суперкомпьютеров». Труды 2-й конференции Computing frontiers . ACM Press. С. 391–402. ISBN 978-1-59593-019-4.
  131. ^ "IDF: Intel утверждает, что закон Мура действует до 2029 года". Heise Online . 4 апреля 2008 г. Архивировано из оригинала 8 декабря 2013 г.
  132. ^ Solem, JC (1985). "MECA: многопроцессорная концепция, специализированная для Монте-Карло". Методы Монте-Карло и их применение в нейтронике, фотонике и статистической физике . Заметки лекций по физике. Том 240. Труды Объединенной национальной лаборатории Лос-Аламоса – совещания Комиссариата по атомной энергии, состоявшегося в замке Кадараш, Прованс, Франция, 22–26 апреля 1985 г.; Методы Монте-Карло и их применение в нейтронике, фотонике и статистической физике, Alcouffe, R.; Dautray, R.; Forster, A.; Forster, G.; Mercier, B.; Ред. (Springer Verlag, Берлин). стр. 184–195. Bibcode :1985LNP...240..184S. doi : 10.1007/BFb0049047. ISBN 978-3-540-16070-0. ОСТИ  5689714.
  133. ^ abcd Яннис Котронис; Энтони Даналис; Димитрис Николопулос; Джек Донгарра (2011). Последние достижения в интерфейсе передачи сообщений: 18-я Европейская встреча пользователей MPI, EuroMPI 2011, Санторини, Греция, 18-21 сентября 2011 г. Труды . Springer Science & Business Media. ISBN 9783642244483.
  134. ^ Джеймс Х. Ларос III; Кевин Педретти; Сюзанна М. Келли; Вэй Шу; Курт Феррейра; Джон Ван Дайк; Кортни Воган (2012). Энергоэффективные высокопроизводительные вычисления: измерение и настройка . Springer Science & Business Media. стр. 1. ISBN 9781447144922.
  135. ^ Джеймс Х. Ларос III; Кевин Педретти; Сюзанна М. Келли; Вэй Шу; Курт Феррейра; Джон Ван Дайк; Кортни Воган (2012). Энергоэффективные высокопроизводительные вычисления: измерение и настройка . Springer Science & Business Media. стр. 2. ISBN 9781447144922.
  136. ^ Джеймс Х. Ларос III; Кевин Педретти; Сюзанна М. Келли; Вэй Шу; Курт Феррейра; Джон Ван Дайк; Кортни Воган (2012). Энергоэффективные высокопроизводительные вычисления: измерение и настройка . Springer Science & Business Media. стр. 3. ISBN 9781447144922.
  137. ^ "Green Supercomputer Crunches Big Data in Iceland". intelfreepress.com . 21 мая 2015 г. Архивировано из оригинала 20 мая 2015 г. Получено 18 мая 2015 г.

Внешние ссылки