Суперкомпьютер — это компьютер с более высоким уровнем производительности по сравнению с компьютером общего назначения . Производительность суперкомпьютера обычно измеряется в операциях с плавающей запятой в секунду ( FLOPS ), а не в миллионах инструкций в секунду (MIPS). С 2017 года существуют суперкомпьютеры, которые могут выполнять более 10 17 FLOPS (сто квадриллионов FLOPS, 100 петафлопс или 100 PFLOPS). [3] Для сравнения, производительность настольного компьютера находится в диапазоне от сотен гигафлопс (10 11 ) до десятков терафлопс (10 13 ). [4] [5] С ноября 2017 года все 500 самых быстрых суперкомпьютеров в мире работают на операционных системах на базе Linux . [6] Дополнительные исследования проводятся в США, Европейском Союзе, Тайване, Японии и Китае с целью создания более быстрых, мощных и технологически совершенных экзафлопсных суперкомпьютеров . [7]
Суперкомпьютеры играют важную роль в области вычислительной науки и используются для широкого спектра вычислительно-интенсивных задач в различных областях, включая квантовую механику , прогнозирование погоды , исследования климата , разведку нефти и газа , молекулярное моделирование (вычисление структур и свойств). химических соединений, биологических макромолекул , полимеров и кристаллов) и физическое моделирование (например, моделирование ранних моментов Вселенной, аэродинамики самолетов и космических кораблей , детонации ядерного оружия и ядерного синтеза ). Они сыграли важную роль в области криптоанализа . [8]
Суперкомпьютеры были представлены в 1960-х годах, и в течение нескольких десятилетий самые быстрые из них создавал Сеймур Крей в Control Data Corporation (CDC), Cray Research и последующих компаниях, носящих его имя или монограмму. Первые такие машины представляли собой хорошо настроенные традиционные конструкции, которые работали быстрее, чем их более универсальные современники. В течение десятилетия увеличивалось количество параллелизма , обычно от одного до четырех процессоров . В 1970-е годы стали доминировать векторные процессоры , работающие с большими массивами данных. Ярким примером является очень успешный Cray-1 1976 года. Векторные компьютеры оставались доминирующей конструкцией до 1990-х годов. С тех пор и до сегодняшнего дня массово-параллельные суперкомпьютеры с десятками тысяч готовых процессоров стали нормой. [9] [10]
США долгое время были лидером в области суперкомпьютеров, сначала благодаря почти непрерывному доминированию компании Cray в этой области, а затем благодаря множеству технологических компаний. Япония добилась больших успехов в этой области в 1980-х и 90-х годах, при этом Китай становится все более активным в этой области. По состоянию на май 2022 года самым быстрым суперкомпьютером в списке TOP500 является Frontier в США с результатом теста LINPACK 1,102 ExaFlop/s, за ним следует Fugaku . [11] В США пять стран из первой десятки; В Китае их два; По одному имеют Япония, Финляндия и Франция. [12] В июне 2018 года все суперкомпьютеры из списка TOP500 преодолели отметку в 1 экзафлопс . [13]
В 1960 году UNIVAC построила Ливерморский компьютер атомных исследований (LARC), который сегодня считается одним из первых суперкомпьютеров, для Центра исследований и разработок ВМС США. В нем по-прежнему использовалась высокоскоростная барабанная память , а не недавно появившаяся технология дисковых накопителей . [14] Также среди первых суперкомпьютеров был IBM 7030 Stretch . IBM 7030 был построен IBM для Национальной лаборатории Лос-Аламоса , которая в 1955 году запросила компьютер в 100 раз быстрее, чем любой существующий компьютер. В IBM 7030 использовались транзисторы , память на магнитных сердечниках, конвейерные инструкции, предварительная выборка данных через контроллер памяти и новаторские дисковые накопители с произвольным доступом. IBM 7030 был завершен в 1961 году, и, несмотря на то, что он не смог добиться стократного увеличения производительности, он был приобретен Национальной лабораторией Лос-Аламоса. Клиенты в Англии и Франции также купили компьютер, и он стал основой для IBM 7950 Harvest , суперкомпьютера, созданного для криптоанализа . [15]
Третьим новаторским проектом суперкомпьютера в начале 1960-х годов был Атлас в Манчестерском университете , созданный командой под руководством Тома Килберна . Он спроектировал Атлас так, чтобы в памяти могло храниться до миллиона слов по 48 бит, но поскольку магнитное хранилище такой емкости было недоступно, фактическая основная память Атласа составляла всего 16 000 слов, а барабан обеспечивал память еще на 96 000 слов. слова. Операционная система Atlas обменивала данные в виде страниц между магнитным сердечником и барабаном. Операционная система Atlas также ввела в суперкомпьютер разделение времени , так что на суперкомпьютере можно было одновременно выполнять более одной программы. [16] Atlas был совместным предприятием Ферранти и Манчестерского университета и был разработан для работы со скоростью обработки, приближающейся к одной микросекунде на инструкцию, то есть около миллиона инструкций в секунду. [17]
CDC 6600 , разработанный Сеймуром Креем , был закончен в 1964 году и ознаменовал переход от германиевых к кремниевым транзисторам. Кремниевые транзисторы могли работать быстрее, а проблема перегрева была решена за счет внедрения охлаждения в конструкцию суперкомпьютера. [18] Таким образом, CDC6600 стал самым быстрым компьютером в мире. Учитывая, что 6600 превосходил все другие современные компьютеры примерно в 10 раз, его окрестили суперкомпьютером и определили рынок суперкомпьютеров, когда сто компьютеров были проданы по 8 миллионов долларов каждый. [19] [20] [21] [22]
Крей покинул CDC в 1972 году, чтобы основать собственную компанию Cray Research . [20] Через четыре года после ухода из CDC Крей в 1976 году выпустил 80 МГц Cray-1 , который стал одним из самых успешных суперкомпьютеров в истории. [23] [24] Cray -2 был выпущен в 1985 году. Он имел восемь центральных процессоров (ЦП), жидкостное охлаждение , а охлаждающая жидкость для электроники Fluorinert прокачивалась через архитектуру суперкомпьютера . Его производительность достигла 1,9 гигафлопс , что сделало его первым суперкомпьютером, преодолевшим барьер гигафлопс. [25]
Единственным компьютером, серьезно бросившим вызов Cray-1 в 1970-х годах, был ILLIAC IV . Эта машина была первым реализованным примером настоящего компьютера с массовым параллелизмом , в котором множество процессоров работали вместе для решения различных частей одной более крупной задачи. В отличие от векторных систем, которые были разработаны для максимально быстрой обработки единого потока данных, в этой концепции компьютер вместо этого передает отдельные части данных совершенно разным процессорам, а затем рекомбинирует результаты. Конструкция ILLIAC была завершена в 1966 году с 256 процессорами и скоростью до 1 GFLOPS по сравнению с пиком Cray-1 1970-х годов в 250 MFLOPS. Однако проблемы с разработкой привели к тому, что было построено всего 64 процессора, и система никогда не могла работать быстрее, чем примерно 200 MFLOPS, хотя она была намного больше и сложнее, чем Cray. Другая проблема заключалась в том, что написать программное обеспечение для системы было сложно, а добиться от него максимальной производительности было делом серьезных усилий.
Но частичный успех ILLIAC IV был воспринят многими как указание пути в будущее суперкомпьютеров. Крей возражал против этого, пошутив: «Если бы вы пахали поле, что бы вы предпочли использовать? Двух сильных волов или 1024 курицы?» [26] Но к началу 1980-х годов несколько команд работали над параллельными проектами с тысячами процессоров, в частности над Connection Machine (CM), разработанной в результате исследований в Массачусетском технологическом институте . В CM-1 использовалось 65 536 упрощенных специализированных микропроцессоров , соединенных в сеть для обмена данными. Затем последовало несколько обновленных версий; Суперкомпьютер CM-5 — это компьютер с массивной параллельной обработкой, способный выполнять многие миллиарды арифметических операций в секунду. [27]
В 1982 году в системе компьютерной графики LINKS-1 Университета Осаки использовалась архитектура массово-параллельной обработки с 514 микропроцессорами , включая 257 процессоров управления Zilog Z8001 и 257 процессоров iAPX 86/20 с плавающей запятой . В основном он использовался для рендеринга реалистичной компьютерной 3D-графики . [28] Модель VPP500 компании Fujitsu, выпущенная в 1992 году, необычна, поскольку для достижения более высоких скоростей в ее процессорах использовался GaAs , материал, который обычно используется в микроволновых приложениях из-за его токсичности. [29] Суперкомпьютер Numerical Wind Tunnel компании Fujitsu использовал 166 векторных процессоров, чтобы занять первое место в 1994 году с пиковой скоростью 1,7 гигафлопс (GFLOPS) на процессор. [30] [31] Hitachi SR2201 достиг пиковой производительности 600 гигафлопс в 1996 году за счет использования 2048 процессоров, соединенных через быструю трехмерную перекрестную сеть. [32] [33] [34] Intel Paragon мог иметь от 1000 до 4000 процессоров Intel i860 в различных конфигурациях и в 1993 году считался самым быстрым в мире. Paragon представлял собой MIMD- машину, которая соединяла процессоры через высокоскоростной двумерный интерфейс. сетка, позволяющая процессам выполняться на отдельных узлах, взаимодействующих через интерфейс передачи сообщений . [35]
Разработка программного обеспечения оставалась проблемой, но серия CM послужила толчком для серьезных исследований по этому вопросу. Подобные конструкции с использованием специального оборудования создавались многими компаниями, включая Evans & Sutherland ES-1 , MasPar , nCUBE , Intel iPSC и Goodyear MPP . Но к середине 1990-х годов производительность процессоров общего назначения настолько возросла, что можно было построить суперкомпьютер, используя их в качестве отдельных процессоров вместо использования специальных микросхем. На рубеже XXI века конструкции с десятками тысяч обычных процессоров стали нормой, а более поздние машины добавили к этому набору графические модули . [9] [10]
В 1998 году Дэвид Бейдер разработал первый суперкомпьютер Linux , используя стандартные детали. [36] Во время учебы в Университете Нью-Мексико Бадер стремился построить суперкомпьютер под управлением Linux, используя готовые потребительские компоненты и высокоскоростную межсетевую сеть с малой задержкой. В прототипе использовался Alta Technologies «AltaCluster» из восьми двойных компьютеров Intel Pentium II с тактовой частотой 333 МГц, работающих под управлением модифицированного ядра Linux. Бэдер портировал значительное количество программного обеспечения для обеспечения поддержки необходимых компонентов Linux, а также код членов Национального альянса вычислительных наук (NCSA) для обеспечения совместимости, поскольку ни одно из них ранее не запускалось в Linux. [37] Используя успешный дизайн прототипа, он возглавил разработку RoadRunner, первого суперкомпьютера Linux для открытого использования национальным научным и инженерным сообществом через Национальную технологическую сеть Национального научного фонда. RoadRunner был введен в эксплуатацию в апреле 1999 года. На момент запуска он считался одним из 100 самых быстрых суперкомпьютеров в мире. [37] [38] Хотя кластеры на базе Linux с использованием компонентов потребительского уровня, такие как Beowulf , существовали до разработки прототипа Бадера и RoadRunner, им не хватало масштабируемости, пропускной способности и возможностей параллельных вычислений, чтобы считаться «настоящими» суперкомпьютерами. . [37]
Системы с огромным количеством процессоров обычно идут по одному из двух путей. В рамках подхода грид-вычислений вычислительная мощность многих компьютеров, организованных как распределенные, разнообразные административные домены, используется оппортунистически всякий раз, когда компьютер доступен. [39] В другом подходе множество процессоров используются близко друг к другу, например, в компьютерном кластере . В такой централизованной системе с массовым параллелизмом скорость и гибкостьМежсоединение становится очень важным, и в современных суперкомпьютерах используются различные подходы, начиная от усовершенствованныхInfinibandи заканчивая трехмернымиторическими межсоединениями. [40][41]Использованиемногоядерных процессоровв сочетании с централизацией является новым направлением, например, как вCyclops64. [42][43]
Поскольку цена, производительность и энергоэффективность графических процессоров общего назначения (GPGPU) улучшились, ряд петафлопс- суперкомпьютеров, таких как Tianhe-I и Nebulae , начали полагаться на них. [44] Однако другие системы, такие как компьютер K, продолжают использовать традиционные процессоры, такие как конструкции на основе SPARC , и общая применимость GPGPU в высокопроизводительных вычислительных приложениях общего назначения была предметом споров, в то время как GPGPU может быть настроен на получение хороших результатов в конкретных тестах, его общая применимость к повседневным алгоритмам может быть ограничена, если не будут затрачены значительные усилия на настройку приложения под него. [45] Однако графические процессоры набирают популярность, и в 2012 году суперкомпьютер Jaguar был преобразован в Titan путем модернизации процессоров с помощью графических процессоров. [46] [47] [48]
Ожидаемый жизненный цикл высокопроизводительных компьютеров составляет около трех лет, прежде чем потребуется обновление. [49] Суперкомпьютер Gyoukou уникален тем, что в нем используется как массивно-параллельная конструкция, так и жидкостное иммерсионное охлаждение .
Был разработан ряд систем специального назначения, посвященных одной проблеме. Это позволяет использовать специально запрограммированные микросхемы FPGA или даже специальные ASIC , обеспечивая лучшее соотношение цены и производительности за счет принесения в жертву универсальности. Примеры суперкомпьютеров специального назначения включают Belle , [50] Deep Blue , [51] и Hydra [52] для игры в шахматы , Gravity Pipe для астрофизики, [53] MDGRAPE-3 для предсказания структуры белков и молекулярной динамики, [54] и Deep Crack для взлома шифра DES . [55]
На протяжении десятилетий управление плотностью тепла оставалось ключевым вопросом для большинства централизованных суперкомпьютеров. [58] [59] [60] Большое количество тепла, выделяемого системой, может также иметь и другие последствия, например, сокращение срока службы других компонентов системы. [61] Существовали различные подходы к управлению теплом: от прокачки фторинерта через систему до гибридной системы жидкостно-воздушного охлаждения или воздушного охлаждения с нормальной температурой кондиционирования воздуха . [62] [63] Типичный суперкомпьютер потребляет большое количество электроэнергии, почти вся из которой преобразуется в тепло, требующее охлаждения. Например, Тяньхэ-1А потребляет 4,04 мегаватт (МВт) электроэнергии. [64] Затраты на электроэнергию и охлаждение системы могут быть значительными, например, 4 МВт при цене 0,10 доллара США за кВтч составляют 400 долларов США в час или около 3,5 миллионов долларов США в год.
Управление теплом является серьезной проблемой в сложных электронных устройствах и по-разному влияет на мощные компьютерные системы. [65] Расчетная тепловая мощность и проблемы рассеивания мощности процессора в суперкомпьютерах превосходят проблемы традиционных технологий охлаждения компьютеров . Награды за суперкомпьютеры за «зеленые» вычисления отражают эту проблему. [66] [67] [68]
Объединение тысяч процессоров вместе неизбежно приводит к значительному выделению тепла , с которым необходимо бороться. Cray -2 имел жидкостное охлаждение и использовал «охлаждающий водопад» Fluorinert , который проталкивался через модули под давлением. [62] Однако подход с погружным жидкостным охлаждением был непрактичен для многошкафных систем на базе готовых процессоров, и в Системе X совместно с Liebert была разработана специальная система охлаждения, сочетающая кондиционирование воздуха с жидкостным охлаждением . компания . [63]
В системе Blue Gene IBM намеренно использовала процессоры с низким энергопотреблением, чтобы справиться с плотностью тепла. [69] IBM Power 775 , выпущенный в 2011 году, имеет плотно упакованные элементы, требующие водяного охлаждения. [70] В системе IBM Aquasar для достижения энергоэффективности используется охлаждение горячей водой, причем вода также используется для обогрева зданий. [71] [72]
Энергоэффективность компьютерных систем обычно измеряется в единицах « флопс на ватт ». В 2008 году Roadrunner от IBM работал со скоростью 3,76 MFLOPS/Вт . [73] [74] В ноябре 2010 года производительность Blue Gene/Q достигла 1684 MFLOPS/Вт [75] [76], а в июне 2011 года два верхних места в списке Green 500 были заняты машинами Blue Gene в Нью-Йорке (одна достигнув 2097 MFLOPS/Вт), а кластер DEGIMA в Нагасаки занял третье место с 1375 MFLOPS/Вт. [77]
Поскольку медные провода могут передавать энергию в суперкомпьютер с гораздо более высокой плотностью мощности, чем принудительная подача воздуха или циркулирующие хладагенты могут отводить отработанное тепло , [78] способность систем охлаждения отводить отработанное тепло является ограничивающим фактором. [79] [80] По состоянию на 2015 год [обновлять]многие существующие суперкомпьютеры имеют большую мощность инфраструктуры, чем фактическая пиковая потребность машины - проектировщики обычно консервативно проектируют инфраструктуру электропитания и охлаждения, чтобы выдерживать мощность, превышающую теоретическую пиковую электрическую мощность, потребляемую суперкомпьютером. Конструкции будущих суперкомпьютеров ограничены по мощности – расчетная тепловая мощность суперкомпьютера в целом, величина, которую может выдержать инфраструктура питания и охлаждения, несколько больше, чем ожидаемое нормальное энергопотребление, но меньше, чем теоретическое пиковое энергопотребление электронное оборудование. [81]
С конца 20-го века операционные системы суперкомпьютеров претерпели серьезные преобразования, основанные на изменениях в архитектуре суперкомпьютеров . [82] В то время как ранние операционные системы были специально адаптированы для каждого суперкомпьютера для повышения скорости, тенденция заключалась в переходе от собственных операционных систем к адаптации общего программного обеспечения, такого как Linux . [83]
Поскольку современные суперкомпьютеры с массовым параллелизмом обычно отделяют вычисления от других служб с помощью нескольких типов узлов , они обычно используют разные операционные системы на разных узлах, например, используя небольшое и эффективное легкое ядро , такое как CNK или CNL , на вычислительных узлах, но более крупную систему, такую как как производная от Linux на сервере и узлах ввода-вывода . [84] [85] [86]
В то время как в традиционной многопользовательской компьютерной системе планирование заданий , по сути, является проблемой постановки задач для обработки и периферийных ресурсов, в системе с массовым параллелизмом система управления заданиями должна управлять распределением как вычислительных, так и коммуникационных ресурсов, а также корректно справляться с неизбежными аппаратными сбоями при наличии десятков тысяч процессоров. [87]
Хотя большинство современных суперкомпьютеров используют операционные системы на базе Linux , у каждого производителя есть своя собственная производная от Linux, и отраслевого стандарта не существует, отчасти из-за того, что различия в аппаратных архитектурах требуют изменений для оптимизации операционной системы для каждой аппаратной конструкции. [82] [88]
Параллельная архитектура суперкомпьютеров часто требует использования специальных методов программирования для использования их скорости. Программные инструменты для распределенной обработки включают стандартные API , такие как MPI [90] и PVM , VTL , а также программное обеспечение с открытым исходным кодом , такое как Beowulf .
В наиболее распространенном сценарии используются такие среды, как PVM и MPI для слабосвязанных кластеров и OpenMP для тесно скоординированных машин с общей памятью. Требуются значительные усилия для оптимизации алгоритма с учетом характеристик межсоединения машины, на которой он будет работать; цель состоит в том, чтобы не допустить, чтобы какой-либо из процессоров тратил время на ожидание данных от других узлов. GPGPU имеют сотни процессорных ядер и программируются с использованием таких моделей программирования, как CUDA или OpenCL .
Более того, отлаживать и тестировать параллельные программы довольно сложно. Для тестирования и отладки таких приложений необходимо использовать специальные методы .
Оппортунистические суперкомпьютеры — это форма сетевых распределенных вычислений , при которой «супервиртуальный компьютер» из множества слабосвязанных вычислительных машин-добровольцев выполняет очень большие вычислительные задачи. Грид-вычисления применялись для решения ряда крупномасштабных, до невозможности параллельных задач, требующих масштабов производительности суперкомпьютеров. Однако базовые подходы к грид- и облачным вычислениям , основанные на добровольных вычислениях, не могут справиться с традиционными суперкомпьютерными задачами, такими как гидродинамическое моделирование. [91]
Самая быстрая система грид-вычислений — это волонтерский вычислительный проект Folding@home (F@h). По состоянию на апрель 2020 года [обновлять]F@h сообщил о 2,5 эксафлопс вычислительной мощности x86 . Из них более 100 PFLOPS приходится на клиенты, работающие на различных графических процессорах, а остальную часть — на различные системы ЦП. [92]
Платформа открытой инфраструктуры сетевых вычислений Беркли (BOINC) размещает ряд добровольных вычислительных проектов. По состоянию на февраль 2017 года [обновлять]BOINC зафиксировал вычислительную мощность более 166 петафлопс на более чем 762 тысячах активных компьютеров (хостов) в сети. [93]
По состоянию на октябрь 2016 года [обновлять]распределенный поиск простых чисел Мерсенна компанией Great Internet Mersenne Prime Search (GIMPS) достиг скорости около 0,313 PFLOPS на более чем 1,3 миллиона компьютеров. [94] Сервер PrimeNet поддерживает подход GIMPS к грид-вычислениям, одному из первых добровольных вычислительных проектов, начиная с 1997 года.
Квазиоппортунистические суперкомпьютеры — это форма распределенных вычислений , при которой «супервиртуальный компьютер» из множества географически разбросанных по сети компьютеров выполняет вычислительные задачи, требующие огромной вычислительной мощности. [95] Квазиоппортунистические суперкомпьютеры направлены на обеспечение более высокого качества обслуживания, чем оппортунистические грид-вычисления, за счет достижения большего контроля над назначением задач распределенным ресурсам и использования информации о доступности и надежности отдельных систем в суперкомпьютерной сети. Однако квазиоппортунистическое распределенное выполнение требовательного программного обеспечения для параллельных вычислений в гридах должно быть достигнуто за счет реализации соглашений о распределении по сетке, подсистем совместного распределения, механизмов распределения с учетом топологии связи, отказоустойчивых библиотек передачи сообщений и предварительной подготовки данных. [95]
Облачные вычисления с их недавним быстрым расширением и развитием в последние годы привлекли внимание пользователей и разработчиков высокопроизводительных вычислений (HPC). Облачные вычисления пытаются предоставить HPC как услугу точно так же, как и другие формы услуг, доступные в облаке, такие как программное обеспечение как услуга , платформа как услуга и инфраструктура как услуга . Пользователи высокопроизводительных вычислений могут получить выгоду от облака по разным причинам, например, благодаря масштабируемости, доступности ресурсов по требованию, скорости и дешевизне. С другой стороны, перемещение приложений HPC также сопряжено с рядом проблем. Хорошими примерами таких проблем являются накладные расходы на виртуализацию в облаке, мультиарендность ресурсов и проблемы с задержками в сети. В настоящее время проводится много исследований, чтобы преодолеть эти проблемы и сделать высокопроизводительные вычисления в облаке более реалистичными. [96] [97] [98] [99]
В 2016 году облачные высокопроизводительные вычисления начали предлагать Penguin Computing, Parallel Works, R-HPC, Amazon Web Services , Univa , Silicon Graphics International , Rescale , Sabalcore и Gomput . Облако Penguin On Demand (POD) представляет собой «голую» вычислительную модель для выполнения кода, но каждому пользователю предоставляется виртуальный узел входа в систему. Вычислительные узлы POD подключаются через невиртуализированные сети Ethernet 10 Гбит/с или QDR InfiniBand . Скорость подключения пользователей к дата-центру POD варьируется от 50 Мбит/с до 1 Гбит/с. [100] Ссылаясь на Amazon EC2 Elastic Compute Cloud, компания Penguin Computing утверждает, что виртуализация вычислительных узлов не подходит для высокопроизводительных вычислений. Компания Penguin Computing также раскритиковала то, что облака HPC могут выделять вычислительные узлы клиентам, находящимся далеко друг от друга, что приводит к задержке, которая снижает производительность некоторых приложений HPC. [101]
Суперкомпьютеры обычно стремятся к максимальным вычислительным возможностям, а не к вычислительной мощности. Под вычислением возможностей обычно понимают использование максимальной вычислительной мощности для решения одной большой проблемы за кратчайший промежуток времени. Часто система возможностей способна решить проблему такого размера или сложности, которую не может решить ни один другой компьютер, например, очень сложное приложение для моделирования погоды . [102]
Напротив, емкостные вычисления обычно рассматриваются как использование эффективных и экономичных вычислительных мощностей для решения нескольких довольно крупных проблем или множества небольших проблем. [102] Архитектуры, которые позволяют поддерживать множество пользователей при выполнении рутинных повседневных задач, могут иметь большую мощность, но обычно не считаются суперкомпьютерами, поскольку они не решают ни одной очень сложной проблемы. [102]
В общем, скорость суперкомпьютеров измеряется и оценивается в FLOPS (операциях с плавающей запятой в секунду), а не в MIPS (миллионе инструкций в секунду), как в случае с компьютерами общего назначения. [103] Эти измерения обычно используются с префиксом СИ , таким как тера- , объединенный в сокращенное обозначение TFLOPS (10 12 FLOPS, произносится как терафлопс ) или пета- , объединенный в сокращенное обозначение PFLOPS (10 15 FLOPS, произносится как петафлопс ) . суперкомпьютеры могут обрабатывать один квадриллион (10 15 ) (1000 триллионов) FLOPS. Эксафлопс — это вычислительная производительность в диапазоне экзафлопс (EFLOPS). ЭФЛОПС — это один квинтиллион (10 18 ) ФЛОПС (один миллион терафлопс). Однако, как упоминали Брем и Брювилер (2015), на производительность суперкомпьютера могут серьезно повлиять колебания, вызванные такими элементами, как загрузка системы, сетевой трафик и параллельные процессы. [104]
Ни одно число не может отразить общую производительность компьютерной системы, однако цель теста Linpack — приблизительно оценить, насколько быстро компьютер решает числовые задачи, и он широко используется в отрасли. [105] Измерение FLOPS либо основано на теоретической производительности процессора с плавающей запятой (полученной на основе спецификаций процессора производителя и обозначенной как «Rpeak» в списках TOP500), что обычно недостижимо при выполнении реальных рабочих нагрузок, либо на достижимой пропускной способности. , полученное на основе тестов LINPACK и обозначенное как «Rmax» в списке TOP500. [106] Тест LINPACK обычно выполняет LU-разложение большой матрицы. [107] Производительность LINPACK дает некоторое представление о производительности для некоторых реальных задач, но не обязательно соответствует требованиям к обработке многих других рабочих нагрузок суперкомпьютера, которые, например, могут требовать большей пропускной способности памяти или могут требовать более высокой производительности целочисленных вычислений, или для достижения высокого уровня производительности может потребоваться высокопроизводительная система ввода-вывода. [105]
С 1993 года самые быстрые суперкомпьютеры входят в список TOP500 по результатам тестов LINPACK . Список не претендует на беспристрастность или окончательность, но это широко цитируемое современное определение «самого быстрого» суперкомпьютера, доступного в любой момент времени.
Это недавний список компьютеров, которые оказались на вершине списка TOP500 [108] , а «Пиковая скорость» указана как рейтинг «Rmax». В 2018 году Lenovo стала крупнейшим в мире поставщиком суперкомпьютеров из ТОП-500, выпустив 117 единиц. [109]
Этапы применения суперкомпьютера можно резюмировать в следующей таблице:
Компьютер IBM Blue Gene /P использовался для моделирования количества искусственных нейронов, эквивалентного примерно одному проценту коры головного мозга человека, содержащего 1,6 миллиарда нейронов с примерно 9 триллионами связей. Той же исследовательской группе также удалось с помощью суперкомпьютера смоделировать количество искусственных нейронов, эквивалентное всему мозгу крысы. [121]
Современное прогнозирование погоды также опирается на суперкомпьютеры. Национальное управление океанических и атмосферных исследований использует суперкомпьютеры для обработки сотен миллионов наблюдений, чтобы сделать прогнозы погоды более точными. [122]
В 2011 году проблемы и трудности в развитии суперкомпьютеров были подчеркнуты отказом IBM от петамасштабного проекта Blue Waters . [123]
Программа расширенного моделирования и вычислений в настоящее время использует суперкомпьютеры для обслуживания и моделирования ядерного арсенала Соединенных Штатов. [124]
В начале 2020 года COVID-19 был в центре внимания в мире. Суперкомпьютеры использовали различные методы моделирования, чтобы найти соединения, которые потенциально могли бы остановить распространение. Эти компьютеры работают десятки часов, используя несколько параллельно работающих процессоров для моделирования различных процессов. [125] [126] [127]
В 2010-х годах Китай, США, Европейский Союз и другие страны боролись за право первыми создать суперкомпьютер производительностью 1 экзафлопс (10 18 или один квинтиллион флопов). [128] Эрик П. ДеБенедиктис из Sandia National Laboratories предположил, что компьютер на зеттафлопс (10 21 или один секстиллион флопов) необходим для выполнения полного моделирования погоды , которое может точно охватить двухнедельный период времени. [129] [130] [131] Такие системы могут быть построены примерно к 2030 году. [132]
Во многих симуляциях Монте-Карло используется один и тот же алгоритм для обработки случайно сгенерированного набора данных; в частности, интегро-дифференциальные уравнения , описывающие физические процессы переноса , случайные пути , столкновения, а также энерго- и импульсные выбросы нейтронов, фотонов, ионов, электронов и т. д.Следующим шагом для микропроцессоров может стать переход в третье измерение ; а благодаря специализации Монте-Карло многие слои могут быть идентичными, что упрощает процесс проектирования и производства. [133]
Стоимость эксплуатации высокопроизводительных суперкомпьютеров выросла, в основном из-за увеличения энергопотребления. В середине 1990-х годов 10 лучших суперкомпьютеров требовали мощность около 100 киловатт, а в 2010 году 10 лучших суперкомпьютеров требовали от 1 до 2 мегаватт. [134] Исследование 2010 года, проведенное по заказу DARPA , определило энергопотребление как наиболее распространенную проблему в достижении экзафлопсных вычислений . [135] В то время мегаватт в год потребления энергии стоил около 1 миллиона долларов. Суперкомпьютерные мощности были построены для эффективного отвода растущего количества тепла, выделяемого современными многоядерными центральными процессорами . Судя по энергопотреблению суперкомпьютеров из списка Green 500 в период с 2007 по 2011 год, суперкомпьютер с производительностью 1 экзафлопс в 2011 году потребовал бы почти 500 мегаватт. Операционные системы были разработаны для существующего оборудования, чтобы по возможности экономить энергию. [136] Ядра ЦП, не используемые во время выполнения параллельного приложения, были переведены в режимы пониженного энергопотребления, что обеспечило экономию энергии для некоторых суперкомпьютерных приложений. [137]
Растущая стоимость эксплуатации суперкомпьютеров стала движущим фактором тенденции к объединению ресурсов через распределенную суперкомпьютерную инфраструктуру. Национальные суперкомпьютерные центры сначала появились в США, затем в Германии и Японии. Европейский Союз запустил Партнерство по передовым вычислениям в Европе (PRACE) с целью создания постоянной общеевропейской суперкомпьютерной инфраструктуры с услугами для поддержки ученых по всему Европейскому Союзу в портировании, масштабировании и оптимизации суперкомпьютерных приложений. [134] Исландия построила первый в мире суперкомпьютер с нулевым уровнем выбросов. Этот суперкомпьютер , расположенный в центре обработки данных Thor в Рейкьявике , Исландия, использует полностью возобновляемые источники энергии, а не ископаемое топливо. Более холодный климат также снижает потребность в активном охлаждении, что делает его одним из самых экологически чистых предприятий в мире компьютеров. [138]
Финансирование суперкомпьютерного оборудования также становилось все труднее. В середине 1990-х годов 10 лучших суперкомпьютеров стоили около 10 миллионов евро, а в 2010 году 10 лучших суперкомпьютеров требовали инвестиций в размере от 40 до 50 миллионов евро. [134] В 2000-х годах национальные правительства внедрили различные стратегии финансирования суперкомпьютеров. В Великобритании национальное правительство полностью финансировало суперкомпьютеры, а высокопроизводительные вычисления были поставлены под контроль национального финансового агентства. Германия разработала смешанную модель финансирования, объединяющую местное государственное финансирование и федеральное финансирование. [134]
Примеры суперкомпьютеров в художественной литературе включают HAL 9000 , Multivac , The Machine Stops , GLaDOS , The Evitable Conflict , Vulcan's Hammer , Colossus , WOPR , AM и Deep Thought . Cray X-MP упоминался как суперкомпьютер, используемый для секвенирования ДНК , извлеченной из сохранившихся паразитов в сериале «Парк Юрского периода» .
Выполняет 376 миллионов вычислений на каждый ватт использованной электроэнергии.
IBM... Система BlueGene/Q... установила рекорд энергоэффективности со значением 1680 MFLOPS/Вт, что более чем в два раза превышает показатель следующей лучшей системы.
{{cite web}}
: CS1 maint: постскриптум ( ссылка ){{cite web}}
: CS1 maint: несколько имен: список авторов ( ссылка ){{cite web}}
: CS1 maint: числовые имена: список авторов ( ссылка )