Высокопроизводительные вычисления ( HPC ) используют суперкомпьютеры и компьютерные кластеры для решения сложных вычислительных задач.
HPC объединяет системное администрирование (включая знания сетей и безопасности) и параллельное программирование в многопрофильную область, которая объединяет цифровую электронику , архитектуру компьютеров , системное программное обеспечение , языки программирования , алгоритмы и вычислительные методы. [1] Технологии HPC — это инструменты и системы, используемые для внедрения и создания высокопроизводительных вычислительных систем. [2] Недавно [ когда? ] системы HPC перешли от суперкомпьютеров к вычислительным кластерам и сеткам . [1] Из-за необходимости организации сетей в кластерах и сетках, технологии высокопроизводительных вычислений продвигаются [ кем? ] с использованием свернутой сетевой магистрали , поскольку свернутая архитектура магистрали проста в устранении неполадок, а обновления могут быть применены к одному маршрутизатору, а не к нескольким.
Термин чаще всего ассоциируется с вычислениями, используемыми для научных исследований или вычислительной науки . Связанный термин, высокопроизводительные технические вычисления (HPTC), обычно относится к инженерным приложениям кластерных вычислений (таким как вычислительная гидродинамика и создание и тестирование виртуальных прототипов ). HPC также применяется в бизнес- приложениях, таких как хранилища данных , приложения для бизнеса (LOB) и обработка транзакций .
Термин «высокопроизводительные вычисления» (HPC) возник после термина «суперкомпьютер». [3] HPC иногда используется как синоним суперкомпьютеров; но в других контекстах «суперкомпьютер» используется для обозначения более мощного подмножества «высокопроизводительных компьютеров», а термин «суперкомпьютер» становится подмножеством «высокопроизводительных вычислений». Потенциал путаницы при использовании этих терминов очевиден.
Поскольку большинство современных приложений не предназначены для технологий HPC, а модернизированы, они не разработаны и не протестированы для масштабирования на более мощные процессоры или машины. [2] Поскольку сетевые кластеры и сетки используют несколько процессоров и компьютеров, эти проблемы масштабирования могут парализовать критические системы в будущих суперкомпьютерных системах. Следовательно, либо существующие инструменты не отвечают потребностям сообщества высокопроизводительных вычислений, либо сообщество HPC не знает об этих инструментах. [2] Вот несколько примеров коммерческих технологий HPC:
В государственных и научно-исследовательских учреждениях ученые моделируют создание галактик, термоядерную энергию и глобальное потепление, а также работают над созданием более точных краткосрочных и долгосрочных прогнозов погоды. [4] Десятый по мощности суперкомпьютер в мире в 2008 году, IBM Roadrunner (расположенный в Лос-Аламосской национальной лаборатории Министерства энергетики США ) [5] моделировал производительность, безопасность и надежность ядерного оружия и сертифицирует его функциональность. [6]
TOP500 ранжирует 500 самых быстрых высокопроизводительных компьютеров в мире, согласно бенчмарку High Performance LINPACK (HPL). Не все существующие компьютеры ранжируются, либо потому, что они не подходят (например, они не могут запустить бенчмарк HPL), либо потому, что их владельцы не предоставили оценку HPL (например, потому что они не хотят, чтобы размер их системы стал общедоступной информацией, по соображениям безопасности). Кроме того, использование единого бенчмарка LINPACK является спорным, поскольку ни одна отдельная мера не может проверить все аспекты высокопроизводительного компьютера. Чтобы помочь преодолеть ограничения теста LINPACK, правительство США поручило одному из его создателей, Джеку Донгарре из Университета Теннесси, создать набор тестов производительности, включающий LINPACK и другие, называемый набором тестов HPC Challenge. Этот развивающийся набор использовался в некоторых закупках HPC, но, поскольку он не сводится к одному числу, он не смог преодолеть преимущество рекламы менее полезного теста TOP500 LINPACK. Список TOP500 обновляется дважды в год, один раз в июне на Европейской суперкомпьютерной конференции ISC и еще раз на Суперкомпьютерной конференции США в ноябре.
Многие идеи для новой волны распределенных вычислений изначально были заимствованы из HPC.
Традиционно HPC включали локальную инфраструктуру, инвестируя в суперкомпьютеры или компьютерные кластеры. За последнее десятилетие облачные вычисления стали более популярными, предлагая компьютерные ресурсы в коммерческом секторе независимо от их инвестиционных возможностей. [7] Некоторые характеристики, такие как масштабируемость и контейнеризация, также вызвали интерес в академических кругах. [8] Однако вопросы безопасности в облаке, такие как конфиденциальность данных, по-прежнему учитываются при выборе между облачными или локальными ресурсами HPC. [7]