Texas Advanced Computing Center ( TACC ) в Техасском университете в Остине , США , является передовым вычислительным исследовательским центром, который основан на комплексных передовых вычислительных ресурсах и поддерживает услуги для исследователей в Техасе и по всему США. Миссия TACC заключается в обеспечении открытий, которые продвигают науку и общество посредством применения передовых вычислительных технологий. Специализируясь на высокопроизводительных вычислениях , научной визуализации , системах анализа и хранения данных, программном обеспечении, исследованиях и разработках, а также интерфейсах порталов, TACC развертывает и управляет передовой вычислительной инфраструктурой для обеспечения исследовательской деятельности преподавателей, сотрудников и студентов UT Austin. TACC также предоставляет консультации, техническую документацию и обучение для поддержки исследователей, которые используют эти ресурсы. Сотрудники TACC проводят исследования и разработки в области приложений и алгоритмов, проектирования/архитектуры вычислительных систем, а также инструментов и сред программирования.
Основанный в 2001 году, TACC является одним из центров вычислительного совершенства в Соединенных Штатах. Благодаря проекту Extreme Science and Engineering Discovery Environment (XSEDE) Национального научного фонда (NSF) ресурсы и услуги TACC предоставляются национальному академическому исследовательскому сообществу. TACC находится в исследовательском кампусе JJ Pickle в Техасском университете .
В число участников TACC входят исследователи из других отделов и центров Техасского университета в Остине, из техасских университетов, входящих в Консорциум высокопроизводительных вычислений в Техасе, а также из других университетов и государственных лабораторий США.
Научно-исследовательская деятельность TACC поддерживается несколькими федеральными программами, в том числе:
XSEDE, финансируемая Национальным научным фондом (NSF), представляет собой виртуальную систему, которую ученые могут использовать для интерактивного обмена вычислительными ресурсами, данными и опытом. XSEDE — это самая мощная и надежная коллекция интегрированных передовых цифровых ресурсов и услуг в мире. TACC — один из ведущих партнеров проекта XSEDE, ресурсы которого включают более одного петафлопа вычислительной мощности и более 30 петабайт онлайн- и архивного хранения данных. В рамках проекта TACC предоставляет доступ к Ranger, Lonestar, Longhorn, Spur и Ranch через квартальные ассигнования XSEDE. Сотрудники TACC поддерживают исследователей XSEDE по всей стране и проводят исследования и разработки, чтобы сделать XSEDE более эффективным и результативным. Партнерство XSEDE также включает: Университет Иллинойса в Урбане-Шампейне, Университет Карнеги-Меллона/Университет Питтсбурга, Техасский университет в Остине, Университет Теннесси в Ноксвилле, Университет Вирджинии, Фонд образования Шодора, Ассоциация исследований юго-восточных университетов, Чикагский университет, Калифорнийский университет в Сан-Диего, Университет Индианы, Центр суперкомпьютеров Юлиха, Университет Пердью, Корнельский университет, Университет штата Огайо, Калифорнийский университет в Беркли, Университет Райса и Национальный центр атмосферных исследований. Его возглавляет Национальный центр суперкомпьютерных приложений Университета Иллинойса. XSEDE завершил формальную деятельность в качестве проекта, финансируемого Национальным научным фондом (NSF), 31 августа 2022 года. Аналогичные сервисы теперь работают через последующую программу NSF, Advanced Cyberinfrastructure Coordination Ecosystem: Services & Support, или ACCESS.
Проект киберинфраструктуры исследований системы UT (UTRC) — это инициатива, которая позволяет исследователям во всех 15 институтах системы UT получить доступ к передовой вычислительной исследовательской инфраструктуре. В рамках UTRC исследователи системы UT имеют уникальный доступ к ресурсам TACC, включая Lonestar TACC, национальный ресурс XSEDE, и Corral, высокопроизводительную систему хранения для всех типов цифровых данных.
iPlant Collaborative — это 5-летний проект NSF стоимостью 50 миллионов долларов (получен в 2008 году), который использует новые решения вычислительной науки и киберинфраструктуры для решения проблем в области наук о растениях. iPlant объединяет высокопроизводительное петафлопсное хранилище, федеративное управление идентификацией, виртуализацию по требованию и распределенные вычисления на сайтах XSEDE за набором API REST. Они служат основой для представления расширяемых сообществом богатых веб-клиентов, которые позволяют сообществу ученых-растениеводов выполнять сложные биоинформатические анализы в различных концептуальных областях. В сентябре 2013 года было объявлено, что NSF возобновил финансирование iPlant на второй 5-летний срок с расширением сферы охвата на все исследования в области наук о жизни, не связанных с человеком.
Программа научных и технологических филиалов для исследований предлагает компаниям возможности повышения эффективности за счет использования вычислительных технологий TACC. Текущие партнеры STAR включают корпорации BP, Chevron, Dell, Green Revolution Cooling, Intel и Technip.
Устойчивый, открытый и простой в использовании репозиторий, который организует изображения и соответствующие экспериментальные измерения различных пористых материалов, улучшает доступ к результатам анализа пористых сред для более широкого сообщества исследователей в области наук о Земле и инженерии, не обязательно имеющих подготовку в области компьютерных наук или анализа данных, а также повышает производительность, научные исследования и инженерные решения, основанные на данных.
Stampede был одной из самых мощных машин в мире для исследований в области открытой науки. Финансируемый грантом Национального научного фонда ACI-1134872 и созданный в партнерстве с Intel, Dell и Mellanox, Stampede был запущен в сентябре 2012 года и запущен в эксплуатацию 7 января 2013 года. Stampede включал 6400 узлов, 102 400 ядер ЦП, 205 ТБ общей памяти, 14 ПБ общей и 1,6 ПБ локального хранилища. Основная часть кластера состояла из 160 стоек основных вычислительных узлов, каждый с двумя 8-ядерными процессорами Xeon E5-2680, сопроцессором Xeon Phi и 32 ГБ оперативной памяти. [1] Кластер также содержал 16 узлов с 32 ядрами и 1 ТБ каждый, 128 «стандартных» вычислительных узлов с графическими процессорами Nvidia Kepler K20 и другие узлы для ввода-вывода (в файловую систему Lustre ), входа в систему и управления кластером. [2] Stampede мог выполнять 9,6 квадриллиона операций с плавающей точкой в секунду.
Предсерийная конфигурация Stampede [3] была указана как седьмой по скорости суперкомпьютер в списке Top500 за ноябрь 2012 года с производительностью 2660 TFlops. Поскольку система все еще собиралась, представленный бенчмарк был запущен с использованием 1875 узлов с сопроцессорами Xeon Phi и 3900 узлов без сопроцессоров Xeon Phi. [4] Для списка Top500 за июнь 2013 года бенчмарк был запущен повторно с использованием 6006 узлов (все с сопроцессорами Xeon Phi), что дало 5168 TFlops и переместило систему на шестое место. Для списка Top500 за ноябрь 2013 года бенчмарк не был запущен повторно, и Stampede опустился на седьмую позицию.
За первый год работы Stampede выполнил 2 196 848 заданий силами 3 400 исследователей, выполнив более 75 000 лет научных вычислений.
В 2019 году, после вывода из эксплуатации Stampede, Федеральная резервная система США взяла под свой контроль значительную часть Stampede, запустив ее в качестве кластера под названием BigTex, используемого для крупномасштабного финансового анализа. [5] Другая большая часть Stampede была перепрофилирована и использована для Stampede2, преемника Stampede, использующего процессоры Xeon Phi «Knights Landing» с сокетами, а не дополнительные платы PCIe «Knights Corner», из которых состоял Stampede. [6]
Maverick, последнее дополнение TACC к его набору передовых вычислительных систем, объединяет возможности интерактивной расширенной визуализации и крупномасштабной аналитики данных, а также традиционные высокопроизводительные вычисления. Недавний экспоненциальный рост размера и количества цифровых наборов данных требует новых систем, таких как Maverick, способных к быстрому перемещению данных и расширенному статистическому анализу. Maverick дебютирует с новым графическим процессором NVIDIA K40 для удаленной визуализации и вычислений на GPU для национального сообщества.
Визуализация:
Данные:
Lonestar — мощная многоцелевая киберинфраструктура HPC и ресурс удаленной визуализации — это название серии кластерных систем HPC в TACC.
Первая система Lonestar была создана Dell и интегрирована Cray с использованием серверов Dell PowerEdge 1750 и соединений Myrinet с пиковой производительностью 3672 гигафлопс . Модернизация в 2004 году увеличила количество процессоров до 1024 и пиковую скорость до 6338 гигафлопс. Вторая итерация (Lonestar 2) в 2006 году была развернута с серверами Dell PowerEdge 1855 и Infiniband . (1300 процессоров, 2000 гигабайт памяти, пиковая производительность 8320 гигафлопс.) Позже в том же году третья итерация кластера была построена из серверов Dell PowerEdge 1955; она состояла из 5200 процессоров и 10,4 ТБ памяти. Lonestar 3 вошел в список Top500 в ноябре 2006 года как двенадцатый по скорости суперкомпьютер с пиковой производительностью 55,5 TFlops. [7]
В апреле 2011 года TACC объявила об очередном обновлении кластера Lonestar. Кластер Lonestar 4 стоимостью 12 миллионов долларов заменил своего предшественника на 1888 блейд-серверов Dell M610 PowerEdge, каждый из которых имел два шестиядерных процессора Intel Xeon 5600 (всего 22 656 ядер). Системное хранилище включает параллельную файловую систему Lustre объемом 1000 ТБ (SCRATCH) и 276 ТБ дискового пространства локального вычислительного узла (146 ГБ/узел). Lonestar также предоставляет доступ к пяти узлам большой памяти (1 ТБ) и восьми узлам, содержащим два графических процессора NVIDIA, предоставляя пользователям доступ к высокопроизводительным вычислениям и возможностям удаленной визуализации соответственно. Lonestar 4 [8] вошел в список Top500 в июне 2011 года как 28-й по скорости суперкомпьютер с пиковой производительностью 301,8 TFlops.
Рейтинги Top500 различных итераций кластера Lonestar перечислены в материалах TACC для Top500. [9]
Долгосрочное решение TACC для массового хранения данных — это модульная библиотечная система Oracle StorageTek , названная Ranch. Ranch использует файловую систему Sun Storage Archive Manager (SAM-FS) от Oracle для миграции файлов в/из ленточной архивной системы с текущей автономной емкостью хранения 40 ПБ. Дисковый кэш Ranch построен на дисковых массивах Oracle Sun ST6540 и DataDirect Networks 9550, содержащих около 110 ТБ полезного дискового хранилища. Эти дисковые массивы управляются сервером метаданных Oracle Sun x4600 SAM-FS, который имеет 16 ЦП и 32 ГБ ОЗУ.
Развернутый в апреле 2009 года Техасским передовым вычислительным центром для поддержки науки, ориентированной на данные, в Техасском университете, Corral состоит из 6 петабайт онлайн-диска и ряда серверов, обеспечивающих высокопроизводительное хранение всех типов цифровых данных. Он поддерживает базы данных MySQL и Postgres, высокопроизводительную параллельную файловую систему, веб-доступ и другие сетевые протоколы для хранения и извлечения данных из сложных инструментов, HPC-моделирования и лабораторий визуализации.
Для поддержки исследований, проводимых на наших высокопроизводительных вычислительных системах, TACC предоставляет передовые ресурсы визуализации и консультационные услуги, которые доступны как лично, так и удаленно. Эти ресурсы охватывают как аппаратное, так и программное обеспечение и включают: Stallion, один из самых высокоразрешающих плиточных дисплеев в мире; Longhorn, крупнейший аппаратно-ускоренный, удаленный, интерактивный кластер визуализации; и Longhorn Visualization Portal, интернет-шлюз к кластеру Longhorn и простой в использовании интерфейс для научной визуализации.
Лаборатория визуализации TACC, расположенная в POB 2.404a, открыта для всех преподавателей, студентов и сотрудников UT, а также пользователей UT Systems. Vislab включает в себя «Stallion», один из самых высоких разрешений плиточных дисплеев в мире (см. ниже); «Lasso», 12,4-мегапиксельный многосенсорный дисплей для совместной работы; «Bronco», проектор Sony 4D SRX-S105 и плоскую область экрана, которая дает пользователям дисплей размером 20 футов × 11 футов с разрешением 4096 × 2160, который управляется высокопроизводительной рабочей станцией Dell и идеально подходит для визуализаций и презентаций со сверхвысоким разрешением; «Horseshoes», четыре высокопроизводительные системы Dell Precision, оснащенные многоядерными процессорами Intel и графической технологией NVIDIA для использования в производстве графики, визуализации и видеоредактировании; «Saddle» — конференц-зал и небольшой конференц-зал, оснащенный коммерческими аудио- и видеовозможностями для проведения видеоконференций в формате Full HD; «Mustang» и «Silver» — стереоскопические визуализационные дисплеи, оснащенные новейшими технологиями, использующими режимы стереовыхода Samsung 240 Гц в сочетании с 55-дюймовой светодиодной панелью дисплея и могут использоваться для визуализации глубины в результате параллакса, создаваемого активными и пассивными стереоскопическими технологиями; сетевые технологии Mellanox FDR InfiniBand для подключения этих систем на более высоких скоростях. Vislab также служит исследовательским центром для взаимодействия человека с компьютером, разработки программного обеспечения для плиточных дисплеев и консалтинга по визуализации.
Stallion — это 328-мегапиксельная система отображения плиток, с разрешением в 150 раз превышающим разрешение стандартного HD-дисплея, это один из дисплеев с самым высоким числом пикселей в мире. Кластер предоставляет пользователям возможность отображать визуализации высокого разрешения на большом 16×5-мозаичном дисплее 30-дюймовых мониторов Dell. Эта конфигурация позволяет исследовать визуализации на чрезвычайно высоком уровне детализации и качества по сравнению с типичным проектором с умеренным числом пикселей. Кластер предоставляет пользователям доступ к более чем 82 ГБ графической памяти и 240 ядрам обработки. Эта конфигурация позволяет обрабатывать наборы данных огромного масштаба и интерактивно визуализировать существенные геометрии. Доступна общая файловая система объемом 36 ТБ для хранения наборов данных размером в тера-масштаб.
30°23′25″N 97°43′32″W / 30.390205°N 97.725652°W / 30.390205; -97.725652