TeraGrid представляла собой грид-вычислительную инфраструктуру электронной науки, объединяющую ресурсы одиннадцати партнерских площадок. Проект стартовал в 2001 году и действовал с 2004 по 2011 год.
TeraGrid объединила высокопроизводительные компьютеры, ресурсы и инструменты данных, а также экспериментальное оборудование. Ресурсы включали более петафлопс вычислительных мощностей и более 30 петабайт оперативного и архивного хранилища данных с быстрым доступом и извлечением через высокопроизводительные компьютерные сети . Исследователи также могли получить доступ к более чем 100 базам данных по конкретным дисциплинам.
TeraGrid координировалась через Grid Infrastructure Group (GIG) Чикагского университета , работающую в партнерстве с сайтами поставщиков ресурсов в США.
Национальный научный фонд США (NSF) обратился с просьбой о создании «распределенной терамасштабной установки» к директору программы Ричарду Л. Хильдербрандту. [1] Проект TeraGrid был запущен в августе 2001 года с финансированием в размере 53 миллионов долларов США для четырех объектов: Национального центра суперкомпьютерных приложений (NCSA) при Университете Иллинойса в Урбана-Шампейн , Суперкомпьютерного центра Сан-Диего (SDSC) при университете. Калифорнии, Сан-Диего , Аргоннской национальной лаборатории Чикагского университета и Центра перспективных компьютерных исследований (CACR) Калифорнийского технологического института в Пасадене, Калифорния .
С самого начала проект задумывался как расширяемая распределенная открытая система . [2] В октябре 2002 года Питтсбургский суперкомпьютерный центр (PSC) в Университете Карнеги-Меллона и Университет Питтсбурга присоединились к TeraGrid в качестве новых крупных партнеров, когда NSF объявил о дополнительном финансировании в размере 35 миллионов долларов. Сеть TeraGrid была преобразована в рамках проекта ETF из ячеистой сети с 4 узлами в двухузловую магистральную сеть с точками подключения в Лос-Анджелесе и на объектах Starlight в Чикаго .
В октябре 2003 года NSF выделил 10 миллионов долларов на добавление четырех объектов к TeraGrid, а также на создание третьего сетевого узла в Атланте . Этими новыми объектами стали Национальная лаборатория Ок-Риджа (ORNL), Университет Пердью , Университет Индианы и Техасский центр перспективных вычислений (TACC) при Техасском университете в Остине .
Построение TeraGrid также стало возможным благодаря корпоративному партнерству с Sun Microsystems , IBM , Intel Corporation , Qwest Communications , Juniper Networks , Myricom , Hewlett-Packard Company и Oracle Corporation .
Строительство TeraGrid было завершено в октябре 2004 года, когда объект TeraGrid начал полную работу.
В августе 2005 года недавно созданный отдел киберинфраструктуры NSF продлил поддержку еще на пять лет, предоставив набор наград в размере 150 миллионов долларов. В него вошли 48 миллионов долларов на координацию и поддержку пользователей группы Grid Infrastructure Group в Чикагском университете, возглавляемой Чарли Кэтлеттом . [3] Используя высокопроизводительные сетевые соединения, TeraGrid включала в себя высокопроизводительные компьютеры, ресурсы данных и инструменты, а также высококлассные экспериментальные установки по всей территории США. Работу, поддерживаемую проектом, иногда называют электронной наукой . В 2006 году Школа информации Мичиганского университета начала исследование TeraGrid. [4]
В мае 2007 года интегрированные ресурсы TeraGrid включали более 250 терафлопс вычислительных мощностей и более 30 петабайт (квадриллионов байт) онлайнового и архивного хранилища данных с быстрым доступом и извлечением по высокопроизводительным сетям. Исследователи получили доступ к более чем 100 базам данных по конкретным дисциплинам. В конце 2009 года ресурсы TeraGrid выросли до 2 петафлопс вычислительной мощности и более 60 петабайт памяти. В середине 2009 года NSF продлил работу TeraGrid до 2011 года.
Последующий проект был одобрен в мае 2011 года. [5] В июле 2011 года партнерство из 17 учреждений объявило о создании среды экстремальных научных и инженерных открытий (XSEDE). NSF объявил о финансировании проекта XSEDE на пять лет на сумму 121 миллион долларов. [6] XSEDE возглавляет Джон Таунс из Национального центра суперкомпьютерных приложений Университета Иллинойса . [6]
Ресурсы TeraGrid интегрированы через сервис-ориентированную архитектуру , в которой каждый ресурс предоставляет «сервис», определенный с точки зрения интерфейса и работы. Вычислительные ресурсы используют набор программных пакетов под названием «Координированное программное обеспечение и услуги TeraGrid» (CTSS). CTSS обеспечивает знакомую пользовательскую среду во всех системах TeraGrid, позволяя ученым легче переносить код из одной системы в другую. CTSS также предоставляет интеграционные функции, такие как единый вход, удаленная отправка заданий, поддержка рабочих процессов, инструменты перемещения данных и т. д. CTSS включает в себя Globus Toolkit, Condor, программное обеспечение для распределенного учета и управления учетными записями, программное обеспечение для проверки и проверки, а также набор компиляторов. инструменты программирования и переменные среды .
TeraGrid использует выделенную оптоволоконную магистраль со скоростью 10 гигабит в секунду с концентраторами в Чикаго, Денвере и Лос-Анджелесе. Все сайты поставщиков ресурсов подключаются к магистральному узлу со скоростью 10 гигабит в секунду. Пользователи получали доступ к объекту через национальные исследовательские сети, такие как магистральная сеть Internet2 Abilene и National LambdaRail .
Пользователи TeraGrid в основном прибыли из университетов США. В более чем 200 университетах насчитывается около 4000 пользователей. Академические исследователи в Соединенных Штатах могут получить ассигнования на исследования или разработки (примерно в «часах процессора») на основе краткого описания предстоящей работы. Более обширные ассигнования включают предложение, которое рассматривается в ходе ежеквартального процесса экспертной оценки. Все предложения по распределению обрабатываются через веб-сайт TeraGrid. Предлагающие выбирают научную дисциплину, которая наиболее точно описывает их работу, и это позволяет сообщать о распределении и использовании TeraGrid по научным дисциплинам. По состоянию на июль 2006 года научный профиль распределения и использования TeraGrid был следующим:
Каждая из этих категорий дисциплин соответствует определенной программной области Национального научного фонда .
Начиная с 2006 года TeraGrid предоставляла услуги по конкретным приложениям партнерам Science Gateway , которые обслуживают (обычно через веб-портал) научные и образовательные сообщества, специализирующиеся на конкретных дисциплинах. С помощью программы Science Gateways TeraGrid стремится расширить доступ как минимум на порядок с точки зрения количества ученых, студентов и преподавателей, которые могут использовать TeraGrid.
{{cite book}}
: |work=
игнорируется ( помощь )