stringtranslate.com

ТераГрид

TeraGrid представляла собой грид-вычислительную инфраструктуру электронной науки, объединяющую ресурсы одиннадцати партнерских площадок. Проект стартовал в 2001 году и действовал с 2004 по 2011 год.

TeraGrid объединила высокопроизводительные компьютеры, ресурсы и инструменты данных, а также экспериментальное оборудование. Ресурсы включали более петафлопс вычислительных мощностей и более 30 петабайт оперативного и архивного хранилища данных с быстрым доступом и извлечением через высокопроизводительные компьютерные сети . Исследователи также могли получить доступ к более чем 100 базам данных по конкретным дисциплинам.

TeraGrid координировалась через Grid Infrastructure Group (GIG) Чикагского университета , работающую в партнерстве с сайтами поставщиков ресурсов в США.

История

Национальный научный фонд США (NSF) обратился с просьбой о создании «распределенной терамасштабной установки» к директору программы Ричарду Л. Хильдербрандту. [1] Проект TeraGrid был запущен в августе 2001 года с финансированием в размере 53 миллионов долларов США для четырех объектов: Национального центра суперкомпьютерных приложений (NCSA) при Университете Иллинойса в Урбана-Шампейн , Суперкомпьютерного центра Сан-Диего (SDSC) при университете. Калифорнии, Сан-Диего , Аргоннской национальной лаборатории Чикагского университета и Центра перспективных компьютерных исследований (CACR) Калифорнийского технологического института в Пасадене, Калифорния .

С самого начала проект задумывался как расширяемая распределенная открытая система . [2] В октябре 2002 года Питтсбургский суперкомпьютерный центр (PSC) в Университете Карнеги-Меллона и Университет Питтсбурга присоединились к TeraGrid в качестве новых крупных партнеров, когда NSF объявил о дополнительном финансировании в размере 35 миллионов долларов. Сеть TeraGrid была преобразована в рамках проекта ETF из ячеистой сети с 4 узлами в двухузловую магистральную сеть с точками подключения в Лос-Анджелесе и на объектах Starlight в Чикаго .

В октябре 2003 года NSF выделил 10 миллионов долларов на добавление четырех объектов к TeraGrid, а также на создание третьего сетевого узла в Атланте . Этими новыми объектами стали Национальная лаборатория Ок-Риджа (ORNL), Университет Пердью , Университет Индианы и Техасский центр перспективных вычислений (TACC) при Техасском университете в Остине .

Построение TeraGrid также стало возможным благодаря корпоративному партнерству с Sun Microsystems , IBM , Intel Corporation , Qwest Communications , Juniper Networks , Myricom , Hewlett-Packard Company и Oracle Corporation .

Строительство TeraGrid было завершено в октябре 2004 года, когда объект TeraGrid начал полную работу.

Операция

В августе 2005 года недавно созданный отдел киберинфраструктуры NSF продлил поддержку еще на пять лет, предоставив набор наград в размере 150 миллионов долларов. В него вошли 48 миллионов долларов на координацию и поддержку пользователей группы Grid Infrastructure Group в Чикагском университете, возглавляемой Чарли Кэтлеттом . [3] Используя высокопроизводительные сетевые соединения, TeraGrid включала в себя высокопроизводительные компьютеры, ресурсы данных и инструменты, а также высококлассные экспериментальные установки по всей территории США. Работу, поддерживаемую проектом, иногда называют электронной наукой . В 2006 году Школа информации Мичиганского университета начала исследование TeraGrid. [4]

В мае 2007 года интегрированные ресурсы TeraGrid включали более 250 терафлопс вычислительных мощностей и более 30 петабайт (квадриллионов байт) онлайнового и архивного хранилища данных с быстрым доступом и извлечением по высокопроизводительным сетям. Исследователи получили доступ к более чем 100 базам данных по конкретным дисциплинам. В конце 2009 года ресурсы TeraGrid выросли до 2 петафлопс вычислительной мощности и более 60 петабайт памяти. В середине 2009 года NSF продлил работу TeraGrid до 2011 года.

Переход на XSEDE

Последующий проект был одобрен в мае 2011 года. [5] В июле 2011 года партнерство из 17 учреждений объявило о создании среды экстремальных научных и инженерных открытий (XSEDE). NSF объявил о финансировании проекта XSEDE на пять лет на сумму 121 миллион долларов. [6] XSEDE возглавляет Джон Таунс из Национального центра суперкомпьютерных приложений Университета Иллинойса . [6]

Архитектура

Оборудование TeraGrid в UCSD в 2007 г.

Ресурсы TeraGrid интегрированы через сервис-ориентированную архитектуру , в которой каждый ресурс предоставляет «сервис», определенный с точки зрения интерфейса и работы. Вычислительные ресурсы используют набор программных пакетов под названием «Координированное программное обеспечение и услуги TeraGrid» (CTSS). CTSS обеспечивает знакомую пользовательскую среду во всех системах TeraGrid, позволяя ученым легче переносить код из одной системы в другую. CTSS также предоставляет интеграционные функции, такие как единый вход, удаленная отправка заданий, поддержка рабочих процессов, инструменты перемещения данных и т. д. CTSS включает в себя Globus Toolkit, Condor, программное обеспечение для распределенного учета и управления учетными записями, программное обеспечение для проверки и проверки, а также набор компиляторов. инструменты программирования и переменные среды .

TeraGrid использует выделенную оптоволоконную магистраль со скоростью 10 гигабит в секунду с концентраторами в Чикаго, Денвере и Лос-Анджелесе. Все сайты поставщиков ресурсов подключаются к магистральному узлу со скоростью 10 гигабит в секунду. Пользователи получали доступ к объекту через национальные исследовательские сети, такие как магистральная сеть Internet2 Abilene и National LambdaRail .

Применение

Пользователи TeraGrid в основном прибыли из университетов США. В более чем 200 университетах насчитывается около 4000 пользователей. Академические исследователи в Соединенных Штатах могут получить ассигнования на исследования или разработки (примерно в «часах процессора») на основе краткого описания предстоящей работы. Более обширные ассигнования включают предложение, которое рассматривается в ходе ежеквартального процесса экспертной оценки. Все предложения по распределению обрабатываются через веб-сайт TeraGrid. Предлагающие выбирают научную дисциплину, которая наиболее точно описывает их работу, и это позволяет сообщать о распределении и использовании TeraGrid по научным дисциплинам. По состоянию на июль 2006 года научный профиль распределения и использования TeraGrid был следующим:

Каждая из этих категорий дисциплин соответствует определенной программной области Национального научного фонда .

Начиная с 2006 года TeraGrid предоставляла услуги по конкретным приложениям партнерам Science Gateway , которые обслуживают (обычно через веб-портал) научные и образовательные сообщества, специализирующиеся на конкретных дисциплинах. С помощью программы Science Gateways TeraGrid стремится расширить доступ как минимум на порядок с точки зрения количества ученых, студентов и преподавателей, которые могут использовать TeraGrid.

Поставщики ресурсов

Похожие проекты

Рекомендации

  1. ^ Распределенная терамасштабная установка (DTF). Национальный научный фонд . Январь 2001 года . Проверено 23 сентября 2011 г. {{cite book}}: |work=игнорируется ( помощь )
  2. Чарли Кэтлетт (21 мая 2002 г.). Философия TeraGrid: создание открытого, расширяемого, распределенного объекта TeraScale . 2-й Международный симпозиум IEEE/ACM по кластерным вычислениям и сетям. п. 8. дои :10.1109/CCGRID.2002.1017101. ISBN 0-7695-1582-7.
  3. ^ «Премия TeraGrid в размере 150 миллионов долларов ознаменовывает новую эру научных вычислений» . Выпуск новостей . Национальный научный фонд. 17 августа 2005 года . Проверено 23 сентября 2011 г.
  4. ^ Энн Циммерман; Томас А. Финхольт (август 2008 г.). Отчет об оценочном исследовании TeraGrid, Часть 1: Результаты проекта (PDF) . Национальный научный фонд . Проверено 23 сентября 2011 г.
  5. Национальный научный совет (26 мая 2011 г.). «Краткий отчет заседания 10-11 мая 2011 г.» (PDF) . Проверено 23 сентября 2011 г.
  6. ^ ab «Проект XSEDE предоставляет передовую киберинфраструктуру, цифровые услуги и опыт национальным ученым и инженерам». Выпуск новостей . Национальный научный фонд. 25 июля 2011 года . Проверено 23 сентября 2011 г.
  7. ^ "Большой Красный в IU" . rt.uits.iu.edu . Проверено 9 февраля 2015 г.
  8. ^ «LONI получает финансирование для исследования TeraGrid» (PDF) . Выпуск новостей . Университет штата Луизиана. 9 сентября 2009 г. Архивировано из оригинала (PDF) 26 июля 2011 г. . Проверено 23 сентября 2011 г.
  9. ^ С. Мацуокаэт; и другие. (март 2005 г.). «Японский проект исследования вычислительных сетей: НАРЕГИ». Труды IEEE . 93 (3): 522–533. doi :10.1109/JPROC.2004.842748. S2CID  22562197.

Внешние ссылки