stringtranslate.com

Intel iPSC

Intel Personal SuperComputer ( Intel iPSC ) — линейка параллельных компьютеров в 1980-х и 1990 - х годах. На смену iPSC/1 пришла Intel iPSC/2 , а затем Intel iPSC/860 .

иПСК/1

В 1984 году Джастин Раттнер стал менеджером группы Intel Scientific Computers в Бивертоне, штат Орегон . Он нанял команду, в которую входил математик Клив Молер . [1] iPSC использовал топологию межсетевого взаимодействия Hypercube для соединений между процессорами, внутренне вдохновленную исследовательским проектом Caltech Cosmic Cube . По этой причине он был сконфигурирован с узлами, нумерованными степенью двойки, что соответствует углам гиперкубов увеличивающейся размерности. [2]

Intel iPSC-1 (1985) в Музее истории компьютеров (см. также другие фото )

Intel анонсировала iPSC/1 в 1985 году, с 32–128 узлами, соединенными Ethernet в гиперкуб. Система управлялась персональным компьютером эпохи PC/AT, работающим под управлением Xenix , «менеджера куба». [3] Каждый узел имел ЦП 80286 с математическим сопроцессором 80287 , 512 Кб ОЗУ и восемь портов Ethernet (семь для соединения гиперкуба и один для связи с менеджером куба). [1]

Интерфейс передачи сообщений под названием NX, разработанный Полом Пирсом, развивался на протяжении всего срока службы линейки iPSC. [4] Поскольку только менеджер куба имел связь с внешним миром, разработка и отладка приложений были затруднены. [5]

Базовыми моделями были iPSC/d5 (пятимерный гиперкуб с 32 узлами), iPSC/d6 (шесть измерений с 64 узлами) и iPSC/d7 (семь измерений со 128 узлами). Каждый шкаф имел 32 узла, а цены варьировались до примерно полумиллиона долларов за модель iPSC/d7 с четырьмя шкафами. [1] Также были доступны модели с дополнительной памятью (iPSC-MX) и векторным процессором (iPSC-VX) в трех размерах. Также был доступен четырехмерный гиперкуб (iPSC/d4) с 16 узлами. [6]

iPSC/1 был назван первым параллельным компьютером, построенным из коммерческих готовых деталей. [7] Это позволило ему выйти на рынок примерно в то же время, что и его конкуренту nCUBE , хотя проект nCUBE начался раньше. Каждый корпус iPSC имел (общие) размеры 127 см x 41 см x 43 см. Общая производительность компьютера оценивалась в 2 M FLOPS . Ширина памяти составляла 16 бит.

Серийный № 1 iPSC/1 с 32 узлами был доставлен в Окриджскую национальную лабораторию в 1985 году. [8] [9]

иПСК/2

16-узловой параллельный компьютер Intel iPSC/2. 22 августа 1995 г.

Intel iPSC/2 был анонсирован в 1987 году. Он был доступен в нескольких конфигурациях, базовая установка представляла собой один корпус с 16 процессорами Intel 80386 с частотой 16 МГц, каждый с 4 МБ памяти и сопроцессором 80387 на одном модуле. [10] Операционная система и пользовательские программы загружались с управляющего ПК. Обычно этот ПК был Intel 301 со специальной интерфейсной картой. Вместо Ethernet для соединения гиперкубов использовался специальный модуль прямого подключения с восемью каналами со скоростью передачи данных около 2,8 Мбайт/с каждый. [10] Специальное оборудование для соединения приводило к более высокой стоимости, но уменьшало задержки связи. [11] Программное обеспечение в управляющем процессоре называлось System Resource Manager вместо «менеджер куба». Система допускает расширение до 128 узлов, каждый с процессором и сопроцессором. [12]

Базовые модули можно было обновить до версии SX (Scalar eXtension) , добавив блок с плавающей точкой Weitek 1167. [13] Другая конфигурация позволяла каждому процессорному модулю быть сопряженным с модулем VX (Vector eXtension) с выделенными блоками умножения и сложения. Это имеет тот недостаток, что количество доступных слотов для интерфейсных карт уменьшается вдвое. Наличие нескольких шкафов как части одной и той же системы iPSC/2 необходимо для запуска максимального количества узлов и обеспечения их подключения к модулям VX. [14]

Узлы iPSC/2 работали под управлением фирменной операционной системы NX/2, в то время как хост-машина работала под управлением System V или Xenix . [15] Узлы могли быть сконфигурированы как iPSC/1 без локального дискового хранилища или использовать одно из соединений Direct-Connect Module с кластерной файловой системой (в то время называвшейся параллельной файловой системой). [14] [16] Использование как более быстрых узловых вычислительных элементов, так и системы межсоединений повысило производительность приложений по сравнению с iPSC/1. [17] [18] Было построено около 140 систем iPSC/2. [19]

iPSC/860

Передняя панель 32-узлового параллельного компьютера Intel iPSC/860 во время работы параллельного движка трассировки лучей Tachyon . 22 августа 1995 г.

Intel анонсировала iPSC/860 в 1990 году . iPSC/860 состоял из 128 процессорных элементов, соединенных в гиперкуб, каждый элемент состоял из микропроцессора Intel i860 с частотой 40–50 МГц или Intel 80386. [20] Память на узел была увеличена до 8 МБ, и использовался аналогичный модуль прямого подключения, который ограничивал размер до 128 узлов. [21]

Параллельный компьютер Intel iPSC/860 с 32 узлами и открытой передней дверцей, на котором видны вычислительные узлы, узлы ввода-вывода и платы управления системой. 22 августа 1995 г.

Одним из клиентов была Национальная лаборатория Ок-Ридж . [20] Производительность iPSC/860 анализировалась в нескольких исследовательских проектах. [22] [23] iPSC/860 также был первоначальной платформой разработки для параллельного движка трассировки лучей Tachyon [24] [25] , который стал частью бенчмарка SPEC MPI 2007 и широко используется до сих пор. [26] Линия iPSC была заменена исследовательским проектом Touchstone Delta в Калифорнийском технологическом институте , который превратился в Intel Paragon .

Ссылки

  1. ^ abc Moler, Cleve (28 октября 2013 г.). "The Intel Hypercube, часть 1" . Получено 4 ноября 2013 г.
  2. ^ "Персональный суперкомпьютер". Музей истории компьютеров . Получено 4 ноября 2013 г.
  3. ^ Пирс, Пол Р. "Intel iPSC/1". Архивировано из оригинала 3 июня 2013 г. Получено 4 ноября 2013 г.
  4. ^ Пирс, Пол (апрель 1994 г.). «Интерфейс передачи сообщений NX». Параллельные вычисления . 20 (4): 1285–1302. doi :10.1016/0167-8191(94)90023-X.
  5. ^ Шедлбауэр, Мартин Дж. (1989). "Система управления вводом-выводом для гиперкуба iPSC/1". Труды 17-й конференции по компьютерным наукам ACM . стр. 400. doi :10.1145/75427. ISBN 978-0-89791-299-0.
  6. ^ http://delivery.acm.org/10.1145/70000/63074/p1207-orcutt.pdf [ мертвая ссылка ]
  7. ^ Пирс, Пол Р. "Другие артефакты в коллекции". Архивировано из оригинала 3 июня 2013 г. Получено 4 ноября 2013 г.
  8. ^ Райли, Бетси А. «История ORNL HPCC (подробности хронологии)».
  9. ^ «История суперкомпьютеров».
  10. ^ ab «Intel iPSC/2 (Рубик)». Компьютерный музей . Католический университет Левена . Проверено 4 ноября 2013 г.
  11. ^ Хэтчер, Филип Дж.; Куинн, Майкл Джей (1991). Параллельное программирование данных на компьютерах MIMD. MIT Press. стр. 7. ISBN 9780262082051.
  12. ^ Чауддхури, П. Пал (2008). Организация и проектирование компьютеров. PHI Learning. стр. 826. ISBN 9788120335110.
  13. ^ Равикумар, Си. Пи (1996). Параллельные методы проектирования компоновки СБИС. Greenwood Publishing Group. стр. 183. ISBN 9780893918286.
  14. ^ ab Dongarra, Jack ; Duff, Iain S. (1991). "Advanced Architecture Computers". В Adeli, Hojjat (ред.). Supercomputing in Engineering Analysis . CRC Press. стр. 51–54. ISBN 9780893918286.
  15. ^ Пирс, Пол (1988). "Операционная система NX/2". Труды третьей конференции по параллельным компьютерам и приложениям Hypercube. Архитектура, программное обеспечение, компьютерные системы и общие вопросы -. C 3 P. Том 1. ACM. С. 384–390. doi :10.1145/62297.62341. ISBN 978-0-89791-278-5. S2CID  45688408.
  16. ^ Френч, Джеймс К.; Пратт, Терренс В.; Дас, Мриганка (май 1991 г.). "Измерение производительности параллельной системы ввода/вывода для Intel iPSC/2 Hypercube". Труды конференции ACM SIGMETRICS 1991 г. по измерению и моделированию компьютерных систем - SIGMETRICS '91 . ACM. стр. 178–187. doi :10.1145/107971.107990. ISBN 978-0-89791-392-8. S2CID  13899933.
  17. ^ Арши, С.; Эсбери, Р.; Бранденбург, Дж.; Скотт, Д. (1988). "Улучшение производительности приложений на компьютере iPSC/2". Труды третьей конференции по параллельным компьютерам и приложениям Hypercube Архитектура, программное обеспечение, компьютерные системы и общие вопросы - . Том 1. ACM. стр. 149–154. doi :10.1145/62297.62316. ISBN 978-0-89791-278-5. S2CID  46148117.
  18. ^ Bomans, Luc; Roose, Dirk (сентябрь 1989). "Benchmarking the iPSC/2 hypercube multiprocessor". Параллелизм: практика и опыт . 1 (1): 3–18. doi :10.1002/cpe.4330010103.
  19. ^ Гилберт Калб; Роберт Моксли, ред. (1992). «Коммерчески доступные системы». Массовые параллельные, оптические и нейронные вычисления в Соединенных Штатах . IOS Press. стр. 17–18. ISBN 9781611971507.
  20. ^ ab Ramachandramurthi, Siddharthan (1996). "iPSC/860 Guide". Проект по образованию в области вычислительных наук в Национальной лаборатории Оук-Ридж . Получено 4 ноября 2013 г.
  21. ^ Venkatakrishnan, V. (1991). "Параллельные неявные методы для аэродинамических приложений на неструктурированных сетках". В Keyes, David E.; Saad, Y.; Truhlar, Donald G. (ред.). Методы параллелизма на основе доменов и декомпозиции проблем в вычислительной науке и технике . SIAM. стр. 66. ISBN 9781611971507.
  22. ^ Беррендорф, Рудольф; Хелин, Юкка (май 1992 г.). «Оценка базовой производительности параллельного компьютера Intel iPSC/860». Параллелизм: практика и опыт . 4 (3): 223–240. doi :10.1002/cpe.4330040303.
  23. ^ Dunigan, TH (декабрь 1991 г.). «Производительность гиперкубов Intel iPSC/860 и Ncube 6400». Parallel Computing . 17 (10–11): 1285–1302. doi :10.1016/S0167-8191(05)80039-0.
  24. ^ Стоун, Дж.; Андервуд, М. (1996-07-01). "Рендеринг численных моделей потока с использованием MPI". Труды. Вторая конференция разработчиков MPI . стр. 138–141. CiteSeerX 10.1.1.27.4822 . doi :10.1109/MPIDC.1996.534105. ISBN  978-0-8186-7533-1. S2CID  16846313.
  25. ^ Стоун, Джон Э. (январь 1998 г.). Эффективная библиотека для параллельной трассировки лучей и анимации (магистратура). Кафедра компьютерных наук, Университет Миссури-Ролла, апрель 1998 г.
  26. ^ Стоун, Дж. Э.; Изралевитц, Б.; Шультен, К. (01.08.2013). «Ранние опыты масштабирования задач молекулярной визуализации и анализа VMD на голубых водах». 2013 Extreme Scaling Workshop (XSW 2013) . стр. 43–50. CiteSeerX 10.1.1.396.3545 . doi :10.1109/XSW.2013.10. ISBN  978-1-4799-3691-5. S2CID  16329833.