stringtranslate.com

Larrabee (микроархитектура)

Архитектура графического процессора Larrabee, представленная на конференции SIGGRAPH в августе 2008 г.

Larrabeeкодовое название отмененного чипа GPGPU , который Intel разрабатывала отдельно от своей текущей линейки интегрированных графических ускорителей . Он назван в честь горы Ларраби или государственного парка Ларраби в штате Вашингтон. [1] [2] Чип должен был быть выпущен в 2010 году как ядро ​​потребительской 3D-видеокарты , но эти планы были отменены из-за задержек и разочаровывающих ранних показателей производительности. [3] [4] Проект по производству розничного продукта GPU непосредственно из исследовательского проекта Larrabee был прекращен в мае 2010 года [5], и его технология была передана Xeon Phi . Многопроцессорная архитектура Intel MIC, анонсированная в 2010 году, унаследовала многие элементы дизайна из проекта Larrabee, но не функционирует как графический процессор; продукт предназначен как сопроцессор для высокопроизводительных вычислений .

Почти десятилетие спустя, 12 июня 2018 года, идея выделенного графического процессора Intel вновь возродилась в связи с желанием Intel создать дискретный графический процессор к 2020 году. [6] Этот проект в конечном итоге стал сериями Intel Xe и Intel Arc , выпущенными в сентябре 2020 года и марте 2022 года соответственно, но оба они не были связаны с работой над проектом Larrabee.

Статус проекта

4 декабря 2009 года Intel официально объявила, что Larrabee первого поколения не будет выпущен как потребительский GPU-продукт. [7] Вместо этого он должен был быть выпущен как платформа разработки для графики и высокопроизводительных вычислений . Официальной причиной стратегической перезагрузки были названы задержки в разработке оборудования и программного обеспечения. [8] 25 мая 2010 года блог Technology@Intel объявил, что Larrabee не будет выпущен как GPU, а вместо этого будет выпущен как продукт для высокопроизводительных вычислений, конкурирующий с Nvidia Tesla . [9]

Проект по производству розничного продукта GPU непосредственно из исследовательского проекта Larrabee был прекращен в мае 2010 года. [5] Архитектура многопроцессорной системы Intel MIC , анонсированная в 2010 году, унаследовала многие элементы дизайна из проекта Larrabee, но не функционирует как графический процессор; продукт предназначен как сопроцессор для высокопроизводительных вычислений. Прототип карты был назван Knights Ferry , производственная карта, построенная на 22-нм процессе под названием Knights Corner , планировалась к производству в 2012 году или позже. [ необходима цитата ]

Сравнение с конкурирующими продуктами

По данным Intel, Larrabee имеет полностью программируемый конвейер, в отличие от видеокарт текущего поколения, которые программируются лишь частично.

Larrabee можно считать гибридом многоядерного CPU и GPU , и он имеет сходство с обоими. Его когерентная иерархия кэша и совместимость с архитектурой x86 подобны CPU, в то время как его широкие векторные блоки SIMD и аппаратное обеспечение для выборки текстур подобны GPU.

Как графический процессор, Larrabee поддерживал бы традиционную растровую 3D-графику ( Direct3D и OpenGL ) для игр. Однако его гибридизация функций CPU и GPU также должна была бы подходить для задач GPU общего назначения (GPGPU) или потоковой обработки . Например, он мог бы выполнять трассировку лучей или обработку физики [10] в реальном времени для игр или офлайн для научных исследований в качестве компонента суперкомпьютера [ 11] .

Ранняя презентация Larrabee вызвала некоторую критику со стороны конкурентов GPU. На NVISION 08 сотрудник Nvidia назвал статью Intel SIGGRAPH о Larrabee «маркетинговой болтовней» и процитировал отраслевого аналитика (Питера Гласковски), который предположил, что архитектура Larrabee была «как GPU из 2006 года». [12] К июню 2009 года Intel заявила, что прототипы Larrabee были на одном уровне с Nvidia GeForce GTX 285. [ 13] Джастин Раттнер , технический директор Intel , выступил с основным докладом на конференции Supercomputing 2009 17 ноября 2009 года. Во время своего выступления он продемонстрировал разогнанный процессор Larrabee, превосходящий один терафлопс по производительности. Он заявил, что это была первая публичная демонстрация однокристальной системы, превышающей один терафлопс. Он указал, что это был ранний кремний, тем самым оставив открытым вопрос о возможной производительности архитектуры. Поскольку это составляло всего лишь одну пятую от доступных конкурирующих графических плат, Larrabee был отменен «как отдельный дискретный графический продукт» 4 декабря 2009 года. [3]

Различия с современными графическими процессорами

Larrabee должен был отличаться от старых дискретных графических процессоров, таких как серии GeForce 200 и Radeon 4000, тремя основными способами:

Ожидалось, что это сделает Larrabee более гибким, чем текущие графические процессоры, что позволит больше различать внешний вид игр или других 3D-приложений. В статье Intel SIGGRAPH 2008 упоминается несколько функций рендеринга, которые было трудно достичь на текущих графических процессорах: чтение цели рендеринга, прозрачность, независимая от порядка , нерегулярное отображение теней и трассировка лучей в реальном времени . [14]

Более современные графические процессоры, такие как ATI Radeon HD 5xxx и Nvidia GeForce 400, обладают все более широкими возможностями универсальных вычислений благодаря DirectX11 DirectCompute и OpenCL, а также фирменной технологии Nvidia CUDA , что дает им многие из возможностей Larrabee.

Различия с процессорами

Ядра процессора x86 в Larrabee отличались от ядер в современных процессорах Intel, таких как Core 2 Duo или Core i7 , по нескольким параметрам :

Теоретически ядра процессора Larrabee x86 могли бы запускать существующее программное обеспечение для ПК или даже операционные системы. Другая версия процессора могла бы находиться в сокетах ЦП материнской платы с использованием QuickPath [17] , но Intel никогда не объявляла о каких-либо планах на этот счет. Хотя собственный компилятор Larrabee C/C++ включал автоматическую векторизацию, и многие приложения могли выполняться правильно после перекомпиляции, ожидалось, что максимальная эффективность потребовала бы оптимизации кода с использованием векторных встроенных функций C++ или встроенного ассемблерного кода Larrabee [14] . Однако, как и во всех GPGPU, не все программное обеспечение выиграло бы от использования векторного процессора. Один сайт технической журналистики утверждает, что графические возможности Larrabee планировалось интегрировать в ЦП на основе микроархитектуры Haswell [18] .

Сравнение с широкополосным движком Cell

Философия Larrabee по использованию множества небольших, простых ядер была похожа на идеи, лежащие в основе процессора Cell . Есть и некоторые другие общие черты, такие как использование кольцевой шины с высокой пропускной способностью для связи между ядрами. [14] Однако было много существенных различий в реализации, которые, как ожидалось, упростят программирование Larrabee.

Сравнение с Intel GMA

Intel начала интегрировать линейку графических процессоров на материнские платы под брендом Intel GMA в 2004 году. Будучи интегрированными на материнские платы (более новые версии, такие как выпущенные с Sandy Bridge, встроены в тот же кристалл, что и ЦП), эти чипы не продавались отдельно. Хотя низкая стоимость и энергопотребление чипов Intel GMA сделали их подходящими для небольших ноутбуков и менее требовательных задач, им не хватает вычислительной мощности 3D-графики, чтобы конкурировать с современными графическими процессорами Nvidia и AMD/ATI за долю рынка игровых компьютеров высокого класса, рынка HPC или место в популярных игровых консолях . Напротив, Larrabee должен был продаваться как дискретный графический процессор, отдельно от материнских плат, и, как ожидалось, должен был работать достаточно хорошо для рассмотрения в следующем поколении игровых консолей. [19] [20]

Команда, работающая над Larrabee, была отделена от команды Intel GMA. Аппаратное обеспечение было разработано недавно сформированной командой на площадке Intel в Хиллсборо, штат Орегон, отдельно от тех, кто проектировал Nehalem . Программное обеспечение и драйверы были написаны недавно сформированной командой. 3D-стек был специально написан разработчиками из RAD Game Tools (включая Майкла Абраша ). [21]

Институт визуальных вычислений Intel исследовал базовые и прикладные технологии, которые можно было бы применить к продуктам на базе Larrabee. [22]

Прогнозируемые данные о производительности

Результаты сравнительного анализа из статьи SIGGRAPH 2008 года, показывающие прогнозируемую производительность как приблизительную линейную функцию количества процессорных ядер.

В документе Intel SIGGRAPH 2008 описывается моделирование с точностью до цикла (включая ограничения памяти, кэшей и текстурных блоков) прогнозируемой производительности Larrabee. [14] Графики показывают, сколько ядер Larrabee с частотой 1 ГГц требуется для поддержания 60 кадров/с при разрешении 1600×1200 в нескольких популярных играх. Примерно 25 ядер требуется для Gears of War без сглаживания, 25 ядер для FEAR с 4-кратным сглаживанием и 10 ядер для Half-Life 2: Episode Two с 4-кратным сглаживанием. Intel заявила, что Larrabee, скорее всего, будет работать быстрее 1 ГГц, поэтому эти числа не представляют собой фактические ядра, а скорее виртуальные временные интервалы таковых. Другой график показывает, что производительность в этих играх масштабируется почти линейно с количеством ядер до 32 ядер. При 48 ядрах производительность падает до 90% от ожидаемой, если бы линейная зависимость сохранялась. [23]

В статье PC Watch за июнь 2007 года говорилось, что первые чипы Larrabee будут иметь 32 ядра процессора x86 и выйдут в конце 2009 года, изготовленные по 45-нанометровому процессу . Чипы с несколькими дефектными ядрами из-за проблем с выходом продукции будут продаваться как 24-ядерная версия. Позже в 2010 году Larrabee будет уменьшен для 32-нанометрового процесса изготовления , чтобы сделать возможной 48-ядерную версию. [24]

Последнее утверждение о производительности можно рассчитать (теоретически это максимально возможная производительность) следующим образом: 32 ядра × 16 операций SIMD одинарной точности с плавающей точкой на ядро ​​× 2 FLOP (объединенное умножение-сложение) × 2 ГГц = 2 TFLOPS теоретически.

Публичные демонстрации

Публичная демонстрация возможностей трассировки лучей Larrabee состоялась на форуме разработчиков Intel в Сан-Франциско 22 сентября 2009 года. Экспериментальная версия Enemy Territory: Quake Wars под названием Quake Wars: Ray Traced была показана в реальном времени. Сцена содержала водную поверхность с трассировкой лучей, которая точно отражала окружающие объекты, такие как корабль и несколько летательных аппаратов. [25] [26] [27]

Вторая демонстрация была представлена ​​на конференции SC09 в Портленде 17 ноября 2009 года во время выступления технического директора Intel Джастина Раттнера . Карта Larrabee смогла достичь 1006 GFLops в расчетах SGEMM 4Kx4K.

Инженерный образец карты Larrabee был приобретен и рассмотрен Линусом Себастьяном в видео, опубликованном 14 мая 2018 года. Однако ему не удалось заставить карту выдавать видеовыход, поскольку материнская плата отображала POST-код D6. [28] В 2022 году YouTuber Роман «der8auer» Хартунг продемонстрировал другую карту, которая, как было показано, работала и выдавала сигнал дисплея, но не могла обеспечить 3D-ускорение из-за отсутствующих драйверов. [29]

Смотрите также

Ссылки

  1. ^ Форсайт, Том (ноябрь 2019 г.). "SMACNI to AVX512 the life cycle of an instructions set" (PDF) . Получено 4 июля 2024 г. .
  2. ^ Форсайт, Том (22 декабря 2020 г.). «Том Форсайт о именовании набора инструкций Larrabee». Twitter.com . Архивировано из оригинала 22.12.2020 . Получено 22 декабря 2020 г.
  3. ^ ab Crothers, Brooke (4 декабря 2009 г.). "Intel: Первоначальный графический чип Larrabee отменен". CNET . CBS Interactive .
  4. Чарли Демерджян (4 декабря 2009 г.). «Intel убивает потребительский Larrabee, фокусируется на будущих вариантах — SemiAccurate». SemiAccurate.com . Получено 9 апреля 2017 г. .
  5. ^ ab Smith, Ryan (25 мая 2010 г.). «Intel убивает Larrabee GPU, не выведет на рынок дискретный графический продукт». AnandTech .
  6. ^ Смит, Райан (13 июня 2018 г.). «Первый (современный) дискретный графический процессор Intel выйдет в 2020 году». Anandtech . Получено 4 ноября 2018 г.
  7. Стоукс, Джон (5 декабря 2009 г.). «Графический процессор Intel Larrabee заморожен, больше новостей в 2010 г.». Ars Technica . Condé Nast .
  8. ^ Смит, Райан. «Intel отменяет розничные продукты Larrabee, проект Larrabee продолжает жить». AnandTech.com . Получено 9 апреля 2017 г.
  9. ^ "Blogs@Intel - Intel Blogs". Intel.com . Получено 9 апреля 2017 г. .
  10. ^ Стоукс, Джон (17 сентября 2007 г.). «Intel выбирает игровой физический движок для будущего продукта GPU». Ars Technica . Получено 17 сентября 2007 г.
  11. Стоукс, Джон (27 апреля 2007 г.). «Прояснение путаницы вокруг Larrabee от Intel». Ars Technica . Получено 1 июня 2007 г.
  12. ^ "Выступление Ларраби — за пределами звуковой фразы". CNet.com . Получено 9 апреля 2017 г. .
  13. ^ "Intel's 'Larrabee' на одном уровне с GeForce GTX 285". TomsHardware.com . 2 июня 2009 г. Получено 9 апреля 2017 г.
  14. ^ abcdefghijklmno Seiler, L.; Cavin, D.; Espasa, E.; Grochowski, T.; Juan, M.; Hanrahan, P.; Carmean, S.; Sprangle, A.; Forsyth, J.; Abrash, R.; Dubey, R.; Junkins, E.; Lake, T.; Sugerman, P. (август 2008 г.). "Larrabee: многоядерная архитектура x86 для визуальных вычислений" (PDF) . ACM Transactions on Graphics . Труды ACM SIGGRAPH 2008. 27 (3): 18:11. doi :10.1145/1360612.1360617. ISSN  0730-0301. S2CID  52799248. Архивировано из оригинала (PDF) 2021-03-07 . Получено 2008-08-06 .
  15. ^ "Графический процессор Intel Larrabee основан на секретной технологии Пентагона, вроде как [Обновлено]". Ars Technica . 9 июля 2008 г. Получено 06.08.2008 .
  16. ^ Гласковски, Питер. «Intel Larrabee — больше и меньше, чем кажется на первый взгляд». CNET . Получено 20 августа 2008 г.
  17. Стоукс, Джон (5 июня 2007 г.). «Прояснение путаницы вокруг Larrabee от Intel, часть II». Ars Technica . Получено 16.01.2008 .
  18. ^ "Intel будет использовать графику Larrabee на процессорах - SemiAccurate". SemiAccurate.com . 19 августа 2009 г. Получено 9 апреля 2017 г.
  19. Крис Лейтон (13 августа 2008 г.). «Intel's Larrabee Shaping Up For Next-Gen Consoles?». Архивировано из оригинала 17 августа 2008 г. Получено 24 августа 2008 г.
  20. Чарли Демерджян (5 февраля 2009 г.). "Intel Will Design PlayStation 4 GPU". Архивировано из оригинала 11 мая 2009 г. Получено 28 августа 2009 г.{{cite web}}: CS1 maint: неподходящий URL ( ссылка )
  21. ^ Уилсон, Ананд Лал Шимпи и Дерек. «Раскрытие архитектуры Larrabee от Intel: расчетливый первый шаг». AnandTech.com . Получено 9 апреля 2017 г.
  22. ^ Нг, Янсен (13 мая 2009 г.). "Intel Visual Computing Institute Opens, Will Spur "Larrabee" Development". DailyTech . Архивировано из оригинала 16 мая 2009 г. Получено 13 мая 2009 г.
  23. Стив Сегуин (20 августа 2008 г.). «Intel's 'Larrabee' to Shakeup [sic] AMD, Nvidia». Tom's Hardware . Получено 24 августа 2008 г.
  24. ^ "Intel продвигает 32-ядерный процессор "Larrabee"" (на японском). pc.watch.impress.co.jp . Получено 6 августа 2008 г.перевод
  25. Geeks3D (2008-06-12), Ray Traced Quake Wars, заархивировано из оригинала 2021-09-17 , извлечено 2022-03-07{{citation}}: CS1 maint: числовые имена: список авторов ( ссылка )
  26. ^ "Light It Up! Quake Wars* Gets Ray Traced" (PDF) . Архивировано (PDF) из оригинала 15 февраля 2010 г. . Получено 2022-03-07 .
  27. ^ "Quake Wars: Ray Traced". 2008-08-18. Архивировано из оригинала 2011-07-19.
  28. ^ Linus Tech Tips (2018-05-14), У НАС ЕСТЬ ПРОТОТИП ГРАФИЧЕСКОЙ КАРТЫ INTEL!!, заархивировано из оригинала 2021-12-21 , извлечено 2019-05-10
  29. ^ der8auer EN (2022-12-24), HW-Legends #13: Intel отменила этот проект - самая дорогая карта в моей коллекции (Larrabee), заархивировано из оригинала 2023-07-23 , извлечено 2023-07-23{{citation}}: CS1 maint: числовые имена: список авторов ( ссылка )

Внешние ссылки