stringtranslate.com

GeForce

GeForce — это торговая марка графических процессоров (GPU), разработанная Nvidia и продаваемая для рынка производительности. Что касается серии GeForce 40 , было восемнадцать итераций дизайна. Первыми продуктами GeForce были дискретные графические процессоры, предназначенные для дополнительных графических плат и предназначенные для высокорентабельного игрового рынка ПК, а последующая диверсификация линейки продуктов охватила все уровни рынка графики для ПК, начиная от недорогих [1] графических процессоров . интегрированы в материнские платы, а также в распространенные дополнительные платы для розничной торговли. Совсем недавно технология GeForce была представлена ​​в линейке процессоров встроенных приложений Nvidia, предназначенных для электронных карманных компьютеров и мобильных телефонов.

Что касается дискретных графических процессоров, используемых во встраиваемых графических платах, графические процессоры Nvidia GeForce и AMD Radeon являются единственными оставшимися конкурентами на рынке high-end . Графические процессоры GeForce доминируют на рынке графических процессоров общего назначения (GPGPU) благодаря своей собственной унифицированной архитектуре вычислительных устройств (CUDA). [2] Ожидается, что GPGPU расширит функциональность графического процессора за пределы традиционной растеризации 3D-графики и превратит его в высокопроизводительное вычислительное устройство, способное выполнять произвольный программный код так же, как это делает центральный процессор, но с разными преимуществами (высокопараллельное выполнение). простых вычислений) и недостатки (худшая производительность для сложного кода ветвления ).

Происхождение имени

Название «GeForce» возникло в результате конкурса «Назови этот чип», проведенного Nvidia в начале 1999 года. Компания призвала общественность назвать преемника линейки графических плат RIVA TNT2 . Было подано более 12 000 заявок, и 7 победителей получили в награду видеокарту RIVA TNT2 Ultra. [3] [4] Брайан Берк, старший менеджер по связям с общественностью Nvidia, рассказал Maximum PC в 2002 году, что «GeForce» первоначально означало «Geometry Force», поскольку GeForce 256 был первым графическим процессором для персональных компьютеров, который рассчитывал геометрию преобразования и освещения. , разгружая эту функцию от процессора . [5]

Поколения графических процессоров

видеокарта 256

Серия GeForce 2

Выпущенный в апреле 2000 года первый GeForce2 (NV15) представлял собой еще один высокопроизводительный графический чип. Nvidia перешла на дизайн с двумя процессорами текстур на конвейер (4x2), удвоив скорость заполнения текстур за такт по сравнению с GeForce 256. Позже Nvidia выпустила GeForce2 MX (NV11), который предлагал производительность, аналогичную GeForce 256, но за небольшую цену. . MX имел привлекательную ценность в сегментах рынка низкого и среднего уровня и пользовался популярностью как среди OEM-производителей ПК, так и среди пользователей. GeForce 2 Ultra была моделью высшего класса в этой серии.

серия GeForce 3

Выпущенная в феврале 2001 года GeForce3 (NV20) представила программируемые вершинные и пиксельные шейдеры для семейства GeForce и графических ускорителей потребительского уровня. Он имел хорошую общую производительность и поддержку шейдеров, что сделало его популярным среди энтузиастов, хотя он никогда не достигал среднего ценового уровня. NV2A , разработанный для игровой консоли Microsoft Xbox , является производной от GeForce 3.

серия GeForce 4

Выпущенная в феврале 2002 года высококлассная на тот момент GeForce4 Ti (NV25) по большей части представляла собой усовершенствованную версию GeForce3. Самые большие достижения включали усовершенствования возможностей сглаживания, улучшенный контроллер памяти, второй вершинный шейдер и сокращение размера производственного процесса для увеличения тактовой частоты. Еще один представитель семейства GeForce 4, бюджетный GeForce4 MX, был основан на GeForce2 с добавлением некоторых функций GeForce4 Ti. Он был ориентирован на бюджетный сегмент рынка и не имел пиксельных шейдеров. Большинство этих моделей использовали интерфейс AGP 4×, но некоторые начали переход на AGP 8×.

Серия GeForce FX

Выпущенная в 2003 году видеокарта GeForce FX (NV30) представляла собой огромное изменение в архитектуре по сравнению со своими предшественниками. Графический процессор был разработан не только для поддержки новой спецификации Shader Model 2, но и для хорошей работы со старыми играми. Однако первые модели, такие как GeForce FX 5800 Ultra, страдали от слабой производительности шейдеров с плавающей запятой и чрезмерного нагрева, что требовало печально известных шумных двухслотовых решений для охлаждения. Продукты этой серии имеют номер модели 5000, поскольку это пятое поколение GeForce, хотя Nvidia продавала карты как GeForce FX вместо GeForce 5, чтобы продемонстрировать «рассвет кинематографического рендеринга».

серия GeForce 6

Выпущенная в апреле 2004 года модель GeForce 6 (NV40) добавила поддержку Shader Model 3.0 в семейство GeForce, одновременно исправив слабую производительность шейдеров с плавающей запятой, как у ее предшественницы. Он также реализовал изображение с расширенным динамическим диапазоном и представил возможности SLI (масштабируемый интерфейс связи) и PureVideo (интегрированное частичное аппаратное декодирование MPEG-2, VC-1, Windows Media Video и H.264 и полностью ускоренная постобработка видео).

серия GeForce 7

GeForce седьмого поколения (G70/NV47) была выпущена в июне 2005 года и стала последней серией видеокарт Nvidia, поддерживающей шину AGP . Дизайн представлял собой усовершенствованную версию GeForce 6, основными улучшениями которой были расширенный конвейер и увеличение тактовой частоты. GeForce 7 также предлагает новые режимы сглаживания прозрачности суперсэмплинга и мультисэмплинга прозрачности (TSAA и TMAA). Эти новые режимы сглаживания позже были включены и для серии GeForce 6. GeForce 7950GT оснащен самым производительным графическим процессором с интерфейсом AGP в линейке Nvidia. Эта эпоха положила начало переходу на интерфейс PCI-Express.

128-битный вариант 7800 GTX с 8 ROP, называемый RSX «Синтезатор реальности» , используется в качестве основного графического процессора в Sony PlayStation 3 .

серия GeForce 8

Выпущенный 8 ноября 2006 года GeForce восьмого поколения (первоначально называвшийся G80) был первым графическим процессором, полностью поддерживающим Direct3D  10. Изготовленный по 90-нм техпроцессу и построенный на основе новой микроархитектуры Tesla , он реализовал унифицированную модель шейдеров . Первоначально была выпущена только модель 8800GTX, тогда как вариант GTS был выпущен через несколько месяцев после начала существования линейки продуктов, и потребовалось почти шесть месяцев для интеграции карт среднего и OEM/массового уровня в 8-ю серию. Уменьшение размера кристалла до 65 нм и пересмотр конструкции G80 под кодовым названием G92 были реализованы в 8-й серии с 8800GS, 8800GT и 8800GTS-512, впервые выпущенными 29 октября 2007 года, почти через год после первого G80. выпускать.

Серия GeForce 9 и серия 100

Первый продукт был выпущен 21 февраля 2008 года. [6] Не более чем на четыре месяца старше первоначального выпуска G92, все конструкции 9-й серии представляют собой просто модификации существующих продуктов поздней 8-й серии. В 9800GX2 используются два графических процессора G92, которые использовались в более поздних картах 8800, в конфигурации с двумя печатными платами, но при этом требуется только один слот PCI-Express 16x. 9800GX2 использует две отдельные 256-битные шины памяти, по одной для каждого графического процессора и соответствующие 512 МБ памяти, что в целом соответствует 1 ГБ памяти на карте (хотя конфигурация чипов SLI требует зеркалирования буфера кадров между два чипа, что фактически вдвое снижает производительность памяти в конфигурации 256 бит/512 МБ). Более поздняя модель 9800GTX оснащена одним графическим процессором G92, 256-битной шиной данных и 512 МБ памяти GDDR3. [7]

До релиза не было известно никакой конкретной информации, за исключением того, что официальные лица утверждали, что продукты следующего поколения будут иметь вычислительную мощность около 1 терафлопс, а ядра графического процессора все еще производятся по 65-нм техпроцессу, а также сообщения о том, что Nvidia преуменьшает значение Direct3D  10.1. [8] В марте 2009 года несколько источников сообщили, что Nvidia незаметно запустила новую серию продуктов GeForce, а именно серию GeForce 100, которая состоит из частей 9-й серии с новым брендом. [9] [10] [11] Продукты серии GeForce 100 не были доступны для индивидуальной покупки. [1]

Серия GeForce 200 и серия 300

Основанная на графическом процессоре GT200, состоящем из 1,4 миллиарда транзисторов, под кодовым названием Tesla, серия 200 была запущена 16 июня 2008 года. [12] Следующее поколение серии GeForce развивает схему наименования карт в новом направлении, заменяя номер серии (например, 8800 для карт 8-й серии) с суффиксом GTX или GTS (который раньше шел в конце названий карт, обозначая их «ранг» среди других подобных моделей), а затем добавляя номера моделей, например 260 и 280 после этого. В этой серии используется новое ядро ​​GT200 на кристалле 65 нм . [13] Первыми продуктами были GeForce GTX 260 и более дорогая GeForce GTX 280. [14] GeForce 310 была выпущена 27 ноября 2009 года, что является ребрендингом GeForce 210. [15] [16] Серия 300. Карты представляют собой переименованные графические процессоры, совместимые с DirectX 10.1, из серии 200, которые не были доступны для индивидуальной покупки.

GeForce серии 400 и серии 500

7 апреля 2010 года Nvidia выпустила [17] GeForce GTX 470 и GTX 480, первые карты на базе новой архитектуры Fermi под кодовым названием GF100; это были первые графические процессоры Nvidia, использовавшие 1 ГБ или более памяти GDDR5 . GTX 470 и GTX 480 подверглись резкой критике из-за высокого энергопотребления, высоких температур и очень громкого шума, которые не были сбалансированы предлагаемой производительностью, хотя GTX 480 была самой быстрой картой DirectX 11 на момент своего появления.

В ноябре 2010 года Nvidia выпустила новый флагманский графический процессор на базе усовершенствованной архитектуры GF100 (GF110) под названием GTX 580. Он отличался более высокой производительностью, меньшим энергопотреблением, выделением тепла и шума, чем предыдущий GTX 480. Этот графический процессор получил гораздо лучшие отзывы, чем предыдущий. GTX 480. Позже Nvidia также выпустила GTX 590, в которой на одной карте размещены два графических процессора GF110.

Серия GeForce 600, серия 700 и серия 800M

Asus Nvidia GeForce GTX 650 Ti, видеокарта PCI Express 3.0 ×16

В сентябре 2010 года Nvidia объявила, что преемником микроархитектуры Fermi станет микроархитектура Kepler , производимая по 28-нм техпроцессу TSMC. Ранее с Nvidia был заключен контракт на поставку своих топовых ядер GK110 для использования в суперкомпьютере «Titan» Национальной лаборатории Ок-Ридж , что привело к нехватке ядер GK110. После того, как в начале 2012 года AMD выпустила собственное ежегодное обновление серии Radeon HD 7000, Nvidia начала выпуск серии GeForce 600 в марте 2012 года. Ядро GK104, изначально предназначенное для среднего сегмента линейки, стало флагманским GTX. 680. Он продемонстрировал значительные улучшения в производительности, тепловыделении и энергоэффективности по сравнению с архитектурой Fermi и близко соответствовал флагманской видеокарте AMD Radeon HD 7970. За ним быстро последовали GTX 690 с двумя GK104 и GTX 670, которые имели лишь слегка урезанные характеристики. -понижено ядро ​​GK104 и по производительности он был очень близок к GTX 680.

С GTX Titan Nvidia также выпустила GPU Boost 2.0, который позволит тактовой частоте графического процессора увеличиваться на неопределенный срок до тех пор, пока не будет достигнут установленный пользователем предел температуры без превышения заданной пользователем максимальной скорости вращения вентилятора. Последней версией серии GeForce 600 стала GTX 650 Ti BOOST на базе ядра GK106 в ответ на выпуск AMD Radeon HD 7790. В конце мая 2013 года Nvidia анонсировала серию 700, которая по-прежнему базировалась на архитектуре Kepler, однако в верхней части линейки была карта на базе GK110. GTX 780 представлял собой слегка урезанный Titan, который достиг почти такой же производительности за две трети цены. Он имел ту же усовершенствованную референсную конструкцию кулера, но не имел разблокированных ядер двойной точности и был оснащен 3 ГБ памяти.

В то же время Nvidia анонсировала ShadowPlay , решение для захвата экрана, в котором использовался встроенный кодировщик H.264, встроенный в архитектуру Kepler, о котором Nvidia ранее не раскрывала. Его можно было использовать для записи игрового процесса без карты захвата, с незначительным снижением производительности по сравнению с программными решениями для записи, и он был доступен даже на картах серии GeForce 600 предыдущего поколения. Однако бета-версия программного обеспечения для ShadowPlay несколько раз задерживалась и не будет выпущена до конца октября 2013 года. Через неделю после выпуска GTX 780 Nvidia объявила, что GTX 770 станет ребрендингом GTX 680. За этим последовало Вскоре после этого появилась GTX 760, которая также была основана на ядре GK104 и аналогична GTX 660 Ti. В 2013 году выпуск карт серии 700 больше не планировался, хотя Nvidia анонсировала G-Sync, еще одну особенность архитектуры Kepler, о которой Nvidia не упомянула, которая позволяла графическому процессору динамически управлять частотой обновления мониторов, совместимых с G-Sync, что выпущен в 2014 году для борьбы с разрывами и дрожаниями. Однако в октябре AMD выпустила R9 290X, которая стоила на 100 долларов меньше, чем GTX 780. В ответ Nvidia снизила цену на GTX 780 на 150 долларов и выпустила GTX 780 Ti с полноценным 2880-ядерным процессором GK110. ядро даже более мощное, чем GTX Titan, а также усовершенствования системы подачи питания, которые улучшили разгон и смогли опередить новую версию AMD.

Серия GeForce 800M состоит из частей серии 700M под новым брендом, основанных на архитектуре Kepler, и некоторых деталей более низкого уровня, основанных на новой архитектуре Maxwell.

серия GeForce 900

В марте 2013 года Nvidia объявила, что преемницей Kepler станет микроархитектура Maxwell . Он был выпущен в сентябре 2014 года с чипами серии GM10x, что подчеркивает новые архитектурные улучшения энергоэффективности в OEM-производителях и продукты с низким TDP в настольных GTX 750/750 ti и мобильных GTX 850M/860M. Позже в том же году Nvidia предложила TDP с чипами GM20x для опытных пользователей, полностью отказавшись от серии 800 для настольных ПК, с графическими процессорами серии 900.

Это была последняя серия GeForce, поддерживающая аналоговый видеовыход через DVI-I . Тем не менее, существуют аналоговые адаптеры дисплея, которые способны преобразовывать цифровой порт дисплея , HDMI или DVI-D (цифровой).

серия GeForce 10

В марте 2014 года Nvidia объявила, что преемницей Maxwell станет микроархитектура Pascal ; объявлено 6 мая 2016 г. и выпущено 27 мая 2016 г. Архитектурные улучшения включают следующее: [18] [19]

GeForce 20 серии и 16 серии

В августе 2018 года Nvidia анонсировала преемника Pascal GeForce. Название новой микроархитектуры было объявлено как « Turing » на конференции Siggraph 2018. [25] Эта новая микроархитектура графического процессора предназначена для ускорения поддержки трассировки лучей в реальном времени и искусственного интеллекта. Он оснащен новым блоком трассировки лучей (RT Core), который может выделять процессоры для аппаратной трассировки лучей. Он поддерживает расширение DXR в Microsoft DirectX 12. Nvidia утверждает, что новая архитектура до 6 раз быстрее, чем старая архитектура Pascal. [26] [27] Совершенно новый дизайн ядра Tensor, поскольку Volta представляет ускорение глубокого обучения искусственного интеллекта, которое позволяет использовать DLSS ( Deep Learning Super Sampling ), новую форму сглаживания, которая использует искусственный интеллект для обеспечения более четкого изображения с меньшим воздействием. по производительности. [28] Он также меняет свой целочисленный исполнительный блок, который может выполняться параллельно с трактом данных с плавающей запятой. Также была анонсирована новая унифицированная архитектура кэша, которая удваивает пропускную способность по сравнению с предыдущими поколениями. [29]

Новые графические процессоры были представлены как Quadro RTX 8000, Quadro RTX 6000 и Quadro RTX 5000. Высокопроизводительная Quadro RTX 8000 имеет 4608 ядер CUDA и 576 ядер Tensor с 48 ГБ видеопамяти. [26] Позже во время пресс-конференции Gamescom генеральный директор Nvidia Дженсен Хуанг представил новую серию GeForce RTX с RTX 2080 Ti, 2080 и 2070, которая будет использовать архитектуру Turing. Первые карты Turing должны были поступить потребителям 20 сентября 2018 года. [30] Nvidia анонсировала RTX 2060 6 января 2019 года на выставке CES 2019. [31]

2 июля 2019 года Nvidia анонсировала линейку карт GeForce RTX Super, обновление 20-й серии, включающей версии RTX 2060, 2070 и 2080 с более высокими характеристиками. Выпуск RTX 2070 и 2080 был прекращен.

В феврале 2019 года Nvidia анонсировала серию GeForce 16 . Он основан на той же архитектуре Turing, которая использовалась в серии GeForce 20, но с отключением ядер Tensor ( AI ) и RT ( трассировка лучей ), чтобы обеспечить более доступные графические карты для геймеров, сохраняя при этом более высокую производительность по сравнению с соответствующими картами предыдущей версии. Поколения GeForce.

Как и в случае с обновлением RTX Super, Nvidia 29 октября 2019 года анонсировала карты GTX 1650 Super и 1660 Super, которые заменили их аналоги, не относящиеся к Super.

28 июня 2022 года Nvidia незаметно выпустила карту GTX 1630, предназначенную для геймеров начального уровня.

серия GeForce 30

Nvidia официально объявила на специальном мероприятии GeForce, что преемником серии GeForce 20 станет серия 30, она построена на микроархитектуре Ampere . Специальное мероприятие GeForce состоялось 1 сентября 2020 года и назначило 17 сентября официальной датой выпуска графического процессора RTX 3080, 24 сентября для графического процессора RTX 3090 и 29 октября для графического процессора RTX 3070. [32] [33] Последним выпуском графического процессора стала RTX 3090 Ti. RTX 3090 Ti — это графический процессор Nvidia высшего класса на микроархитектуре Ampere. Он оснащен полностью разблокированным кристаллом GA102, построенным на 8-нм узле Samsung из-за нехватки поставок со стороны TSMC . RTX 3090 Ti имеет 10 752 ядра CUDA, 336 тензорных ядер и блоков текстурного отображения, 112 ROP, 84 ядра RT и 24 гигабайта памяти GDDR6X с 384-битной шиной. [34] По сравнению с RTX 2080 Ti, у 3090 Ti на 6400 ядер CUDA больше. Из-за глобальной нехватки чипов серия 30 вызвала споры среди скальперов, а высокий спрос привел к резкому росту цен на графические процессоры серии 30 и серии AMD RX 6000 .

Серия GeForce 40 (текущий)

20 сентября 2022 года Nvidia анонсировала видеокарты серии GeForce 40. [35] Они вышли как RTX 4090 12 октября 2022 г., RTX 4080 16 ноября 2022 г., RTX 4070 Ti 3 января 2023 г., RTX 4070 13 апреля 2023 г. и RTX 4060 Ti — 24 мая 2023 года и RTX 4060 — в июле этого года. В 2024 году появятся новые модели 40-й серии, такие как RTX 4050. Они построены на архитектуре Ады Лавлейс , с текущими номерами деталей: «AD102», «AD103», «AD104», «AD106» и «AD107». Эти детали производятся с использованием технологического узла TSMC N4, специально разработанного для Nvidia. RTX 4090 в настоящее время является самым быстрым чипом для массового рынка, выпущенным крупной компанией, состоящим примерно из 16 384 ядер CUDA , тактовой частотой 2,2/2,5 ГГц, 24 ГБ GDDR6X , 384-битной шиной памяти, 128 3-й памяти. ядра RT , 512 ядер Tensor 4-го поколения , DLSS 3.0 и TDP 450 Вт. [36]

Варианты

Мобильные графические процессоры

Nvidia GeForce Go 7600, встроенная в материнскую плату ноутбука [37]

Начиная с серии GeForce 2, Nvidia выпустила ряд графических чипсетов для ноутбуков под брендом GeForce Go . Большинство функций, присутствующих в настольных аналогах, присутствуют и в мобильных. Эти графические процессоры обычно оптимизированы для более низкого энергопотребления и меньшего тепловыделения, чтобы их можно было использовать в ноутбуках и небольших настольных компьютерах.

Начиная с серии GeForce 8, бренд GeForce Go был прекращен, а мобильные графические процессоры были интегрированы с основной линейкой графических процессоров GeForce, но к их названию добавлялась буква M . Это закончилось в 2016 году выпуском серии GeForce 10 для ноутбуков – Nvidia отказалась от суффикса M , решив унифицировать брендинг своих графических процессоров для настольных компьютеров и ноутбуков, поскольку графические процессоры Pascal для ноутбуков почти так же мощны, как и их аналоги для настольных компьютеров (что Nvidia протестировала с помощью их ноутбук «настольного класса» с графическим процессором GTX 980 еще в 2015 году). [38]

Бренд GeForce MX , ранее использовавшийся Nvidia для своих настольных графических процессоров начального уровня, был возрожден в 2017 году с выпуском GeForce MX150 для ноутбуков. [39] MX150 основан на том же графическом процессоре Pascal GP108, который используется в настольном GT 1030, [40] и был незаметно выпущен в июне 2017 года. [39]

Графические процессоры малого форм-фактора

Подобно мобильным графическим процессорам, Nvidia также выпустила несколько графических процессоров в формате «малого форм-фактора» для использования в настольных компьютерах «все в одном». Эти графические процессоры имеют суффикс S , аналогичный букве M , используемой в мобильных продуктах. [41]

Встроенные графические процессоры материнской платы настольного компьютера

Начиная с nForce 4 , Nvidia начала включать встроенные графические решения в свои чипсеты материнских плат. Эти встроенные графические решения назывались mGPU (графические процессоры материнской платы). [42] Nvidia прекратила выпуск линейки nForce, включая эти mGPU, в 2009 году. [43]

После того, как линейка nForce была снята с производства, в 2009 году Nvidia выпустила линейку Ion , которая состояла из процессора Intel Atom в сочетании с недорогим графическим процессором серии GeForce 9, закрепленным на материнской плате. В 2010 году Nvidia выпустила обновленную версию Ion 2 , на этот раз содержащую графический процессор младшего класса GeForce 300.

Номенклатура

Начиная с серии GeForce 4 и заканчивая серией GeForce 9, используется приведенная ниже схема именования.

С момента выпуска графических процессоров серии GeForce 100 компания Nvidia изменила схему наименования своих продуктов на приведенную ниже. [1]

  1. ^ Суффиксы указывают уровень производительности, они перечислены в порядке от самого слабого к самому мощному. Суффиксы из меньших категорий по-прежнему можно использовать на картах с более высокой производительностью, например: GeForce 8800 GT.
  2. ^ ab Диапазон цен применяется только к самому последнему поколению и представляет собой обобщение, основанное на моделях ценообразования.
  3. ^ ab Количество шейдеров сравнивает количество конвейеров или модулей шейдеров в этом конкретном диапазоне моделей с самой высокой возможной моделью в поколении.

Драйверы графических устройств

Официальная собственность

Nvidia разрабатывает и публикует драйверы GeForce для Windows 10 x86 / x86-64 и более поздних версий, Linux x86/x86-64/ ARMv7-A , OS X 10.5 и более поздних версий, Solaris x86/x86-64 и FreeBSD x86/x86-64. [45] Текущую версию можно загрузить с сайта Nvidia, и большинство дистрибутивов Linux содержат ее в собственных репозиториях. Драйвер Nvidia GeForce 340.24 от 8 июля 2014 г. поддерживает интерфейс EGL , обеспечивающий поддержку Wayland в сочетании с этим драйвером. [46] [47] Это может быть по-другому для бренда Nvidia Quadro , который основан на идентичном оборудовании, но имеет драйверы графических устройств, сертифицированные OpenGL. В тот же день, когда графический API Vulkan был публично выпущен, Nvidia выпустила драйверы, которые полностью его поддерживали. [48] ​​Nvidia выпускает драйверы с оптимизацией для конкретных видеоигр одновременно с их выпуском с 2014 года, выпустив в апреле 2022 года 150 драйверов, поддерживающих 400 игр. [49]

Базовая поддержка интерфейса настройки режима DRM в виде нового модуля ядра nvidia-modeset.koдоступна начиная с бета-версии 358.09. [50] Поддержка контроллера дисплея Nvidia на поддерживаемых графических процессорах централизована в nvidia-modeset.ko. Традиционные взаимодействия с дисплеем (наборы мод X11, OpenGL SwapBuffers, презентация VDPAU, SLI, стерео, Framelock, G-Sync и т. д.) инициируются из различных компонентов драйвера пользовательского режима и передаются в nvidia-modeset.ko. [51]

В мае 2022 года Nvidia объявила, что выпустит драйвер с частично открытым исходным кодом для архитектуры Turing (с поддержкой GSP) и новее, чтобы расширить возможности его упаковки как часть дистрибутивов Linux. На момент запуска Nvidia считала, что драйвер имеет альфа-качество для потребительских графических процессоров и готов к производству для графических процессоров центров обработки данных. В настоящее время компоненты пользовательского пространства драйвера (включая OpenGL, Vulkan и CUDA) остаются проприетарными. Кроме того, компоненты драйвера с открытым исходным кодом представляют собой всего лишь оболочку (CPU-RM [a] ) для прошивки системного процессора графического процессора (GSP), двоичный объект RISC-V , который теперь необходим для запуска драйвера с открытым исходным кодом. . [52] [53] Системный процессор графического процессора представляет собой сопроцессор RISC-V под кодовым названием «Falcon», который используется для разгрузки задач инициализации и управления графическим процессором. Сам драйвер по-прежнему разделен на часть центрального процессора (CPU-RM [a] ) и часть GSP (GSP-RM [a] ). [54] Собственные драйверы для Windows 11 и Linux также поддерживают включение GSP и ускоряют даже игры. [55] [56] CUDA поддерживает GSP начиная с версии 11.6. [57] Будущее ядро ​​Linux 6.7 будет поддерживать GSP в Nouveau . [58] [59]

Сторонние бесплатные и с открытым исходным кодом

Созданные сообществом бесплатные драйверы с открытым исходным кодом существуют в качестве альтернативы драйверам, выпущенным Nvidia. Драйверы с открытым исходным кодом разрабатываются в основном для Linux, однако могут быть портированы и на другие операционные системы. Наиболее известным альтернативным драйвером является реверс-инжиниринг бесплатного драйвера графического устройства Nouveau с открытым исходным кодом . Nvidia публично заявила, что не предоставляет никакой поддержки таких дополнительных драйверов устройств для своих продуктов, [60] хотя Nvidia внесла свой код в драйвер Nouveau. [61]

Бесплатные драйверы с открытым исходным кодом поддерживают большую часть (но не все) функций, доступных в картах GeForce. Например, по состоянию на январь 2014 года драйвер nouveau не поддерживает настройку тактовой частоты графического процессора и памяти, а также соответствующее динамическое управление питанием. [62] Кроме того, в различных тестах проприетарные драйверы Nvidia стабильно работают лучше, чем nouveau. [63] Однако по состоянию на август 2014 года и в версии 3.16 основной ветки ядра Linux вклад Nvidia позволил реализовать частичную поддержку регулировки тактовой частоты графического процессора и памяти. [ нужна цитата ]

Лицензирование и вопросы конфиденциальности

Лицензия содержит общие условия против обратного проектирования и копирования, а также отказывается от гарантий и ответственности. [64] [ оригинальное исследование? ]

Начиная с 2016 года в лицензии GeFORCE указано, что Nvidia «ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ может получать доступ, собирать неличную информацию о системе Клиента, обновлять и настраивать ее с целью надлежащей оптимизации такой системы для использования с ПРОГРАММНЫМ ОБЕСПЕЧЕНИЕМ». [64] Далее в уведомлении о конфиденциальности говорится: «В настоящее время мы не можем реагировать на сигналы «Не отслеживать», установленные браузером. Мы также разрешаем сторонним рекламным сетям онлайн и компаниям социальных сетей собирать информацию. Мы можем объединять личную информацию, которую мы собираем о вас, с информацией о просмотре и отслеживании, собранной с помощью этих технологий [файлов cookie и маяков]». [65]

Программное обеспечение настраивает систему пользователя для оптимизации ее использования, и в лицензии говорится: «NVIDIA не несет ответственности за любой ущерб или потери такой системы (включая потерю данных или доступа), возникшие в результате или связанные с (a) любыми изменениями в конфигурация, настройки приложения, переменные среды, реестр, драйверы, BIOS или другие атрибуты системы (или любой части такой системы), инициированные посредством ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ». [64]

Опыт GeForce

GeForce Experience — программа, содержащая несколько инструментов, включая Nvidia ShadowPlay . [66]

Из-за серьезной уязвимости безопасности до обновления безопасности от 26 марта 2019 года пользователи GeForce Experience были уязвимы для удаленного выполнения кода , отказа в обслуживании и атак повышения привилегий . [67] При установке новых драйверов GeForce Experience может принудительно перезагрузить систему после 60-секундного обратного отсчета, не оставляя пользователю никакого выбора.

Рекомендации

  1. ^ abc «Видеокарты GeForce». Нвидиа. Архивировано из оригинала 1 июля 2012 года . Проверено 7 июля 2012 г.
  2. ^ https://drops.dagstuhl.com/opus/volltexte/2020/12373/pdf/LIPIcs-ECRTS-2020-10.pdf [ постоянная мертвая ссылка ] Дагштул
  3. ^ «Победители конкурса имен Nvidia» . Нвидия . 1999. Архивировано из оригинала 8 июня 2000 года . Проверено 28 мая 2007 г.
  4. ^ Взято, Femme (17 апреля 1999 г.). Конкурс NVIDIA «Назови этот чип». Твикерс.нет . Архивировано из оригинала 11 марта 2007 года . Проверено 28 мая 2007 г.
  5. ^ «Максимальный выпуск ПК, апрель 2002 г.» (PDF) . Максимум ПК . Future US, Inc., апрель 2002 г., с. 29. Архивировано из оригинала 23 января 2023 года . Проверено 11 октября 2022 г. - через Google Книги.
  6. Брайан Колфилд (7 января 2008 г.). «Стрелять на поражение». Форбс.com . Архивировано из оригинала 24 декабря 2007 года . Проверено 26 декабря 2007 г.
  7. ^ "NVIDIA GeForce 9800 GTX" . Архивировано из оригинала 29 мая 2008 года . Проверено 31 мая 2008 г.
  8. Отчет DailyTech. Архивировано 5 июля 2008 г. на Wayback Machine : Crytek, Microsoft и Nvidia преуменьшают значение Direct3D 10.1, получено 4 декабря 2007 г.
  9. ^ «Nvidia по-тихому выпускает графические процессоры серии GeForce 100» . 6 апреля 2009 г. Архивировано из оригинала 26 марта 2009 г.
  10. ^ «nVidia выпускает карты серии GeForce 100» . 10 марта 2009 г. Архивировано из оригинала 11 июля 2011 г.
  11. ^ «Nvidia по-тихому выпускает графические процессоры серии GeForce 100» . 24 марта 2009 г. Архивировано из оригинала 21 мая 2009 г.
  12. ^ «Обзор видеокарты NVIDIA GeForce GTX 280» . Сравнительные обзоры. 16 июня 2008 года. Архивировано из оригинала 17 июня 2008 года . Проверено 16 июня 2008 г.
  13. ^ «GeForce GTX 280 выйдет 18 июня» . Фудзилла.com. Архивировано из оригинала 17 мая 2008 года . Проверено 18 мая 2008 г.
  14. ^ «Подробные изображения GeForce GTX 280» . VR-зона. 3 июня 2008 года. Архивировано из оригинала 4 июня 2008 года . Проверено 3 июня 2008 г.
  15. ^ «– Новости :: NVIDIA запускает серию GeForce 300 с GeForce 310: Страница – 1/1». Hexus.net. 27 ноября 2009 года. Архивировано из оригинала 28 сентября 2011 года . Проверено 30 июня 2013 г.
  16. ^ «Каждому компьютеру нужна хорошая графика» . Нвидиа. Архивировано из оригинала 13 февраля 2012 года . Проверено 30 июня 2013 г.
  17. ^ «Обновление: серия NVIDIA GeForce GTX 400 появится раньше - AnandTech :: Ваш источник анализа оборудования и новостей» . Anandtech.com. Архивировано из оригинала 23 мая 2013 года . Проверено 30 июня 2013 г.
  18. Гупта, Сумит (21 марта 2014 г.). «NVIDIA обновляет дорожную карту графических процессоров; объявляет о выпуске Pascal». Блоги.nvidia.com. Архивировано из оригинала 25 марта 2014 года . Проверено 25 марта 2014 г.
  19. ^ "Параллельный Форалл". Зона разработчиков NVIDIA . Devblogs.nvidia.com. Архивировано из оригинала 26 марта 2014 года . Проверено 25 марта 2014 г.
  20. ^ "СЕРИЯ GEFORCE GTX 10" . www.geforce.com . Архивировано из оригинала 28 ноября 2016 года . Проверено 24 апреля 2018 г.
  21. ^ «nside Pascal: новейшая вычислительная платформа NVIDIA» . 5 апреля 2016 г. Архивировано из оригинала 7 мая 2017 г.
  22. Денис Фоули (25 марта 2014 г.). «NVLink, Pascal и многоуровневая память: удовлетворение аппетита к большим данным». nvidia.com . Архивировано из оригинала 20 июля 2014 года . Проверено 7 июля 2014 г.
  23. ^ «Архитектура графического процессора Pascal следующего поколения от NVIDIA, обеспечивающая десятикратное ускорение приложений глубокого обучения» . Официальный блог NVIDIA . Архивировано из оригинала 2 апреля 2015 года . Проверено 23 марта 2015 г.
  24. Смит, Райан (17 марта 2015 г.). «Обзор NVIDIA GeForce GTX Titan X». АнандТех . п. 2. Архивировано из оригинала 5 мая 2016 года . Проверено 22 апреля 2016 г. ...милый родной коэффициент FP64 всего 1/32
  25. ^ «NVIDIA представляет архитектуру графических процессоров Turing следующего поколения: NVIDIA удваивает ставку на трассировку лучей, GDDR6 и многое другое» . Анандтех . 13 августа 2018 года. Архивировано из оригинала 24 апреля 2020 года . Проверено 13 августа 2018 г.
  26. ^ ab «Графические процессоры NVIDIA на базе процессоров Turing — первые в мире, созданные для трассировки лучей». Engadget . Архивировано из оригинала 14 августа 2018 года . Проверено 14 августа 2018 г.
  27. ^ «Видеокарты серии NVIDIA GeForce RTX 20» . NVIDIA . Архивировано из оригинала 3 августа 2017 года . Проверено 12 февраля 2019 г.
  28. ^ «Суперсэмплинг глубокого обучения NVIDIA (DLSS), показанный прессе» . www.legitreviews.com . 22 августа 2018 года. Архивировано из оригинала 14 сентября 2018 года . Проверено 14 сентября 2018 г.
  29. ^ «NVIDIA официально анонсирует архитектуру графического процессора Turing на SIGGRAPH 2018» . www.pcper.com . Перспектива ПК. 13 августа 2018 года. Архивировано из оригинала 14 августа 2018 года . Проверено 14 августа 2018 г.
  30. ^ Отдел новостей, NVIDIA. «10 лет в разработке: NVIDIA предлагает геймерам трассировку лучей в реальном времени с помощью GeForce RTX». Отдел новостей NVIDIA Архивировано из оригинала 12 декабря 2018 года . Проверено 6 февраля 2019 г.
  31. ^ Отдел новостей, NVIDIA. «NVIDIA GeForce RTX 2060 уже здесь: взлет игр нового поколения» . Отдел новостей NVIDIA Архивировано из оригинала 19 января 2019 года . Проверено 6 февраля 2019 г.
  32. ^ «NVIDIA обеспечивает величайший скачок поколений с графическими процессорами серии GeForce RTX 30» . Архивировано из оригинала 13 января 2021 года . Проверено 3 сентября 2020 г.
  33. ^ «Присоединяйтесь к нам на NVIDIA GeForce RTX: игра на специальной трансляции» . Архивировано из оригинала 2 сентября 2020 года . Проверено 16 августа 2020 г.
  34. ^ «Характеристики NVIDIA GeForce RTX 3090 Ti» . TechPowerUp . Архивировано из оригинала 23 января 2023 года . Проверено 12 мая 2022 г.
  35. Бернс, Эндрю (20 сентября 2022 г.). «Новости NVIDIA GeForce». NVIDIA . Архивировано из оригинала 20 сентября 2022 года . Проверено 20 сентября 2022 г.
  36. ^ «Видеокарты NVIDIA GeForce RTX 4090» . NVIDIA . Проверено 7 ноября 2023 г.
  37. ^ Хинум, Клаус. «НВИДИА GeForce Go 7800». Проверка ноутбука . Архивировано из оригинала 27 мая 2022 года . Проверено 4 мая 2022 г.
  38. ^ «Ноутбуки GeForce GTX 10-й серии» . Архивировано из оригинала 21 октября 2016 года . Проверено 23 октября 2016 г.
  39. ^ аб Хагедорн, Гильберт (26 мая 2017 г.). «NVIDIA выпускает GeForce MX150 для ноутбуков» . Гуру3D . Архивировано из оригинала 29 июня 2017 года . Проверено 2 июля 2017 г.
  40. Смит, Райан (26 мая 2017 г.). «NVIDIA анонсирует GeForce MX150: Pascal начального уровня для ноутбуков, как раз вовремя для Computex». АнандТех . Архивировано из оригинала 3 июля 2017 года . Проверено 2 июля 2017 г.
  41. ^ «Малый форм-фактор NVIDIA». Нвидиа. Архивировано из оригинала 22 января 2014 года . Проверено 3 февраля 2014 г.
  42. ^ «Графические процессоры материнских плат NVIDIA» . Нвидиа. Архивировано из оригинала 3 октября 2009 года . Проверено 22 марта 2010 г.
  43. Кингсли-Хьюз, Адриан (7 октября 2009 г.). «Конец линейки чипсетов NVIDIA, и это официально». ЗДНет . Архивировано из оригинала 23 марта 2019 года . Проверено 27 января 2021 г.
  44. ^ «NVIDIA GeForce GTX 1630 выйдет 31 мая с 512 ядрами CUDA и 4 ГБ GDDR6» . 19 мая 2022 года. Архивировано из оригинала 19 мая 2022 года . Проверено 19 мая 2022 г.
  45. ^ «Поддержка ОС для графических процессоров GeForce» . Нвидия . Архивировано из оригинала 3 июня 2021 года . Проверено 25 августа 2017 г.
  46. ^ «Поддержка EGL» . 8 июля 2014. Архивировано из оригинала 11 июля 2014 года . Проверено 8 июля 2014 г.
  47. ^ «Список файлов lib32-nvidia-utils 340.24-1» . 15 июля 2014 г. Архивировано из оригинала 16 июля 2014 г.
  48. ^ «Nvidia: поддержка Vulkan в драйвере Windows версии 356.39 и драйвере Linux версии 355.00.26» . 16 февраля 2016 г. Архивировано из оригинала 8 апреля 2016 г.
  49. Мейсон, Дэмиен (27 апреля 2022 г.). «Драйверы графических процессоров Nvidia лучше, чем AMD и Intel, — говорит Nvidia». PCGamesN . Архивировано из оригинала 26 октября 2022 года . Проверено 26 октября 2022 г.
  50. ^ «Драйвер Linux, Solaris и FreeBSD 358.09 (бета)» . 10 декабря 2015 г. Архивировано из оригинала 25 июня 2016 г.
  51. ^ «Выпуск NVIDIA 364.12: Vulkan, GLVND, DRM KMS и EGLStreams» . 21 марта 2016 г. Архивировано из оригинала 13 июня 2016 г.
  52. Каннингем, Эндрю (12 мая 2022 г.). «Nvidia делает первый шаг к драйверам графического процессора Linux с открытым исходным кодом». Арс Техника . Архивировано из оригинала 31 мая 2022 года . Проверено 31 мая 2022 г.
  53. Корриган, Хоуп (17 мая 2022 г.). «Перед выпуском драйверов Linux с открытым исходным кодом компания Nvidia перенесла большую часть кода в прошивку». ПК-геймер . Архивировано из оригинала 31 мая 2022 года . Проверено 31 мая 2022 г.
  54. ^ «kernel/git/firmware/linux-firmware.git — репозиторий объектов прошивки для использования с ядром Linux». git.kernel.org . Проверено 23 ноября 2023 г.
  55. ^ «CSGO работает плавно в течение пары секунд, затем СИЛЬНО падает, затем возвращается в нормальное состояние, повторите · Проблема № 335 · NVIDIA/open-gpu-kernel-modules». Гитхаб . Проверено 23 ноября 2023 г.
  56. Аарон Клотц (18 января 2022 г.). «Драйвер Nvidia открывает возможности повышения производительности системного процессора графического процессора» . Аппаратное обеспечение Тома . Проверено 23 ноября 2023 г.
  57. ^ «NVIDIA CUDA 11.6 обеспечивает удобный «-arch=native», по умолчанию используется новый режим драйвера «GSP»» . www.phoronix.com . Проверено 23 ноября 2023 г.
  58. ^ «NVIDIA помещает 62 МБ двоичных объектов прошивки GSP в Linux-Firmware.Git» . www.phoronix.com . Проверено 23 ноября 2023 г.
  59. ^ «Драйвер DRM Nouveau Linux добивается прогресса в поддержке NVIDIA GSP» . www.phoronix.com . Проверено 23 ноября 2023 г.
  60. ^ «Ответ Nvidia на недавнюю работу в стиле модерн» . Фороникс . 14 декабря 2009 г. Архивировано из оригинала 7 октября 2016 г.
  61. Ларабель, Майкл (11 июля 2014 г.). «NVIDIA вносит в Nouveau код повторной синхронизации для GK20A» . Фороникс . Архивировано из оригинала 25 июля 2014 года . Проверено 9 сентября 2014 г.
  62. ^ «Nouveau 3.14 получает новое ускорение, но все еще не имеет PM» . Фороникс . 23 января 2014. Архивировано из оригинала 3 июля 2014 года . Проверено 25 июля 2014 г.
  63. ^ «Сравнение Nouveau и собственного драйвера GeForce от Nvidia в Linux» . Фороникс . 28 июля 2014 г. Архивировано из оригинала 16 августа 2016 г.
  64. ^ abc «Лицензия на использование программного обеспечения NVIDIA клиентами». Nvidia.com . Архивировано из оригинала 10 августа 2017 года . Проверено 10 августа 2017 г.
  65. ^ «Политика конфиденциальности NVIDIA/Ваши права на конфиденциальность в Калифорнии» . 15 июня 2016 г. Архивировано из оригинала 25 февраля 2017 г.
  66. Майнор, Иордания (23 октября 2020 г.). «Обзор опыта NVIDIA GeForce». ПКМАГ . Архивировано из оригинала 26 октября 2022 года . Проверено 26 октября 2022 г.
  67. ^ «Nvidia исправляет ошибку безопасности GeForce Experience» . Аппаратное обеспечение Тома . 27 марта 2019 года . Проверено 25 июля 2019 г.
  1. ^ abc RM означает менеджер ресурсов.

Внешние ссылки