GeForce — это торговая марка графических процессоров (GPU), разработанная Nvidia и продаваемая для рынка производительности. Что касается серии GeForce 40 , было восемнадцать итераций дизайна. Первыми продуктами GeForce были дискретные графические процессоры, предназначенные для дополнительных графических плат и предназначенные для высокорентабельного игрового рынка ПК, а последующая диверсификация линейки продуктов охватила все уровни рынка графики для ПК, начиная от недорогих [1] графических процессоров . интегрированы в материнские платы, а также в распространенные дополнительные платы для розничной торговли. Совсем недавно технология GeForce была представлена в линейке процессоров встроенных приложений Nvidia, предназначенных для электронных карманных компьютеров и мобильных телефонов.
Что касается дискретных графических процессоров, используемых во встраиваемых графических платах, графические процессоры Nvidia GeForce и AMD Radeon являются единственными оставшимися конкурентами на рынке high-end . Графические процессоры GeForce доминируют на рынке графических процессоров общего назначения (GPGPU) благодаря своей собственной унифицированной архитектуре вычислительных устройств (CUDA). [2] Ожидается, что GPGPU расширит функциональность графического процессора за пределы традиционной растеризации 3D-графики и превратит его в высокопроизводительное вычислительное устройство, способное выполнять произвольный программный код так же, как это делает центральный процессор, но с разными преимуществами (высокопараллельное выполнение). простых вычислений) и недостатки (худшая производительность для сложного кода ветвления ).
Название «GeForce» возникло в результате конкурса «Назови этот чип», проведенного Nvidia в начале 1999 года. Компания призвала общественность назвать преемника линейки графических плат RIVA TNT2 . Было подано более 12 000 заявок, и 7 победителей получили в награду видеокарту RIVA TNT2 Ultra. [3] [4] Брайан Берк, старший менеджер по связям с общественностью Nvidia, рассказал Maximum PC в 2002 году, что «GeForce» первоначально означало «Geometry Force», поскольку GeForce 256 был первым графическим процессором для персональных компьютеров, который рассчитывал геометрию преобразования и освещения. , разгружая эту функцию от процессора . [5]
Выпущенный в апреле 2000 года первый GeForce2 (NV15) представлял собой еще один высокопроизводительный графический чип. Nvidia перешла на дизайн с двумя процессорами текстур на конвейер (4x2), удвоив скорость заполнения текстур за такт по сравнению с GeForce 256. Позже Nvidia выпустила GeForce2 MX (NV11), который предлагал производительность, аналогичную GeForce 256, но за небольшую цену. . MX имел привлекательную ценность в сегментах рынка низкого и среднего уровня и пользовался популярностью как среди OEM-производителей ПК, так и среди пользователей. GeForce 2 Ultra была моделью высшего класса в этой серии.
Выпущенная в феврале 2001 года GeForce3 (NV20) представила программируемые вершинные и пиксельные шейдеры для семейства GeForce и графических ускорителей потребительского уровня. Он имел хорошую общую производительность и поддержку шейдеров, что сделало его популярным среди энтузиастов, хотя он никогда не достигал среднего ценового уровня. NV2A , разработанный для игровой консоли Microsoft Xbox , является производной от GeForce 3.
Выпущенная в феврале 2002 года высококлассная на тот момент GeForce4 Ti (NV25) по большей части представляла собой усовершенствованную версию GeForce3. Самые большие достижения включали усовершенствования возможностей сглаживания, улучшенный контроллер памяти, второй вершинный шейдер и сокращение размера производственного процесса для увеличения тактовой частоты. Еще один представитель семейства GeForce 4, бюджетный GeForce4 MX, был основан на GeForce2 с добавлением некоторых функций GeForce4 Ti. Он был ориентирован на бюджетный сегмент рынка и не имел пиксельных шейдеров. Большинство этих моделей использовали интерфейс AGP 4×, но некоторые начали переход на AGP 8×.
Выпущенная в 2003 году видеокарта GeForce FX (NV30) представляла собой огромное изменение в архитектуре по сравнению со своими предшественниками. Графический процессор был разработан не только для поддержки новой спецификации Shader Model 2, но и для хорошей работы со старыми играми. Однако первые модели, такие как GeForce FX 5800 Ultra, страдали от слабой производительности шейдеров с плавающей запятой и чрезмерного нагрева, что требовало печально известных шумных двухслотовых решений для охлаждения. Продукты этой серии имеют номер модели 5000, поскольку это пятое поколение GeForce, хотя Nvidia продавала карты как GeForce FX вместо GeForce 5, чтобы продемонстрировать «рассвет кинематографического рендеринга».
Выпущенная в апреле 2004 года модель GeForce 6 (NV40) добавила поддержку Shader Model 3.0 в семейство GeForce, одновременно исправив слабую производительность шейдеров с плавающей запятой, как у ее предшественницы. Он также реализовал изображение с расширенным динамическим диапазоном и представил возможности SLI (масштабируемый интерфейс связи) и PureVideo (интегрированное частичное аппаратное декодирование MPEG-2, VC-1, Windows Media Video и H.264 и полностью ускоренная постобработка видео).
GeForce седьмого поколения (G70/NV47) была выпущена в июне 2005 года и стала последней серией видеокарт Nvidia, поддерживающей шину AGP . Дизайн представлял собой усовершенствованную версию GeForce 6, основными улучшениями которой были расширенный конвейер и увеличение тактовой частоты. GeForce 7 также предлагает новые режимы сглаживания прозрачности суперсэмплинга и мультисэмплинга прозрачности (TSAA и TMAA). Эти новые режимы сглаживания позже были включены и для серии GeForce 6. GeForce 7950GT оснащен самым производительным графическим процессором с интерфейсом AGP в линейке Nvidia. Эта эпоха положила начало переходу на интерфейс PCI-Express.
128-битный вариант 7800 GTX с 8 ROP, называемый RSX «Синтезатор реальности» , используется в качестве основного графического процессора в Sony PlayStation 3 .
Выпущенный 8 ноября 2006 года GeForce восьмого поколения (первоначально называвшийся G80) был первым графическим процессором, полностью поддерживающим Direct3D 10. Изготовленный по 90-нм техпроцессу и построенный на основе новой микроархитектуры Tesla , он реализовал унифицированную модель шейдеров . Первоначально была выпущена только модель 8800GTX, тогда как вариант GTS был выпущен через несколько месяцев после начала существования линейки продуктов, и потребовалось почти шесть месяцев для интеграции карт среднего и OEM/массового уровня в 8-ю серию. Уменьшение размера кристалла до 65 нм и пересмотр конструкции G80 под кодовым названием G92 были реализованы в 8-й серии с 8800GS, 8800GT и 8800GTS-512, впервые выпущенными 29 октября 2007 года, почти через год после первого G80. выпускать.
Первый продукт был выпущен 21 февраля 2008 года. [6] Не более чем на четыре месяца старше первоначального выпуска G92, все конструкции 9-й серии представляют собой просто модификации существующих продуктов поздней 8-й серии. В 9800GX2 используются два графических процессора G92, которые использовались в более поздних картах 8800, в конфигурации с двумя печатными платами, но при этом требуется только один слот PCI-Express 16x. 9800GX2 использует две отдельные 256-битные шины памяти, по одной для каждого графического процессора и соответствующие 512 МБ памяти, что в целом соответствует 1 ГБ памяти на карте (хотя конфигурация чипов SLI требует зеркалирования буфера кадров между два чипа, что фактически вдвое снижает производительность памяти в конфигурации 256 бит/512 МБ). Более поздняя модель 9800GTX оснащена одним графическим процессором G92, 256-битной шиной данных и 512 МБ памяти GDDR3. [7]
До релиза не было известно никакой конкретной информации, за исключением того, что официальные лица утверждали, что продукты следующего поколения будут иметь вычислительную мощность около 1 терафлопс, а ядра графического процессора все еще производятся по 65-нм техпроцессу, а также сообщения о том, что Nvidia преуменьшает значение Direct3D 10.1. [8] В марте 2009 года несколько источников сообщили, что Nvidia незаметно запустила новую серию продуктов GeForce, а именно серию GeForce 100, которая состоит из частей 9-й серии с новым брендом. [9] [10] [11] Продукты серии GeForce 100 не были доступны для индивидуальной покупки. [1]
Основанная на графическом процессоре GT200, состоящем из 1,4 миллиарда транзисторов, под кодовым названием Tesla, серия 200 была запущена 16 июня 2008 года. [12] Следующее поколение серии GeForce развивает схему наименования карт в новом направлении, заменяя номер серии (например, 8800 для карт 8-й серии) с суффиксом GTX или GTS (который раньше шел в конце названий карт, обозначая их «ранг» среди других подобных моделей), а затем добавляя номера моделей, например 260 и 280 после этого. В этой серии используется новое ядро GT200 на кристалле 65 нм . [13] Первыми продуктами были GeForce GTX 260 и более дорогая GeForce GTX 280. [14] GeForce 310 была выпущена 27 ноября 2009 года, что является ребрендингом GeForce 210. [15] [16] Серия 300. Карты представляют собой переименованные графические процессоры, совместимые с DirectX 10.1, из серии 200, которые не были доступны для индивидуальной покупки.
7 апреля 2010 года Nvidia выпустила [17] GeForce GTX 470 и GTX 480, первые карты на базе новой архитектуры Fermi под кодовым названием GF100; это были первые графические процессоры Nvidia, использовавшие 1 ГБ или более памяти GDDR5 . GTX 470 и GTX 480 подверглись резкой критике из-за высокого энергопотребления, высоких температур и очень громкого шума, которые не были сбалансированы предлагаемой производительностью, хотя GTX 480 была самой быстрой картой DirectX 11 на момент своего появления.
В ноябре 2010 года Nvidia выпустила новый флагманский графический процессор на базе усовершенствованной архитектуры GF100 (GF110) под названием GTX 580. Он отличался более высокой производительностью, меньшим энергопотреблением, выделением тепла и шума, чем предыдущий GTX 480. Этот графический процессор получил гораздо лучшие отзывы, чем предыдущий. GTX 480. Позже Nvidia также выпустила GTX 590, в которой на одной карте размещены два графических процессора GF110.
В сентябре 2010 года Nvidia объявила, что преемником микроархитектуры Fermi станет микроархитектура Kepler , производимая по 28-нм техпроцессу TSMC. Ранее с Nvidia был заключен контракт на поставку своих топовых ядер GK110 для использования в суперкомпьютере «Titan» Национальной лаборатории Ок-Ридж , что привело к нехватке ядер GK110. После того, как в начале 2012 года AMD выпустила собственное ежегодное обновление серии Radeon HD 7000, Nvidia начала выпуск серии GeForce 600 в марте 2012 года. Ядро GK104, изначально предназначенное для среднего сегмента линейки, стало флагманским GTX. 680. Он продемонстрировал значительные улучшения в производительности, тепловыделении и энергоэффективности по сравнению с архитектурой Fermi и близко соответствовал флагманской видеокарте AMD Radeon HD 7970. За ним быстро последовали GTX 690 с двумя GK104 и GTX 670, которые имели лишь слегка урезанные характеристики. -понижено ядро GK104 и по производительности он был очень близок к GTX 680.
С GTX Titan Nvidia также выпустила GPU Boost 2.0, который позволит тактовой частоте графического процессора увеличиваться на неопределенный срок до тех пор, пока не будет достигнут установленный пользователем предел температуры без превышения заданной пользователем максимальной скорости вращения вентилятора. Последней версией серии GeForce 600 стала GTX 650 Ti BOOST на базе ядра GK106 в ответ на выпуск AMD Radeon HD 7790. В конце мая 2013 года Nvidia анонсировала серию 700, которая по-прежнему базировалась на архитектуре Kepler, однако в верхней части линейки была карта на базе GK110. GTX 780 представлял собой слегка урезанный Titan, который достиг почти такой же производительности за две трети цены. Он имел ту же усовершенствованную референсную конструкцию кулера, но не имел разблокированных ядер двойной точности и был оснащен 3 ГБ памяти.
В то же время Nvidia анонсировала ShadowPlay , решение для захвата экрана, в котором использовался встроенный кодировщик H.264, встроенный в архитектуру Kepler, о котором Nvidia ранее не раскрывала. Его можно было использовать для записи игрового процесса без карты захвата, с незначительным снижением производительности по сравнению с программными решениями для записи, и он был доступен даже на картах серии GeForce 600 предыдущего поколения. Однако бета-версия программного обеспечения для ShadowPlay несколько раз задерживалась и не будет выпущена до конца октября 2013 года. Через неделю после выпуска GTX 780 Nvidia объявила, что GTX 770 станет ребрендингом GTX 680. За этим последовало Вскоре после этого появилась GTX 760, которая также была основана на ядре GK104 и аналогична GTX 660 Ti. В 2013 году выпуск карт серии 700 больше не планировался, хотя Nvidia анонсировала G-Sync, еще одну особенность архитектуры Kepler, о которой Nvidia не упомянула, которая позволяла графическому процессору динамически управлять частотой обновления мониторов, совместимых с G-Sync, что выпущен в 2014 году для борьбы с разрывами и дрожаниями. Однако в октябре AMD выпустила R9 290X, которая стоила на 100 долларов меньше, чем GTX 780. В ответ Nvidia снизила цену на GTX 780 на 150 долларов и выпустила GTX 780 Ti с полноценным 2880-ядерным процессором GK110. ядро даже более мощное, чем GTX Titan, а также усовершенствования системы подачи питания, которые улучшили разгон и смогли опередить новую версию AMD.
Серия GeForce 800M состоит из частей серии 700M под новым брендом, основанных на архитектуре Kepler, и некоторых деталей более низкого уровня, основанных на новой архитектуре Maxwell.
В марте 2013 года Nvidia объявила, что преемницей Kepler станет микроархитектура Maxwell . Он был выпущен в сентябре 2014 года с чипами серии GM10x, что подчеркивает новые архитектурные улучшения энергоэффективности в OEM-производителях и продукты с низким TDP в настольных GTX 750/750 ti и мобильных GTX 850M/860M. Позже в том же году Nvidia предложила TDP с чипами GM20x для опытных пользователей, полностью отказавшись от серии 800 для настольных ПК, с графическими процессорами серии 900.
Это была последняя серия GeForce, поддерживающая аналоговый видеовыход через DVI-I . Тем не менее, существуют аналоговые адаптеры дисплея, которые способны преобразовывать цифровой порт дисплея , HDMI или DVI-D (цифровой).
В марте 2014 года Nvidia объявила, что преемницей Maxwell станет микроархитектура Pascal ; объявлено 6 мая 2016 г. и выпущено 27 мая 2016 г. Архитектурные улучшения включают следующее: [18] [19]
В августе 2018 года Nvidia анонсировала преемника Pascal GeForce. Название новой микроархитектуры было объявлено как « Turing » на конференции Siggraph 2018. [25] Эта новая микроархитектура графического процессора предназначена для ускорения поддержки трассировки лучей в реальном времени и искусственного интеллекта. Он оснащен новым блоком трассировки лучей (RT Core), который может выделять процессоры для аппаратной трассировки лучей. Он поддерживает расширение DXR в Microsoft DirectX 12. Nvidia утверждает, что новая архитектура до 6 раз быстрее, чем старая архитектура Pascal. [26] [27] Совершенно новый дизайн ядра Tensor, поскольку Volta представляет ускорение глубокого обучения искусственного интеллекта, которое позволяет использовать DLSS ( Deep Learning Super Sampling ), новую форму сглаживания, которая использует искусственный интеллект для обеспечения более четкого изображения с меньшим воздействием. по производительности. [28] Он также меняет свой целочисленный исполнительный блок, который может выполняться параллельно с трактом данных с плавающей запятой. Также была анонсирована новая унифицированная архитектура кэша, которая удваивает пропускную способность по сравнению с предыдущими поколениями. [29]
Новые графические процессоры были представлены как Quadro RTX 8000, Quadro RTX 6000 и Quadro RTX 5000. Высокопроизводительная Quadro RTX 8000 имеет 4608 ядер CUDA и 576 ядер Tensor с 48 ГБ видеопамяти. [26] Позже во время пресс-конференции Gamescom генеральный директор Nvidia Дженсен Хуанг представил новую серию GeForce RTX с RTX 2080 Ti, 2080 и 2070, которая будет использовать архитектуру Turing. Первые карты Turing должны были поступить потребителям 20 сентября 2018 года. [30] Nvidia анонсировала RTX 2060 6 января 2019 года на выставке CES 2019. [31]
2 июля 2019 года Nvidia анонсировала линейку карт GeForce RTX Super, обновление 20-й серии, включающей версии RTX 2060, 2070 и 2080 с более высокими характеристиками. Выпуск RTX 2070 и 2080 был прекращен.
В феврале 2019 года Nvidia анонсировала серию GeForce 16 . Он основан на той же архитектуре Turing, которая использовалась в серии GeForce 20, но с отключением ядер Tensor ( AI ) и RT ( трассировка лучей ), чтобы обеспечить более доступные графические карты для геймеров, сохраняя при этом более высокую производительность по сравнению с соответствующими картами предыдущей версии. Поколения GeForce.
Как и в случае с обновлением RTX Super, Nvidia 29 октября 2019 года анонсировала карты GTX 1650 Super и 1660 Super, которые заменили их аналоги, не относящиеся к Super.
28 июня 2022 года Nvidia незаметно выпустила карту GTX 1630, предназначенную для геймеров начального уровня.
Nvidia официально объявила на специальном мероприятии GeForce, что преемником серии GeForce 20 станет серия 30, она построена на микроархитектуре Ampere . Специальное мероприятие GeForce состоялось 1 сентября 2020 года и назначило 17 сентября официальной датой выпуска графического процессора RTX 3080, 24 сентября для графического процессора RTX 3090 и 29 октября для графического процессора RTX 3070. [32] [33] Последним выпуском графического процессора стала RTX 3090 Ti. RTX 3090 Ti — это графический процессор Nvidia высшего класса на микроархитектуре Ampere. Он оснащен полностью разблокированным кристаллом GA102, построенным на 8-нм узле Samsung из-за нехватки поставок со стороны TSMC . RTX 3090 Ti имеет 10 752 ядра CUDA, 336 тензорных ядер и блоков текстурного отображения, 112 ROP, 84 ядра RT и 24 гигабайта памяти GDDR6X с 384-битной шиной. [34] По сравнению с RTX 2080 Ti, у 3090 Ti на 6400 ядер CUDA больше. Из-за глобальной нехватки чипов серия 30 вызвала споры среди скальперов, а высокий спрос привел к резкому росту цен на графические процессоры серии 30 и серии AMD RX 6000 .
20 сентября 2022 года Nvidia анонсировала видеокарты серии GeForce 40. [35] Они вышли как RTX 4090 12 октября 2022 г., RTX 4080 16 ноября 2022 г., RTX 4070 Ti 3 января 2023 г., RTX 4070 13 апреля 2023 г. и RTX 4060 Ti — 24 мая 2023 года и RTX 4060 — в июле этого года. В 2024 году появятся новые модели 40-й серии, такие как RTX 4050. Они построены на архитектуре Ады Лавлейс , с текущими номерами деталей: «AD102», «AD103», «AD104», «AD106» и «AD107». Эти детали производятся с использованием технологического узла TSMC N4, специально разработанного для Nvidia. RTX 4090 в настоящее время является самым быстрым чипом для массового рынка, выпущенным крупной компанией, состоящим примерно из 16 384 ядер CUDA , тактовой частотой 2,2/2,5 ГГц, 24 ГБ GDDR6X , 384-битной шиной памяти, 128 3-й памяти. ядра RT , 512 ядер Tensor 4-го поколения , DLSS 3.0 и TDP 450 Вт. [36]
Начиная с серии GeForce 2, Nvidia выпустила ряд графических чипсетов для ноутбуков под брендом GeForce Go . Большинство функций, присутствующих в настольных аналогах, присутствуют и в мобильных. Эти графические процессоры обычно оптимизированы для более низкого энергопотребления и меньшего тепловыделения, чтобы их можно было использовать в ноутбуках и небольших настольных компьютерах.
Начиная с серии GeForce 8, бренд GeForce Go был прекращен, а мобильные графические процессоры были интегрированы с основной линейкой графических процессоров GeForce, но к их названию добавлялась буква M . Это закончилось в 2016 году выпуском серии GeForce 10 для ноутбуков – Nvidia отказалась от суффикса M , решив унифицировать брендинг своих графических процессоров для настольных компьютеров и ноутбуков, поскольку графические процессоры Pascal для ноутбуков почти так же мощны, как и их аналоги для настольных компьютеров (что Nvidia протестировала с помощью их ноутбук «настольного класса» с графическим процессором GTX 980 еще в 2015 году). [38]
Бренд GeForce MX , ранее использовавшийся Nvidia для своих настольных графических процессоров начального уровня, был возрожден в 2017 году с выпуском GeForce MX150 для ноутбуков. [39] MX150 основан на том же графическом процессоре Pascal GP108, который используется в настольном GT 1030, [40] и был незаметно выпущен в июне 2017 года. [39]
Подобно мобильным графическим процессорам, Nvidia также выпустила несколько графических процессоров в формате «малого форм-фактора» для использования в настольных компьютерах «все в одном». Эти графические процессоры имеют суффикс S , аналогичный букве M , используемой в мобильных продуктах. [41]
Начиная с nForce 4 , Nvidia начала включать встроенные графические решения в свои чипсеты материнских плат. Эти встроенные графические решения назывались mGPU (графические процессоры материнской платы). [42] Nvidia прекратила выпуск линейки nForce, включая эти mGPU, в 2009 году. [43]
После того, как линейка nForce была снята с производства, в 2009 году Nvidia выпустила линейку Ion , которая состояла из процессора Intel Atom в сочетании с недорогим графическим процессором серии GeForce 9, закрепленным на материнской плате. В 2010 году Nvidia выпустила обновленную версию Ion 2 , на этот раз содержащую графический процессор младшего класса GeForce 300.
Начиная с серии GeForce 4 и заканчивая серией GeForce 9, используется приведенная ниже схема именования.
С момента выпуска графических процессоров серии GeForce 100 компания Nvidia изменила схему наименования своих продуктов на приведенную ниже. [1]
Nvidia разрабатывает и публикует драйверы GeForce для Windows 10 x86 / x86-64 и более поздних версий, Linux x86/x86-64/ ARMv7-A , OS X 10.5 и более поздних версий, Solaris x86/x86-64 и FreeBSD x86/x86-64. [45] Текущую версию можно загрузить с сайта Nvidia, и большинство дистрибутивов Linux содержат ее в собственных репозиториях. Драйвер Nvidia GeForce 340.24 от 8 июля 2014 г. поддерживает интерфейс EGL , обеспечивающий поддержку Wayland в сочетании с этим драйвером. [46] [47] Это может быть по-другому для бренда Nvidia Quadro , который основан на идентичном оборудовании, но имеет драйверы графических устройств, сертифицированные OpenGL. В тот же день, когда графический API Vulkan был публично выпущен, Nvidia выпустила драйверы, которые полностью его поддерживали. [48] Nvidia выпускает драйверы с оптимизацией для конкретных видеоигр одновременно с их выпуском с 2014 года, выпустив в апреле 2022 года 150 драйверов, поддерживающих 400 игр. [49]
Базовая поддержка интерфейса настройки режима DRM в виде нового модуля ядра nvidia-modeset.ko
доступна начиная с бета-версии 358.09. [50]
Поддержка контроллера дисплея Nvidia на поддерживаемых графических процессорах централизована в nvidia-modeset.ko
. Традиционные взаимодействия с дисплеем (наборы мод X11, OpenGL SwapBuffers, презентация VDPAU, SLI, стерео, Framelock, G-Sync и т. д.) инициируются из различных компонентов драйвера пользовательского режима и передаются в nvidia-modeset.ko
. [51]
В мае 2022 года Nvidia объявила, что выпустит драйвер с частично открытым исходным кодом для архитектуры Turing (с поддержкой GSP) и новее, чтобы расширить возможности его упаковки как часть дистрибутивов Linux. На момент запуска Nvidia считала, что драйвер имеет альфа-качество для потребительских графических процессоров и готов к производству для графических процессоров центров обработки данных. В настоящее время компоненты пользовательского пространства драйвера (включая OpenGL, Vulkan и CUDA) остаются проприетарными. Кроме того, компоненты драйвера с открытым исходным кодом представляют собой всего лишь оболочку (CPU-RM [a] ) для прошивки системного процессора графического процессора (GSP), двоичный объект RISC-V , который теперь необходим для запуска драйвера с открытым исходным кодом. . [52] [53] Системный процессор графического процессора представляет собой сопроцессор RISC-V под кодовым названием «Falcon», который используется для разгрузки задач инициализации и управления графическим процессором. Сам драйвер по-прежнему разделен на часть центрального процессора (CPU-RM [a] ) и часть GSP (GSP-RM [a] ). [54] Собственные драйверы для Windows 11 и Linux также поддерживают включение GSP и ускоряют даже игры. [55] [56] CUDA поддерживает GSP начиная с версии 11.6. [57] Будущее ядро Linux 6.7 будет поддерживать GSP в Nouveau . [58] [59]
Созданные сообществом бесплатные драйверы с открытым исходным кодом существуют в качестве альтернативы драйверам, выпущенным Nvidia. Драйверы с открытым исходным кодом разрабатываются в основном для Linux, однако могут быть портированы и на другие операционные системы. Наиболее известным альтернативным драйвером является реверс-инжиниринг бесплатного драйвера графического устройства Nouveau с открытым исходным кодом . Nvidia публично заявила, что не предоставляет никакой поддержки таких дополнительных драйверов устройств для своих продуктов, [60] хотя Nvidia внесла свой код в драйвер Nouveau. [61]
Бесплатные драйверы с открытым исходным кодом поддерживают большую часть (но не все) функций, доступных в картах GeForce. Например, по состоянию на январь 2014 года [обновлять]драйвер nouveau не поддерживает настройку тактовой частоты графического процессора и памяти, а также соответствующее динамическое управление питанием. [62] Кроме того, в различных тестах проприетарные драйверы Nvidia стабильно работают лучше, чем nouveau. [63] Однако по состоянию на август 2014 года [обновлять]и в версии 3.16 основной ветки ядра Linux вклад Nvidia позволил реализовать частичную поддержку регулировки тактовой частоты графического процессора и памяти. [ нужна цитата ]
Лицензия содержит общие условия против обратного проектирования и копирования, а также отказывается от гарантий и ответственности. [64] [ оригинальное исследование? ]
Начиная с 2016 года в лицензии GeFORCE указано, что Nvidia «ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ может получать доступ, собирать неличную информацию о системе Клиента, обновлять и настраивать ее с целью надлежащей оптимизации такой системы для использования с ПРОГРАММНЫМ ОБЕСПЕЧЕНИЕМ». [64] Далее в уведомлении о конфиденциальности говорится: «В настоящее время мы не можем реагировать на сигналы «Не отслеживать», установленные браузером. Мы также разрешаем сторонним рекламным сетям онлайн и компаниям социальных сетей собирать информацию. Мы можем объединять личную информацию, которую мы собираем о вас, с информацией о просмотре и отслеживании, собранной с помощью этих технологий [файлов cookie и маяков]». [65]
Программное обеспечение настраивает систему пользователя для оптимизации ее использования, и в лицензии говорится: «NVIDIA не несет ответственности за любой ущерб или потери такой системы (включая потерю данных или доступа), возникшие в результате или связанные с (a) любыми изменениями в конфигурация, настройки приложения, переменные среды, реестр, драйверы, BIOS или другие атрибуты системы (или любой части такой системы), инициированные посредством ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ». [64]
GeForce Experience — программа, содержащая несколько инструментов, включая Nvidia ShadowPlay . [66]
Из-за серьезной уязвимости безопасности до обновления безопасности от 26 марта 2019 года пользователи GeForce Experience были уязвимы для удаленного выполнения кода , отказа в обслуживании и атак повышения привилегий . [67] При установке новых драйверов GeForce Experience может принудительно перезагрузить систему после 60-секундного обратного отсчета, не оставляя пользователю никакого выбора.
...милый родной коэффициент FP64 всего 1/32