GeForce — это бренд графических процессоров ( GPU), разработанных Nvidia и продаваемых для рынка производительности. Начиная с серии GeForce 40 , было восемнадцать итераций дизайна. Первые продукты GeForce были дискретными GPU, разработанными для дополнительных графических плат, предназначенных для рынка высокодоходных игровых ПК , а более поздняя диверсификация линейки продуктов охватывала все уровни рынка графики для ПК, начиная от чувствительных к стоимости [1] GPU, интегрированных в материнские платы, до основных дополнительных плат для розничной торговли. Совсем недавно [ когда? ] технология GeForce [ неопределенно ] была введена в линейку встраиваемых прикладных процессоров Nvidia, разработанных для электронных карманных компьютеров и мобильных телефонов.
Что касается дискретных графических процессоров, используемых в дополнительных графических платах, то единственными оставшимися конкурентами на рынке high-end являются GeForce от Nvidia и Radeon от AMD . Графические процессоры GeForce доминируют на рынке универсальных графических процессоров (GPGPU) благодаря своей фирменной архитектуре Compute Unified Device Architecture (CUDA). [2] Ожидается, что GPGPU расширит функциональность GPU за пределы традиционной растеризации 3D-графики, превратив его в высокопроизводительное вычислительное устройство, способное выполнять произвольный программный код так же, как это делает CPU, но с другими сильными сторонами (высокопараллельное выполнение простых вычислений) и слабыми сторонами (худшая производительность для сложного кода ветвления ).
Название «GeForce» произошло от конкурса, проведенного Nvidia в начале 1999 года под названием «Name That Chip». Компания обратилась к общественности с просьбой назвать преемника линейки графических плат RIVA TNT2 . Было получено более 12 000 заявок, и семь победителей получили в качестве награды графическую карту RIVA TNT2 Ultra. [3] [4] Брайан Берк, старший менеджер по связям с общественностью Nvidia, рассказал Maximum PC в 2002 году, что «GeForce» изначально означало «Geometry Force», поскольку GeForce 256 был первым графическим процессором для персональных компьютеров, который вычислял геометрию преобразования и освещения , разгружая эту функцию с центрального процессора . [5]
Выпущенный в марте 2000 года первый GeForce2 (NV15) был еще одним высокопроизводительным графическим чипом. Nvidia перешла на конструкцию с двумя текстурными процессорами на конвейер (4x2), удвоив скорость заполнения текстур за такт по сравнению с GeForce 256. Позже Nvidia выпустила GeForce2 MX (NV11), которая предлагала производительность, схожую с GeForce 256, но за меньшую стоимость. MX был привлекательным предложением в сегментах рынка низкого и среднего уровня и пользовался популярностью как у производителей OEM-ПК, так и у пользователей. GeForce 2 Ultra была высококлассной моделью в этой серии.
Выпущенный в феврале 2001 года GeForce3 (NV20) представил программируемые вершинные и пиксельные шейдеры для семейства GeForce и графических ускорителей потребительского уровня. Он имел хорошую общую производительность и поддержку шейдеров, что сделало его популярным среди энтузиастов, хотя он никогда не достигал средней ценовой категории. NV2A, разработанный для игровой консоли Microsoft Xbox, является производным от GeForce 3.
Выпущенный в феврале 2002 года, тогдашний высококлассный GeForce4 Ti (NV25) был в основном усовершенствованием GeForce3. Самыми большими достижениями были улучшения возможностей сглаживания, улучшенный контроллер памяти, второй вершинный шейдер и уменьшение размера производственного процесса для увеличения тактовой частоты. Другой член семейства GeForce 4, бюджетный GeForce4 MX, был основан на GeForce2 с добавлением некоторых функций из GeForce4 Ti. Он был нацелен на бюджетный сегмент рынка и не имел пиксельных шейдеров. Большинство этих моделей использовали интерфейс AGP 4×, но некоторые начали переход на AGP 8×.
Выпущенный в 2003 году GeForce FX (NV30) представлял собой огромное изменение архитектуры по сравнению со своими предшественниками. Графический процессор был разработан не только для поддержки новой спецификации Shader Model 2, но и для хорошей работы в старых играх. Однако первые модели, такие как GeForce FX 5800 Ultra, страдали от слабой производительности шейдеров с плавающей точкой и чрезмерного нагрева, что требовало печально известных шумных двухслотовых решений для охлаждения. Продукты этой серии имеют номер модели 5000, поскольку это пятое поколение GeForce, хотя Nvidia продавала карты как GeForce FX вместо GeForce 5, чтобы продемонстрировать «зарю кинематографического рендеринга».
Выпущенный в апреле 2004 года GeForce 6 (NV40) добавил поддержку Shader Model 3.0 в семейство GeForce, исправив слабую производительность шейдеров с плавающей точкой своего предшественника. Он также реализовал визуализацию с высоким динамическим диапазоном и представил возможности SLI (Scalable Link Interface) и PureVideo (интегрированное частичное аппаратное декодирование MPEG-2, VC-1, Windows Media Video и H.264 и полностью ускоренную постобработку видео).
Седьмое поколение GeForce (G70/NV47) было выпущено в июне 2005 года и стало последней серией видеокарт Nvidia, которая могла поддерживать шину AGP . Дизайн представлял собой усовершенствованную версию GeForce 6, основными улучшениями которой стали расширенный конвейер и увеличение тактовой частоты. GeForce 7 также предлагает новые режимы прозрачности суперсэмплинга и прозрачности мультисэмплинга сглаживания (TSAA и TMAA). Эти новые режимы сглаживания были позже включены и для серии GeForce 6. GeForce 7950GT отличался самой высокой производительностью GPU с интерфейсом AGP в линейке Nvidia. Эта эпоха начала переход на интерфейс PCI-Express.
Вариант 7800 GTX с восемью блоками вывода (ROP) на 128 бит , называемый RSX Reality Synthesizer , используется в качестве основного графического процессора в Sony PlayStation 3 .
Выпущенный 8 ноября 2006 года, восьмое поколение GeForce (первоначально называвшееся G80) стало первым графическим процессором, полностью поддерживающим Direct3D 10. Изготовленный с использованием 90-нм процесса и построенный на новой микроархитектуре Tesla , он реализовал унифицированную модель шейдеров . Первоначально была выпущена только модель 8800GTX, в то время как вариант GTS был выпущен через несколько месяцев после начала существования линейки продуктов, и потребовалось почти шесть месяцев для интеграции карт среднего и OEM/мейнстримового уровня в серию 8. Уменьшение кристалла до 65 нм и пересмотр дизайна G80 под кодовым названием G92 были реализованы в серии 8 с 8800GS, 8800GT и 8800GTS-512, впервые выпущенными 29 октября 2007 года, почти через год после первоначального выпуска G80.
Первый продукт был выпущен 21 февраля 2008 года. [6] Не прошло и четырех месяцев с момента первоначального выпуска G92, как все проекты 9-й серии представляют собой просто доработки существующих поздних продуктов 8-й серии. 9800GX2 использует два графических процессора G92, которые использовались в более поздних картах 8800, в конфигурации с двумя печатными платами, при этом по-прежнему требуя только один слот PCI-Express 16x. 9800GX2 использует две отдельные 256-битные шины памяти, по одной для каждого графического процессора и соответствующих 512 МБ памяти, что эквивалентно общему объему памяти на карте в 1 ГБ (хотя конфигурация SLI чипов требует зеркалирования буфера кадра между двумя чипами, тем самым фактически вдвое снижая производительность памяти конфигурации 256 бит/512 МБ). Более поздняя модель 9800GTX оснащена одним графическим процессором G92, 256-битной шиной данных и 512 МБ памяти GDDR3. [7]
До релиза не было никакой конкретной информации, за исключением того, что официальные лица утверждали, что продукты следующего поколения имеют вычислительную мощность, близкую к 1 TFLOPS, при этом ядра GPU все еще производятся по 65 нм процессу, и сообщений о том, что Nvidia преуменьшает значимость Direct3D 10.1. [8] В марте 2009 года несколько источников сообщили, что Nvidia тихо запустила новую серию продуктов GeForce, а именно GeForce 100 Series, которая состоит из переименованных частей 9 Series. [9] [10] [11] Продукты серии GeForce 100 не были доступны для индивидуальной покупки. [1]
Основанная на графическом процессоре GT200, состоящем из 1,4 миллиарда транзисторов, под кодовым названием Tesla, серия 200 была запущена 16 июня 2008 года. [12] Следующее поколение серии GeForce выводит схему наименования карт в новом направлении, заменяя номер серии (например, 8800 для карт 8-й серии) суффиксом GTX или GTS (который раньше шел в конце названия карты, обозначая ее «ранг» среди других подобных моделей), а затем добавляя после этого номера модели, такие как 260 и 280. Серия оснащена новым ядром GT200 на 65-нм кристалле. [13] Первыми продуктами были GeForce GTX 260 и более дорогая GeForce GTX 280. [14] GeForce 310 была выпущена 27 ноября 2009 года и является ребрендингом GeForce 210. [15] [16] Карты серии 300 представляют собой переименованные совместимые с DirectX 10.1 графические процессоры серии 200, которые не были доступны для индивидуальной покупки.
7 апреля 2010 года Nvidia выпустила [17] GeForce GTX 470 и GTX 480, первые карты на основе новой архитектуры Fermi , под кодовым названием GF100; они были первыми графическими процессорами Nvidia, которые использовали 1 ГБ или более памяти GDDR5 . GTX 470 и GTX 480 подверглись резкой критике из-за высокого энергопотребления, высоких температур и очень громкого шума, которые не были сбалансированы предлагаемой производительностью, хотя GTX 480 была самой быстрой картой DirectX 11 на момент своего появления.
В ноябре 2010 года Nvidia выпустила новый флагманский графический процессор на основе улучшенной архитектуры GF100 (GF110) под названием GTX 580. Он отличался более высокой производительностью, меньшим энергопотреблением, выделением тепла и шумом, чем предыдущая модель GTX 480. Этот графический процессор получил гораздо лучшие отзывы, чем GTX 480. Позднее Nvidia также выпустила GTX 590, которая объединяет два графических процессора GF110 на одной карте.
В сентябре 2010 года Nvidia объявила, что преемником микроархитектуры Fermi станет микроархитектура Kepler , производимая по технологическому процессу TSMC 28 нм. Ранее Nvidia заключила контракт на поставку своих топовых ядер GK110 для использования в суперкомпьютере «Titan» Национальной лаборатории Оук-Ридж , что привело к нехватке ядер GK110. После того, как AMD выпустила собственное ежегодное обновление в начале 2012 года, серию Radeon HD 7000, Nvidia начала выпуск серии GeForce 600 в марте 2012 года. Ядро GK104, изначально предназначенное для среднего сегмента их линейки, стало флагманской GTX 680. Оно представило значительные улучшения в производительности, тепловыделении и энергоэффективности по сравнению с архитектурой Fermi и близко соответствовало флагманской Radeon HD 7970 от AMD. За ним быстро последовали двухъядерные GK104 GTX 690 и GTX 670, которые имели лишь слегка урезанное ядро GK104 и были очень близки по производительности к GTX 680.
С GTX Titan компания Nvidia также выпустила GPU Boost 2.0, которая позволяла тактовой частоте графического процессора увеличиваться бесконечно, пока не будет достигнут заданный пользователем предел температуры, не превышая заданную пользователем максимальную скорость вращения вентилятора. Последним релизом серии GeForce 600 стала GTX 650 Ti BOOST на основе ядра GK106 в ответ на выпуск AMD Radeon HD 7790. В конце мая 2013 года компания Nvidia анонсировала серию 700, которая по-прежнему основывалась на архитектуре Kepler, однако в ней была карта на базе GK110 во главе линейки. GTX 780 была слегка урезанной версией Titan, которая достигла почти той же производительности за две трети цены. Она имела ту же передовую конструкцию референсного кулера, но не имела разблокированных ядер двойной точности и была оснащена 3 ГБ памяти.
В то же время Nvidia анонсировала ShadowPlay , решение для захвата экрана, которое использовало интегрированный кодер H.264, встроенный в архитектуру Kepler, о котором Nvidia ранее не сообщала. Его можно было использовать для записи игрового процесса без карты захвата и с незначительным снижением производительности по сравнению с программными решениями для записи, и оно было доступно даже на картах серии GeForce 600 предыдущего поколения. Однако бета-версия программного обеспечения для ShadowPlay столкнулась с многочисленными задержками и была выпущена только в конце октября 2013 года. Через неделю после выпуска GTX 780 Nvidia объявила, что GTX 770 станет ребрендингом GTX 680. Вскоре за ним последовала GTX 760, которая также была основана на ядре GK104 и похожа на GTX 660 Ti. В 2013 году больше не планировалось выпускать карты серии 700, хотя Nvidia анонсировала G-Sync, еще одну функцию архитектуры Kepler, о которой Nvidia не упомянула, которая позволяла графическому процессору динамически управлять частотой обновления совместимых с G-Sync мониторов, которые должны были выйти в 2014 году, для борьбы с разрывами и дрожанием. Однако в октябре AMD выпустила R9 290X, которая стоила на 100 долларов меньше, чем GTX 780. В ответ Nvidia снизила цену на GTX 780 на 150 долларов и выпустила GTX 780 Ti, которая имела полноценное ядро GK110 с 2880 ядрами, еще более мощное, чем GTX Titan, а также усовершенствования в системе подачи питания, которые улучшили разгон, и сумела опередить новый релиз AMD.
Серия GeForce 800M состоит из переименованных моделей серии 700M, основанных на архитектуре Kepler, и некоторых более дешевых моделей, основанных на более новой архитектуре Maxwell.
В марте 2013 года Nvidia объявила, что преемником Kepler станет микроархитектура Maxwell . Она была выпущена в сентябре 2014 года с чипами серии GM10x, подчеркивая новые архитектурные улучшения энергоэффективности в OEM , и продукты с низким TDP в настольных GTX 750/750 ti и мобильных GTX 850M/860M. Позже в том же году Nvidia продвинула TDP с чипами GM20x для продвинутых пользователей, полностью пропустив серию 800 для настольных компьютеров, с серией 900 графических процессоров.
Это была последняя серия GeForce, которая поддерживала аналоговый видеовыход через DVI-I . Хотя существуют аналоговые видеоадаптеры, способные преобразовывать цифровой Display Port , HDMI или DVI-D (цифровой).
В марте 2014 года Nvidia объявила, что преемником Maxwell станет микроархитектура Pascal ; анонсировано 6 мая 2016 года, а выпущено несколько недель спустя 27 мая и 10 июня соответственно. Архитектурные улучшения включают следующее: [18] [19]
В августе 2018 года Nvidia анонсировала преемника GeForce для Pascal. Новое название микроархитектуры было раскрыто как « Turing » на конференции Siggraph 2018. [25] Эта новая микроархитектура GPU нацелена на ускорение поддержки трассировки лучей в реальном времени и вывода ИИ. Она оснащена новым блоком трассировки лучей (RT Core), который может выделять процессоры для трассировки лучей на аппаратном уровне. Она поддерживает расширение DXR в Microsoft DirectX 12. Nvidia утверждает, что новая архитектура до 6 раз быстрее старой архитектуры Pascal. [26] [27] Совершенно новая конструкция ядра Tensor с тех пор, как Volta представила ускорение глубокого обучения ИИ, что позволяет использовать DLSS ( Deep Learning Super Sampling ), новую форму сглаживания, которая использует ИИ для обеспечения более четких изображений с меньшим влиянием на производительность. [28] Она также изменяет свой целочисленный исполнительный блок, который может выполняться параллельно с путем данных с плавающей запятой. Также была анонсирована новая унифицированная архитектура кэша, которая удваивает свою пропускную способность по сравнению с предыдущими поколениями. [29]
Новые графические процессоры были представлены как Quadro RTX 8000, Quadro RTX 6000 и Quadro RTX 5000. Высокопроизводительная Quadro RTX 8000 оснащена 4608 ядрами CUDA и 576 ядрами Tensor с 48 ГБ видеопамяти. [26] Позже во время пресс-конференции Gamescom генеральный директор Nvidia Дженсен Хуанг представил новую серию GeForce RTX с RTX 2080 Ti, 2080 и 2070, которые будут использовать архитектуру Turing. Первые карты Turing должны были быть отправлены потребителям 20 сентября 2018 года. [30] Nvidia анонсировала RTX 2060 6 января 2019 года на выставке CES 2019. [31]
2 июля 2019 года компания Nvidia анонсировала линейку видеокарт GeForce RTX Super — обновление 20-й серии, включающее в себя версии RTX 2060, 2070 и 2080 с более высокими характеристиками. Выпуск RTX 2070 и 2080 был прекращен.
В феврале 2019 года Nvidia анонсировала серию GeForce 16. Она основана на той же архитектуре Turing, что и в серии GeForce 20, но с отключенными ядрами Tensor ( AI ) и RT ( трассировка лучей ), чтобы предоставить геймерам более доступные графические карты, при этом обеспечивая более высокую производительность по сравнению с соответствующими картами предыдущих поколений GeForce.
Как и в случае с обновлением RTX Super, 29 октября 2019 года компания Nvidia анонсировала карты GTX 1650 Super и 1660 Super, которые заменили свои аналоги без линейки Super.
28 июня 2022 года компания Nvidia без лишнего шума выпустила видеокарту GTX 1630, предназначенную для геймеров начального уровня.
Nvidia официально объявила на GeForce Special Event, что преемником GeForce 20-й серии станет 30-я серия, построенная на микроархитектуре Ampere . Представленное GeForce Special Event состоялось 1 сентября 2020 года и установило 17 сентября в качестве официальной даты выпуска RTX 3080 GPU, 24 сентября для RTX 3090 GPU и 29 октября для RTX 3070 GPU. [32] [33] Последним выпуском GPU стал RTX 3090 Ti. RTX 3090 Ti является самым высокопроизводительным GPU Nvidia на микроархитектуре Ampere, он оснащен полностью разблокированным кристаллом GA102, построенным на узле Samsung 8 нм из-за нехватки поставок со стороны TSMC . RTX 3090 Ti имеет 10 752 ядра CUDA, 336 ядер Tensor и блоков отображения текстур, 112 ROP, 84 ядра RT и 24 гигабайта памяти GDDR6X с 384-битной шиной. [34] По сравнению с RTX 2080 Ti, 3090 Ti имеет на 6 400 ядер CUDA больше. Из-за глобального дефицита чипов 30-я серия была спорной, поскольку спекулянты и высокий спрос привели к тому, что цены на GPU для 30-й серии и серии AMD RX 6000 резко возросли .
20 сентября 2022 года компания Nvidia анонсировала видеокарты серии GeForce 40. [35] Они вышли как RTX 4090 12 октября 2022 года, RTX 4080 16 ноября 2022 года, RTX 4070 Ti 3 января 2023 года, RTX 4070 13 апреля 2023 года, RTX 4060 Ti 24 мая 2023 года и RTX 4060 29 июня 2023 года. Еще больше серий 40 должны выйти в 2024-2025 годах, например, RTX 4050. Они построены на архитектуре Ada Lovelace , с текущими номерами деталей «AD102», «AD103», «AD104», «AD106» и «AD107». Эти детали производятся с использованием узла процесса TSMC N4, который является специально разработанным процессом для Nvidia. RTX 4090 в настоящее время является самым быстрым чипом для массового рынка, выпущенным крупной компанией, состоящим из около 16 384 ядер CUDA , тактовой частоты 2,2/2,5 ГГц, 24 ГБ GDDR6X , 384-битной шины памяти, 128 ядер RT 3-го поколения , 512 ядер Tensor 4-го поколения , DLSS 3.0 и TDP 450 Вт. [36] По состоянию на октябрь 2024 года RTX 4090 был официально снят с производства, что ознаменовало конец двухлетнего производственного цикла, чтобы освободить производственное пространство для будущей серии RTX 50.
Примечательно, что была выпущена версия RTX 4090 только для Китая под названием RTX 4090D (Dragon). RTX 4090D оснащена урезанным кристаллом AD102 с 14592 ядрами CUDA, что меньше 16384 ядер у оригинальной 4090. Это было в первую очередь связано с тем, что Министерство торговли США начало вводить ограничения на экспорт Nvidia RTX 4090 в некоторые страны в 2023 году. Это было направлено в основном на Китай в попытке остановить его разработку ИИ.
В серии 40 компания Nvidia повторно выпустила вариант видеокарт «Super», невиданный с серии 20, а также стала первым поколением в линейке Nvidia, объединившим бренды «Super» и «Ti». Это началось с выпуска RTX 4070 Super 17 января 2024 года, за которым последовали RTX 4070 Ti Super 24 января 2024 года и RTX 4080 Super 31 января 2024 года.
Начиная с серии GeForce 2, Nvidia выпустила ряд графических чипсетов для ноутбуков под брендом GeForce Go . Большинство функций, присутствующих в настольных аналогах, присутствуют и в мобильных. Эти графические процессоры, как правило, оптимизированы для более низкого энергопотребления и меньшего тепловыделения, чтобы их можно было использовать в ноутбуках и небольших настольных компьютерах.
Начиная с серии GeForce 8, бренд GeForce Go был прекращен, и мобильные графические процессоры были интегрированы с основной линейкой графических процессоров GeForce, но их название имело суффикс M. Это закончилось в 2016 году с выпуском серии ноутбуков GeForce 10 — Nvidia отказалась от суффикса M , решив унифицировать брендинг между своими предложениями графических процессоров для настольных компьютеров и ноутбуков, поскольку графические процессоры Pascal для ноутбуков почти так же мощны, как и их аналоги для настольных компьютеров (что Nvidia протестировала с помощью своего графического процессора GTX 980 для ноутбуков «класса настольных компьютеров» еще в 2015 году). [37]
Бренд GeForce MX , ранее использовавшийся Nvidia для своих настольных графических процессоров начального уровня, был возрожден в 2017 году с выпуском GeForce MX150 для ноутбуков. [38] MX150 основан на том же графическом процессоре Pascal GP108, который используется в настольном GT 1030, [39] и был тихо выпущен в июне 2017 года. [38]
Подобно мобильным GPU, Nvidia также выпустила несколько GPU в формате «малого форм-фактора» для использования в настольных компьютерах «все в одном». Эти GPU имеют суффикс S , похожий на M , используемый для мобильных продуктов. [40]
Начиная с nForce 4 , Nvidia начала включать встроенные графические решения в свои чипсеты материнских плат. Они назывались mGPU (motherboard GPUs). [41] Nvidia прекратила выпуск линейки nForce, включая эти mGPU, в 2009 году. [42]
После прекращения выпуска линейки nForce в 2009 году Nvidia выпустила линейку Ion , состоящую из процессора Intel Atom в паре с графическим процессором начального уровня серии GeForce 9, установленным на материнской плате. В 2010 году Nvidia выпустила обновленную версию Ion 2 , на этот раз содержащую графический процессор начального уровня серии GeForce 300.
Начиная с серии GeForce 4 и до серии GeForce 9 используется следующая схема наименования.
С момента выпуска серии графических процессоров GeForce 100 компания Nvidia изменила схему наименования своей продукции на следующую. [1]
Nvidia разрабатывает и публикует драйверы GeForce для Windows 10 x86 / x86-64 и более поздних версий, Linux x86/x86-64/ ARMv7-A , OS X 10.5 и более поздних версий, Solaris x86/x86-64 и FreeBSD x86/x86-64. [44] Текущую версию можно загрузить с Nvidia, и большинство дистрибутивов Linux содержат ее в своих собственных репозиториях. Драйвер Nvidia GeForce 340.24 от 8 июля 2014 года поддерживает интерфейс EGL , что обеспечивает поддержку Wayland в сочетании с этим драйвером. [45] [46] Это может отличаться для бренда Nvidia Quadro , который основан на идентичном оборудовании, но имеет сертифицированные OpenGL драйверы графических устройств. В тот же день, когда графический API Vulkan был публично выпущен, Nvidia выпустила драйверы, которые полностью его поддерживали. [47] Nvidia выпускает драйверы с оптимизацией для определенных видеоигр одновременно с их выпуском с 2014 года, выпустив 150 драйверов, поддерживающих 400 игр в апреле 2022 года. [48]
Базовая поддержка интерфейса настройки режима DRM в виде нового модуля ядра с именем nvidia-modeset.ko
доступна с версии 358.09 beta. [49]
Поддержка контроллера дисплея Nvidia на поддерживаемых графических процессорах централизована в nvidia-modeset.ko
. Традиционные взаимодействия с дисплеем (наборы режимов X11, буферы обмена OpenGL, презентация VDPAU, SLI, стерео, блокировка кадров, G-Sync и т. д.) инициируются различными компонентами драйвера пользовательского режима и переходят в nvidia-modeset.ko
. [50]
В мае 2022 года Nvidia объявила, что выпустит частично открытый исходный код драйвера для архитектуры Turing (с поддержкой GSP) и более новых, чтобы расширить возможности его упаковки в составе дистрибутивов Linux. При запуске Nvidia считала, что драйвер находится в альфа-версии для потребительских графических процессоров и готов к производству для графических процессоров центров обработки данных. В настоящее время компоненты пользовательского пространства драйвера (включая OpenGL, Vulkan и CUDA) остаются проприетарными. Кроме того, открытые исходные коды компонентов драйвера представляют собой только оболочку (CPU-RM [a] ) для прошивки системного процессора GPU (GSP), двоичного двоичного объекта RISC-V , который теперь требуется для запуска драйвера с открытым исходным кодом. [51] [52] Системный процессор GPU представляет собой сопроцессор RISC-V под кодовым названием «Falcon», который используется для разгрузки задач инициализации и управления GPU. Сам драйвер по-прежнему разделен на часть центрального процессора (CPU-RM [a] ) и часть GSP (GSP-RM [a] ). [53] Драйверы Windows 11 и Linux также поддерживают включение GSP и ускоряют даже игры. [54] [55] CUDA поддерживает GSP с версии 11.6. [56] Предстоящее ядро Linux 6.7 будет поддерживать GSP в Nouveau . [57] [58]
Созданные сообществом, бесплатные и открытые драйверы существуют как альтернатива драйверам, выпущенным Nvidia. Драйверы с открытым исходным кодом разрабатываются в первую очередь для Linux, однако могут быть портированы на другие операционные системы. Наиболее известным альтернативным драйвером является реверс-инжиниринговый бесплатный и открытый драйвер графического устройства nouveau . Nvidia публично объявила, что не будет предоставлять никакой поддержки для таких дополнительных драйверов устройств для своих продуктов, [59] хотя Nvidia внесла код в драйвер Nouveau. [60]
Бесплатные и открытые драйверы поддерживают большую часть (но не все) функций, доступных в видеокартах GeForce. Например, по состоянию на январь 2014 года [обновлять]драйвер nouveau не поддерживает корректировки тактовой частоты GPU и памяти, а также связанное с этим динамическое управление питанием. [61] Кроме того, фирменные драйверы Nvidia постоянно работают лучше, чем nouveau в различных тестах. [62] Однако по состоянию на август 2014 года [обновлять]и в версии 3.16 основной ветки ядра Linux вклад Nvidia позволил реализовать частичную поддержку корректировки тактовой частоты GPU и памяти. [ требуется ссылка ]
Лицензия содержит общие положения, запрещающие обратную разработку и копирование, и отказывается от гарантий и ответственности. [63] [ оригинальное исследование? ]
Начиная с 2016 года лицензия GeForce гласит, что Nvidia «ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ может получать доступ, собирать неперсоноидентифицируемую информацию, обновлять и настраивать систему Клиента с целью надлежащей оптимизации такой системы для использования с ПРОГРАММНЫМ ОБЕСПЕЧЕНИЕМ». [63] Далее в уведомлении о конфиденциальности говорится: «В настоящее время мы не можем реагировать на сигналы «Не отслеживать», установленные браузером. Мы также разрешаем сторонним сетям онлайн-рекламы и компаниям социальных сетей собирать информацию... Мы можем объединять личную информацию, которую мы собираем о вас, с информацией о просмотре и отслеживании, собранной этими технологиями [cookie-файлы и маяки]». [64]
Программное обеспечение настраивает систему пользователя для оптимизации ее использования, а в лицензии говорится: «NVIDIA не будет нести ответственности за любой ущерб или потерю такой системы (включая потерю данных или доступа), возникающие в результате или связанные с (a) любыми изменениями конфигурации, настроек приложения, переменных среды, реестра, драйверов, BIOS или других атрибутов системы (или любой части такой системы), инициированными через ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ». [63]
GeForce Experience — это программа, содержащая несколько инструментов, включая Nvidia ShadowPlay . [65]
Из-за серьезной уязвимости безопасности до обновления безопасности от 26 марта 2019 года пользователи GeForce Experience были уязвимы к удаленному выполнению кода , атакам типа «отказ в обслуживании » и повышению привилегий . [66] При установке новых драйверов GeForce Experience может принудительно перезапустить систему после 60-секундного обратного отсчета, не предоставляя пользователю никакого выбора.
12 ноября 2024 года приложение было официально заменено новым приложением Nvidia , выпущенным в версии 1.0.
Приложение Nvidia — это программа, которая призвана заменить как GeForce Experience, так и Панель управления Nvidia. [67] По состоянию на август 2024 года она находится в бета- версии и может быть загружена с веб-сайта Nvidia. 12 ноября 2024 года была выпущена версия 1.0, [68] ознаменовавшая ее стабильный выпуск .
Новые функции включают в себя переработанный пользовательский интерфейс , новый внутриигровой оверлей, поддержку ShadowPlay со 120 кадрами в секунду, а также RTX HDR [69] [70] и RTX Dynamic Vibrance [70] , которые представляют собой игровые фильтры на основе искусственного интеллекта , включающие HDR и увеличивающие насыщенность цвета в любой игре DirectX 9 (и более поздних версиях) или Vulkan соответственно.
Приложение Nvidia также имеет функцию Auto Tuning, которая регулирует тактовую частоту графического процессора на основе регулярных сканирований оборудования для обеспечения оптимальной производительности. [71] По словам Nvidia, эта функция не нанесет никакого ущерба графическому процессору и сохранит его гарантию. [71] Однако она может вызвать проблемы с нестабильностью. [72] Эта функция похожа на опцию GeForce Experience «Включить автоматическую настройку», которая была выпущена в 2021 году, с той разницей, что это была одноразовая функция разгона [73], которая не регулировала тактовую частоту графического процессора на регулярной основе.
...ничтожная собственная скорость FP64 всего 1/32
{{cite web}}
: |last=
имеет общее название ( помощь ){{cite web}}
: |last=
имеет общее название ( помощь )