Срок годности видеокарты или как Nvidia скручивает драйвера
Компания Nvidia часто обвиняется в том, что понижает производительность видеокарт с помощью драйверов. Иногда этому удается найти доказательства, но чаще всего при перепроверке они оказываются несостоятельными. Здесь я попытаюсь объяснить, каким образом на самом деле замедляют драйвера.
Как эталон, возьмем GTX 1080Ti с теоретической производительностью в 11.3 терафлопс. В конкуренты поставим RTX 2080 с 10 терафлопс. Как мы видим, их производительность практически аналогична и даже с небольшим выигрышем у GTX 1080Ti, что подтверждается независимыми результатами:
В момент выхода RTX 2080 осенью 2018, видеокарта выдавала равное количество кадров в секунду/FPS в сравнении с референсом GTX 1080Ti практически во всех играх:
К началу года спроса на новые Turing нет, старые Pascal уже давно распроданы майнерам. Выручка падает, инвесторы недовольны, капитализация снижается. Нужно что-то делать.
Химичить с производительностью в старых играх опасно и контрпродуктивно - активные граждане могут это заметить, что приведет к различным репутационным потерям, судебным искам от обществ по защите прав потребителей и все недовольные просто откатятся к старым версиям дров.
Но тут выходит наиболее ожидаемая игра года на ПК - Red Dead Redemption 2. Все, что остается сделать - это скрутить потенциал прямых конкурентов текущей линейки Turing, то есть GTX 1060, 1070, 1080 и т.д. Каким образом это достигается? Все просто, грузим в новой игре RTX 2080 на 100%, а GTX 1080Ti на 70-80%. Также делаем и с остальными. Смотрим результат:
Все видеокарты Nvidia прошлого поколения показывают отвратительные результаты. Но почему GTX 1080Ti оказалась даже хуже RTX 2070 Super? Потому что Nvidia выпустила промо, где прямо заявила, что 2070S лучше 1080Ti, которое изучал журналист издания Forbes.
Но ведь пользователи не дураки, плохую оптимизацию дров можно легко заметить через программу MSI Afterburner по уровню загрузки GPU ниже 99%. Однако, нужно знать небольшой нюанс - чем сильнее загружена видеокарта, тем больше электричества она потребляет, тем больше ее температура из-за энергопотребления.
Если в игре 2017 года с ультра настройками графики Total War: Warhammer 2 GTX 1080Ti грелась до 68С при 50% оборотах вентилятора и 99% загрузки чипа:
То уже в игре Quake 2 RTX 2019 года, призванную продемонстрировать всю мощь трассировки лучей, GTX 1080Ti грелась лишь до 64℃ при 35% оборотах вентилятора и выдавала всего 40FPS при разрешении 800x600(фото iPhone X):
Симулировать плохую оптимизацию на самом деле весьма сложно, ведь нужно будет писать лишний код, а это может привести к различным багам и вылетам. Гораздо легче сымитировать 100% загрузку при фактических 70-80%. А от недозагруженной видеокарты уже можно ожидать и невысокое энергопотребление, как и температуру.
Сотрудники Nvidia не раз заявляли, что видеокарты предыдущих линеек оптимизируются хуже, нежели текущая архитектура. Это объясняется простым желанием сократить расходы. Как например, в этом интервью:
Но у графического подразделения AMD бюджет в несколько раз ниже бюджета Nvidia. Тем не менее, с каждым годом некогда паритет между RX 580 и GTX 1060 развеивается все сильнее в пользу красных. И таких случаев действительно множество, что породило мем про карету из Золушки у зеленых, которая превращается в тыкву и гадкого утенка AMD, который вырастает и становится прекрасным лебедем.
Я глубоко сомневаюсь, что качество драйверов красных в течение нескольких лет после выхода видеокарты улучшается. Наоборот, оно даже падает из-за смены приоритетов, но по сравнению с намеренным подлогом Nvidia, результат оказывается просто колоссальным:
Что в таком случае остается делать обычным пользователям? При покупке видеокарт нужно осознавать, что вы покупаете текущую производительность лишь в среднем на два года, до выхода новой линейки. И хотя, официально заявляется, что поддержка видеокарт закачивается через 5-8 лет, как это было с видеокартами архитектуры Fermi, на самом деле видеокарта подвергается запланированному устареванию(planned obsolscence) намного раньше.
И если Apple обосновывала замедление айфонов постепенной деградацией батареи, то Nvidia обвинить невозможно, т.к. в отличие от AMD, она не открывает драйвера даже для устаревших видеокарт, чтобы те могли поддерживаться и изучаться сообществом.
P.S.: Объяснение. Драйвера старых игр остаются без изменений. Драйвера для новых игр умышленно делают такими, чтобы они не использовали видеокарты прошлых линеек на всю мощь. Иначе говоря - вы купили новую Tesla, в первый год вам дают ездить на 300км/час, второй год 280км, третий 250 и т.д.