Новый срач про видевокарты или же ваше мнение о противостоянии 24gb vram vs. dlls+frame generation

Такой вопрос. Решил не ждать 50серию,а обновиться сейчас ибо не верю что карты нового поколения будут стоить соизмеримо с нынешними (+производство 40линейки свернули -> прогрев гоев перед новой серией+создание дефицита=цены х1.5+)

66

Если ты хочешь баловаться с нейросетями - лучше брать Nvidia. Дело даже не в тензорных ядрах (их, емнип, вообще кот наплакал - чисто под апскейл), а в библиотеках, необходимых для работы с ai. Так сложилось, что их тупо не собирают под OpenCL.

Если ты хочешь играть в игрушки - лучше брать Nvidia. Там красивые трассировки, DLSS без потери качества.

Если ты хочешь мониторвать видосики - лучше брать Nvidia. там nvenc кодировщик аппаратный.

Если ты хочешь работать в CAD-программах - лучше брать Nvidia. У них больше fp64 блоков.

Если ты хочешь рендерить сцены GPU рендерами - лучше брать AMD, т.к. можно за копейки взять карту на 24 гига, которая вместит большие сцены (если рендер поддерживает OpenCL).

Если хочешь видяху за копейки - лучше брать Nvidia 30 поколения с какого-нибудь авито. Я и сам так в кокпит взял 3070 за 25к.

Насчёт задержек от фреймгена - честно говоря, лично не знаю. У меня 4090 и Full HD монитор, так что все игры, в которые я играл - выдавали у меня больше 100fps.
Но как говорил мне друг с 3080Ti, использовавший фреймген из FSR - фреймген имеет смысл, только если у тебя 40-50+ fps изначально. Если фпс около 30, то задержки в управлении становится ощутимыми.

Что касается VRAM - 16 гигов сейчас более чем достаточно. И поскольку новых поколений консолей на горизонте не маячит - эта цифра, скорее всего, будет актуальна минимум года на 3 вперёд.

7
5
1
1

После "дллс без потери качества" поржал и скипнул сказочника.

13
3

Есть эмуляция CUDA под названием ROCm - видел про неё статью на Хабре. Пишут, что вполне быстро крутятся нейросетки на Радеонах.

3

"DLSS без потери качества"
В статике на скриншотах или если камеру не двигать. Деревья и рябь на воде с длсс устраивают стробоскопические шоу, аж глазам больно.
Кое-кто заявляет, что длсс делает картинку даже чётче натива. И да, и нет. Если на скриншоте натива чуть, самую писечку повысить контрастность, то разницы вообще никакой. То есть скриншоты у длсс чётче тупо из-за повышения контрастности, а не из-за какого-то ии-додумывания, дорисовки изображения.
ДЛСС без потери качества - это там, где нет воды, деревьев, и прочих таких же мелких тонких обьектов, типа заборов из проволоки.

2

Единственный нормальный ответ, красава

Всегда мучал вопрос, зачем брать 4090 с 1080p монитором. Это как брать ядерный реактор для холодильника. Там же один хрен долбежка в проц и герцовку монитора.

Даже увеличенная память не помогает нейронкам? Под амд тоже что-то есть.