Если ты хочешь баловаться с нейросетями - лучше брать Nvidia. Дело даже не в тензорных ядрах (их, емнип, вообще кот наплакал - чисто под апскейл), а в библиотеках, необходимых для работы с ai. Так сложилось, что их тупо не собирают под OpenCL.
Если ты хочешь играть в игрушки - лучше брать Nvidia. Там красивые трассировки, DLSS без потери качества.
Если ты хочешь мониторвать видосики - лучше брать Nvidia. там nvenc кодировщик аппаратный.
Если ты хочешь работать в CAD-программах - лучше брать Nvidia. У них больше fp64 блоков.
Если ты хочешь рендерить сцены GPU рендерами - лучше брать AMD, т.к. можно за копейки взять карту на 24 гига, которая вместит большие сцены (если рендер поддерживает OpenCL).
Если хочешь видяху за копейки - лучше брать Nvidia 30 поколения с какого-нибудь авито. Я и сам так в кокпит взял 3070 за 25к.
Насчёт задержек от фреймгена - честно говоря, лично не знаю. У меня 4090 и Full HD монитор, так что все игры, в которые я играл - выдавали у меня больше 100fps. Но как говорил мне друг с 3080Ti, использовавший фреймген из FSR - фреймген имеет смысл, только если у тебя 40-50+ fps изначально. Если фпс около 30, то задержки в управлении становится ощутимыми.
Что касается VRAM - 16 гигов сейчас более чем достаточно. И поскольку новых поколений консолей на горизонте не маячит - эта цифра, скорее всего, будет актуальна минимум года на 3 вперёд.
"DLSS без потери качества" В статике на скриншотах или если камеру не двигать. Деревья и рябь на воде с длсс устраивают стробоскопические шоу, аж глазам больно. Кое-кто заявляет, что длсс делает картинку даже чётче натива. И да, и нет. Если на скриншоте натива чуть, самую писечку повысить контрастность, то разницы вообще никакой. То есть скриншоты у длсс чётче тупо из-за повышения контрастности, а не из-за какого-то ии-додумывания, дорисовки изображения. ДЛСС без потери качества - это там, где нет воды, деревьев, и прочих таких же мелких тонких обьектов, типа заборов из проволоки.
Всегда мучал вопрос, зачем брать 4090 с 1080p монитором. Это как брать ядерный реактор для холодильника. Там же один хрен долбежка в проц и герцовку монитора.
Если ты хочешь баловаться с нейросетями - лучше брать Nvidia. Дело даже не в тензорных ядрах (их, емнип, вообще кот наплакал - чисто под апскейл), а в библиотеках, необходимых для работы с ai. Так сложилось, что их тупо не собирают под OpenCL.
Если ты хочешь играть в игрушки - лучше брать Nvidia. Там красивые трассировки, DLSS без потери качества.
Если ты хочешь мониторвать видосики - лучше брать Nvidia. там nvenc кодировщик аппаратный.
Если ты хочешь работать в CAD-программах - лучше брать Nvidia. У них больше fp64 блоков.
Если ты хочешь рендерить сцены GPU рендерами - лучше брать AMD, т.к. можно за копейки взять карту на 24 гига, которая вместит большие сцены (если рендер поддерживает OpenCL).
Если хочешь видяху за копейки - лучше брать Nvidia 30 поколения с какого-нибудь авито. Я и сам так в кокпит взял 3070 за 25к.
Насчёт задержек от фреймгена - честно говоря, лично не знаю. У меня 4090 и Full HD монитор, так что все игры, в которые я играл - выдавали у меня больше 100fps.
Но как говорил мне друг с 3080Ti, использовавший фреймген из FSR - фреймген имеет смысл, только если у тебя 40-50+ fps изначально. Если фпс около 30, то задержки в управлении становится ощутимыми.
Что касается VRAM - 16 гигов сейчас более чем достаточно. И поскольку новых поколений консолей на горизонте не маячит - эта цифра, скорее всего, будет актуальна минимум года на 3 вперёд.
После "дллс без потери качества" поржал и скипнул сказочника.
Есть эмуляция CUDA под названием ROCm - видел про неё статью на Хабре. Пишут, что вполне быстро крутятся нейросетки на Радеонах.
"DLSS без потери качества"
В статике на скриншотах или если камеру не двигать. Деревья и рябь на воде с длсс устраивают стробоскопические шоу, аж глазам больно.
Кое-кто заявляет, что длсс делает картинку даже чётче натива. И да, и нет. Если на скриншоте натива чуть, самую писечку повысить контрастность, то разницы вообще никакой. То есть скриншоты у длсс чётче тупо из-за повышения контрастности, а не из-за какого-то ии-додумывания, дорисовки изображения.
ДЛСС без потери качества - это там, где нет воды, деревьев, и прочих таких же мелких тонких обьектов, типа заборов из проволоки.
Единственный нормальный ответ, красава
Всегда мучал вопрос, зачем брать 4090 с 1080p монитором. Это как брать ядерный реактор для холодильника. Там же один хрен долбежка в проц и герцовку монитора.
Даже увеличенная память не помогает нейронкам? Под амд тоже что-то есть.