«Мощнее NVIDIA, если не учитывать трассировку и DLSS», — главное из обзора Radeon RX 6000 от Digital Foundry Статьи редакции
«Железная» редакция Eurogamer провела подробное тестирование видеокарт AMD Radeon RX 6800 и 6800 XT, которые напрямую конкурируют с NVIDIA GeForce RTX 3070 и 3080 соответственно как по производительности, так и по цене. Мы выбрали из их материала главное.
- AMD постаралась над новой системой охлаждения — металлический корпус хорошо рассеивает тепло, а три кулера работают эффективнее и тише, чем турбина в моделях прошлого поколения.
- Все три новинки Radeon, включая ещё не вышедшую RX 6900XT получили одинаковый запас видеопамяти — по 16 ГБ GDDR6. У RTX 3070 памяти вдвое меньше, а у RTX 3080 — 10 ГБ, но значительно более быстрой GDDR6X. В реальных задачах и играх между старшими видеокартами наблюдается паритет, а RTX 3070 отстаёт только в DOOM Eternal с максимальным качеством текстур в 4К.
- В игровых тестах без трассировки лучей и DLSS «базовая» RX 6800 легко обходит RTX 3070 на 5-10% (в зависимости от игры до 20 fps), но и стоит дороже (499 против 579 долларов).
- RX 6800 XT сравнима с RTX 3080 — у неё более высокая частота ядер и более эффективная система обращения к памяти, поэтому в задачах с чистой растеризацией она чаще всего выдаёт такой же или лучший результат, чем у флагмана NVIDIA. Однако в некоторых играх (например, в DOOM Eterrnal и Tomb Raider) Radeon всё же отстаёт почти на 10%.
- Всё меняется, если добавить в уравнение DLSS — в играх с поддержкой технологии у владельцев карт GeForce RTX нет повода не включать её, увеличивая производительность на 30-50%. У Radeon RX своего аналога пока нет.
- В кристалле RDNA2 не предусмотрены ядра для машинного обучения, поэтому будущее решение от AMD скорее всего будет использовать простой темпоральный апскейлинг. Также у RX 6000 и Xbox Series со временем может появиться «умный» суперсемплинг от Microsoft, но разработка этой технологии пока далека от завершения.
- В играх с трассировкой лучей Radeon также отстаёт от Geforce RTX. Мало того, что у RX 6800 и RX 6800 XT нет DLSS, который мог бы сгладить снижение производительности, так ещё и сама трассировка сжирает больше ресурсов, чем у NVIDIA.
- Digital Foundry считает, что в будущем трассировка лучей станет универсальным стандартом для AAA-игр, так как сейчас даже Xbox Series S имеет поддержку этой технологии, что значительно повышает её доступность и распространение среди аудитории.
В обзорах, появившихся ранее, другие рецензенты также отмечали, что для профессиональных задач Radeon RX 6000 также не всегда подходят, так как многие программы для видеомонтажа и 3D-рендеринга оптимизированы для видеокарт NVIDIA с ядрами CUDA, а также задействуют аппаратный кодек NVENC и тензорные ядра.
AMD Radeon 6800 и 6800 ХТ появились в России 19 ноября по рекомендованной розничной цене 53 590 рублей и 59 990 рублей соответственно, однако на момент написания материала в свободной продаже не представлены.
>если не учитывать трассировку и DLSS
Это типа: лучшая машина в мире!
Правда стиральная
Но амд все равно молодцы на самом деле, проявляют себя. Создают конкуренцию для NVIDIA)
Ну они стараются,но сидеть на двух стульях против Интела и Нвидии это все равно ниочем.АМД хооршие производители 10 лет назад стоял у меня от них Атлон проц хороший но по сравнению с аналогоми интела слабый.У АМД тактика дешево,но ненадолго.Тотже I7 4770 у меня сейчас стоит уже 6,5 лет и все еще спокойно тянет в фулхд.Аналогичный АМД я бы уже поменял года 2 назад наверно.Про видеокарты тоже самое.НВидиа надежны и производительны хоть и ценники поболее,но в любом случае конкуренция хорошо
AMD как раз наоборот славится своим FineWine.
Не будь AMD мы бы и дальше сидели на 4 ядерниках. А сейчас условный 6 ядерный 12 поточный Ryzen 1600X купленный 3 года назад спокойно может продержаться спокойно ещё года 3-4, выдавая приемлемую частоту кадров в большинстве игр (с соответствующей видеокартой, разумеется).
только не забудь добавить, что для Ryzen 1600X надо купить правильную память и подкрутить настройки в биос, что бы немного нивелировать его минусы. Это что бы быть обьективными до конца. Я покупал 1600 и прекрасно знаю все его трещинки))
Бескомпромиссные процы у АМД - это 5000 серия, хотя и 3000 отличные вышли.
Ну вообще-то рост производительности от частот оперативной памяти есть и у процессоров Интел, чем выше пропускная способность памяти тем лучше. Только почему-то считается что для AMD обязательно гнать ОЗУ, а для Интел типа не нужно, хотя в обоих случаях выигрыш от разгона памяти есть.
Потому что байка "вставил и все" помноженная на любовь к бич-матери) Т.е. тупо нет возможности гнать, а оттуда выходит байка про "я не знаю, значит не нужно"
Для 1600 даже не разгон в первую очередь нужен))
Походу тут углубляться в вопрос не имеет никакого смысла, тем более статей на эту тему уйма.
1700й берет 3200 с бомжеплашками от крушиал зелеными на 2400 (правда сейчас там 24 гига формулой 4-8-4-8, так что 2800). о каком выборе памяти идет речь, если выше 3200 порой даже дорогие киты не брали кроме B-Die, а выхлоп свыше 3200 был реально 1-2%? охуительные истории такие охуительные) Причем как брал в мае 2017, так и в 2019, когда от него отстали и он ушел на рабочую станцию.
И сколько у тебя латентность была? в твоих
охуительные истории такие охуительные
Думаешь помню, вот только стандартные для хуйникса на 3200 16-18-18-36 позволяют эти плашки юзать на уровне быдло-оверпрайс HyperX кита (3200 те же) какого-нибудь. И зачастую профит от частоты НАМНОГО выше пары нс. Так же было и с FX-8350, которому лучше поднять тайминги и выдать 2133-2400 (при CPU_NB 2600), чем дрочить на нс.
Да у меня у самого 2700X. Тут тоже с памятью не всё шикарно. Я больше апеллировал к тому, что буквально за 3 года мы увидели, как стандартом стало 8 ядер. 4 ядерники это теперь удел бюджетных i3/R3 для офисной машины.
Athlon XP 2500+ бартон был лучший проц того времени, который превращался в 3200+ легким движением руки ;)
На дтф как то веселее и народу гораздо больше. Правда из за этого и неадекватность чаще можно наблюдать)))
твой 1600Х купленный 3 года назад, еле сравнялся с 4790К купленным 7лет назад
Извини меня, но 4790K это сраный флагман, а 1600X бюджетник за 150 баксов.
Да "флагман" того года в лице 1700/1700Х точно такую же эффективность в играх покажет, что и 1600Х. А стоил он даже дороже 7700К/8700К
Ну во-первых во времена 4770 у АМД не было такого топового конкурирующего процессора, была разве что линейка FX, но конкурировала она максимум с i5.
Нынешние райзены 5000 догнали интел и даже перегнали в куче игр, а в рабочих программах амд уже давно первые. Так что не понимаю о чем ты тут рассказываешь
Чойто тогда в большинстве случаев все бенчмарки в играх делают с процессоров интела ? И в большинстве случаев топовые процессоры берут у Интела,а не АМД который больше бюджетный сегмент.АМД используют те кто играет на карточках уровня 1060.Топовые конфигурации чаще делают через Интел-Нвидиа
АМД который больше бюджетный сегмент.
Шутник однако. Забудь, это было давно. Сегодня они конкурируют как по пр-ти, так и по цене.
ну, тут надо понимать ещё, что процессор – это не только "сколько очков тестах он покажет".
у АМД всегда было плохо с сервисом (сейчас получше, но всё равно "средненько"), а у интела наоборот, всегда сервис был на первом месте. есественно, что любому продавцу логичнее собирать большую часть машин на интеле: универсальнее (в плане задач), надёжнее (в плане сервиса), нагляднее (в плане обучения и семинаров).
а когда доля рынка больше, через это и остальное подтягивается.
тут, как раз, "старые" механики ещё работают, отголосок 70-ых ))
Насколько понимаю, брали Интелы, т.к. они в однопоточке рулили из-за своих 4,5-5 ГГц, где у АМД были пониже частоты
Нынешние райзены 5000 догнали интел и даже перегнали в куче игр
Купить 5600Х за 36к вместо 10400F за 14к и получить -2fps прироста. Да, в синтетике там отрыв чуть ли не двухкратный, но в играх нифига. Можно найти примеры, где рязани показывают лучший результат чем интел, но их не много и цена фпс неадекватно высокая получается на фоне нового i5 который давно в продаже.
Это тот проц который тестировали с памятью и материнкой дороже проца?)
10400 не умеет в разгон, а соответственно память с ним на платах на которые он предназначен B и H серия, будет работать на частотах 2666, для того чтобы память работала на больших частотах нужна материнка поддерживающая разгон памяти, то есть Z серии, которые стоят чуть меньше самого проца а иногда и раза в 2 больше, НО большинство обзоров в сети появилось в момент выхода проца, когда в продаже даже небыло B и H серий материнок под 10-е поколение интела, так что большинство тестов делалось на Z серии с разогнанной до 3200 памятью.
Тот же Techpowerup в обзоре чипа указывал результаты которые выдаёт процессор с памятью на частоте 2666 на которой она будет работать на всех платах не Z серии
Ну в общем-то да, очень профитно по фпс брать z чипсет и быструю память, это надо учитывать. И да, не вижу смысла при этом брать 10600к или 10700к. Вроде как по логике z чипсет и к-индекс прямо таки созданы друг для друга, но кроме фапа на циферки в синтетике толку нет. Ну может какие-то рабочие задачи еще. Но в играх по процессору итак оверкилл, особенно для 4к, где сейчас видеокарты на максималках с лучами только 60 кадров готовы выдавать с натягом.
UPD
Как будто под ryzen 5600 не надо брать дорогую мать и быструю память в дополнение к процу за 34к.
Я играю на 1440р 144гц монике, так что мне 150+ фпс вполне актуальны.) Плюс я и работаю на ПК, и 3д и видео редактирование, так что буста мне 5000 амд даёт достаточно, да и можно их на не такую дорогую B плату без компромисов к частотам памяти ставить, хотя кого я обманываю, где нибудь к февралю как доспупность и цены успокоятся скорее всего возьму какие нибудь 5800Х на X570 и запакую 64гб памяти (да мне нужна память, симуляция физики в блендере бывает прожорливой, да и афтеру палец в рот не клади).
Ну работа это да, тут железки себя оправдывают, у самого воткнуто с давних времен 32 гб оперативы под компиляцию и вируталки. А играм до сих пор 8 гб хватает по сути, главное чтобы быстрые были, также и к процу у них подход другой, нежели у профессионального софта.
То чувство, когда второй комп на Атлоне II до сих пор робит, уже 11 лет стукнуло)
При этом еще и гонится с 3 до 3.5ггц (до 3.7, но нужен нормальный охлад, а не боксовый кулерочек)
Кто бы мог подумать, что 4 ядра будут популярны так долго..
Аналогично думаю про М1 процессор, есть минусы, но это первая лошадка, которая вот так сразу на уровне конкурентов
Довольно многие уже либо выпустили бету с поддержкой М1, либо сделают это в ближайшее время 🤷🏻♂️ Так было при переходе с 32 на 64 и тоже было много жалоб, но разработчикам деваться некуда, это ведь Apple
Ну, хз - пока так себе конкуренция: производительность ниже и хоть заявленная цена тоже ниже, но у NVidia розничная цена сильно отличалась от заявленной, так что не факт что в рознице эти карты не будут стоить в районе 70-80 тыс.
dlss мыло в большинстве случаев, трассировка пока под вопросом, тут нужно смотреть по весне все таки что лучше
Прошёл Death Stranding c dlss, мыла не было от слова совсем, даже резче картинка получилась, единственный минус это артефакты, но они не сильно заметны, надеюсь их со временем исправят, а так фича бомба
Честный Слава
в каком разрешение? DLSS в 1440p и 4K очень хорош, но не 1080p где епта 540P картинка
чего? в 1080п алгоритм работы абсолютно такой же как и в 1440п и 4к. Картинка изначально рендерится в более низком разрешении. Я отключал и включал длсс в 1080п, разницы вообще не заметил, только вот буст по фпс хороший при включенном длсс.
У меня RTX 3070, играю на Full HD. Уже прочитал, что DLSS не включается в Full HD, только в 2 и 4К соответственно. Рейтрейсинг то есть RTX стоит на "Ультра". ХЗ можно ли включить DLSS 2.0 на Full HD или нет, но скорее всего нет. НЕТ я не буду утверждать ибо нубас в этом. Только 2 недели назад купил видяху RTX.
в 1080p и прекрасно работает, в том же Death Stranding, есть разные профили dlss, качество и производительность, с профилем 'качество' картинка рендерит в большем разрешении чем с профилем 'производительность', играл с профилем качество и всё выглядело прекрасно
DS простая игра для обработки, тупо ландшафт один, это легко даже обычным апскеилом сделать... А вот когда игра динамичная с кучей частиц вот тут ДЛСС захлебывается, артефакты лезут и мыло
Простая игра для обработки, а обработать все равно может только нвидиа. То-то и оно, что важен конечный результат, а не почему он получился у одних и (пока?) не получился у других.
Всё там нормально. Картинка с DLSS в режиме качества и разрешении 1080р выглядит чётче, чем в 1080р со сглаживанием ТАА.
Только глубину резкости лучше выключить, вот её эффект DLSS действительно мылит ужасно.
мыло было на первой версии, сейчас уже нет. По-моему одна из лучших технологий за n лет от nvidia
dlss 2.0 отличная фича, мыло если ты разглядываешь под 4х кратным увеличением экран
Хз почему минусят. Меня, например, интересует преимущество DLSS.
Проблема в том что у меня монитор 1080п, а DLSS в таком разрешении либо вообще отключено, либо работает криво и выдаёт мыло.
Самые нормальные реализации DLSS применили в Контрол и Дес Стрендинг. В первую я вообще играть не могу, для меня коридоры это худшее что может быть в играх. А в Дес Стрендинг при включении DLSS на 1080п появляются артефакты от частиц, они оставляют за собой след. Это вообще не критично и малозаметно, но как факт.
Так что в данный момент менять свою gtx 1080 на какую-нибудь 3080 не вижу смысла. Хотя вероятно придется от недостатка производительности в будущем.
Ты на своей 1080 в 1080р спокойно еще годик посидишь, если не больше. Пока не начнут выпускать игры на действительно некстген движках, типа УЕ5 ;)
Комментарий удален
Комментарий удален
Комментарий удален
Мне не сложно ответить.
У меня монитор от асус 240гц, стоит уже года 2. Со своей задачей справляется на отлично.
Обновлять его на 1440п 144/240гц это глупо, потому что тратить кучу денег, когда плотность пикселей выше примерно на 30%. Будем честны, этого все еще мало для супер четкой картинки.
Про 4к мониторы с частотой выше 100гц говорить вообще не приходится, я к сожалению такое не могу позволить.
Да и у меня есть 4к телек к которому подключен комп, но он включается только для фильмов и тд. Потому что я чётко понимаю, что для меня герцовка решает гораздо больше, ведь даже если фпс ниже герцовки монитора, то все равно отзывчивость картинки гораздо выше и можно забыть про вертикальную синхронизацию как про страшный сон.
Это значит, что картинка плотнее на 33%, хотя пикселей и больше на 77%
Да тебе покажи картинки, ты и не угадаешь, где нативка там и где длсс.
Да и если где-то в динамике мылит немного и артефачит, зато фпсов куча. Нужны те же фпсы - так играй без длсс в меньшем разрешении, мыла в простом апскейле больше увидишь
Ну да, ты-то глазом в динамике видишь всё говно, но на картинках разглядеть слабо. Да смотри в видосах, не вопрос.
А лучше играй без длсс в меньшем разрешении, мыла в простом апскейле больше увидишь хоть в динамике, хоть на картинке.
Мсье знает толк в извращениях, моё почтение.
Вот тут абсолютно наоборот, многие старые игры даже не поддерживают иногда карточки амд лол
И общая вся эта хуйня с драйверами пиздец тотальный. Ты мог приебаться действительно к чему-то важному, но приебался к тому, чего нет
я на картах ати (а потом амд) сижу с 9800SE. это в начале 2000-ых который. просто у меня к нвидии много претензий было.
в определённый отрезок времени, АТИ безбожно рулила, потом амуде доила их (после покупки) технологию.
но, будем откровенны, драйвера и у ати всегда были притчей во языцах, а амуде превратило это в полный треш )
у драйверов амд есть единственное правило: не обновляться до последнего!! держаться!!!
(если нашёл рабочую версию, разумеется)
потому что каждый драйвер на каждой разной карте работает с минимальной прогнозируемостью, умудряясь, порой, закосячить даже 2д.
и единственное, чем они берут последние годы – это политикой ориентации на майнеров. т.е. они выпускают карты, их скупают майнеры, через 6..10 месяцев они скидывают эти карты за копейки → игрокам профит.
но, увы, если отсутствие хаирворксов в ведьмаке меня несколько напрягало, но покупку видюхи я откладывал; то вот Контрол ясно дал понять, что "придётся покупать нвидю". 2080 только не очень хотелось (да и на поиграть особо времени не было). А вот 3080 самое оно =]
И по каким дорогам они не могут ездить? Тут можно лишь за уши притянуть жидкую поддержку OpenCL.
а нвидия поддержку всех процессоров завезли, когда амуде только со своими работает.
или "это другое"? =)
А меня заминусовали, когда я скриншот кидал в Control с лучами, и как проседает amd
И чему ты удивляешься, что взять с фанбоев)) Там критического мышления 0. Даже если у тебя система на райзене и ты знаешь ее минусы, все равно будут минусовать, в том числе за правду.
Ну я же никак не оскорбляю амд, они во многом действительно молодцы.
шооо?! ты сейчас унизил инвалидов?!! сейчас тебя отменят!11
...ах, нет, тут ещё не совсем все с ума сошли, тут пока ещё так говорить можно. )))
Ну к тому времени когда AMD сделает SuperResolution для нескольких игр, у NVIDIA уже будет DLSS 3.0 который раз будет практически для любой игры где есть поддержка TAA (да, в том числе и для старых тоже вроде)
только вот длсс от амд будет и на консолях, так что охват в видеоиграх будет весьма обширнее, нежели у нвидии
наверное это сработает также, как и в прошлом поколении консолей и нвидиа еще больше отстанет в гонке видеокарт.
По SuperResolution нет инфы ещё. Откуда хоть какие то предположения?
ну не все же покупают видеокарты, чтобы играть в проприетарный апскейл) это жи зашквар
DLSS Quality выглядит ахуенно и во многих играх даже лучше оригинала благодаря суперсглаживанию (особенно в 4К)
DLSS Performance выглядит норм. Даёт прирост фпс иногда в 2 раза.
DLSS Ultra Performance выглядит уже немного мыльно, но все равно не прям критично
Даёт прирост фпс иногда даже в 2,5 раз
спорный вопрос. по статистики стима в последний раз когда я смотрел 12% пользователей пользуется амд
к тому моменту как они сделают "свой аналог" который еще хз как работать будет. фишка он нвидеа будет уже обкатана и привычна
Я лично буду играть в Киберпанк тот же с DLSS Performance, потому что это экшен от первого лица и хочется 120 кадров и больше стабильных
Людской файл
Проблема амд вовсе не в этом, а в ценах. Если бы они были дешевле на треть или четверть, то и вопросов бы не было. А они дороже :)
Где длсс добавляет кучу мыла 😉. А были карты с ней не у 5% пекашников. А то и меньше. И судили бы остальные о длсс не по ютюбу, а на деле, то знали бы это и не проводили бы его как преимущество. А так, типичные жертвы маркетинга, которые даже не имеют того о чем говорят и не видели его вживую🤦♂️.
Несёшь полный бред, какое мыло) В 4К с DLSS Quality всё потрясающе
Откуда ты знаешь, ты ж даже не можешь проверить лично. А я могу, так что нет, не бред, а мыло 😉
Да да, как и у всех пекашников. Ахаха. Но ты прям точно из тех пары сотых процентов пекпшников, которые имеют эту карту 👍. Вот же мне повезло на него попасть. Лол. А пока факту она у тебя только в мечтах 😉