Рубрика развивается при поддержке HP logo

«Мощнее NVIDIA, если не учитывать трассировку и DLSS», — главное из обзора Radeon RX 6000 от Digital Foundry Статьи редакции

«Железная» редакция Eurogamer провела подробное тестирование видеокарт AMD Radeon RX 6800 и 6800 XT, которые напрямую конкурируют с NVIDIA GeForce RTX 3070 и 3080 соответственно как по производительности, так и по цене. Мы выбрали из их материала главное.

  • AMD постаралась над новой системой охлаждения — металлический корпус хорошо рассеивает тепло, а три кулера работают эффективнее и тише, чем турбина в моделях прошлого поколения.
  • Все три новинки Radeon, включая ещё не вышедшую RX 6900XT получили одинаковый запас видеопамяти — по 16 ГБ GDDR6. У RTX 3070 памяти вдвое меньше, а у RTX 3080 — 10 ГБ, но значительно более быстрой GDDR6X. В реальных задачах и играх между старшими видеокартами наблюдается паритет, а RTX 3070 отстаёт только в DOOM Eternal с максимальным качеством текстур в 4К.
  • В игровых тестах без трассировки лучей и DLSS «базовая» RX 6800 легко обходит RTX 3070 на 5-10% (в зависимости от игры до 20 fps), но и стоит дороже (499 против 579 долларов).
  • RX 6800 XT сравнима с RTX 3080 — у неё более высокая частота ядер и более эффективная система обращения к памяти, поэтому в задачах с чистой растеризацией она чаще всего выдаёт такой же или лучший результат, чем у флагмана NVIDIA. Однако в некоторых играх (например, в DOOM Eterrnal и Tomb Raider) Radeon всё же отстаёт почти на 10%.
  • Всё меняется, если добавить в уравнение DLSS — в играх с поддержкой технологии у владельцев карт GeForce RTX нет повода не включать её, увеличивая производительность на 30-50%. У Radeon RX своего аналога пока нет.
  • В кристалле RDNA2 не предусмотрены ядра для машинного обучения, поэтому будущее решение от AMD скорее всего будет использовать простой темпоральный апскейлинг. Также у RX 6000 и Xbox Series со временем может появиться «умный» суперсемплинг от Microsoft, но разработка этой технологии пока далека от завершения.
  • В играх с трассировкой лучей Radeon также отстаёт от Geforce RTX. Мало того, что у RX 6800 и RX 6800 XT нет DLSS, который мог бы сгладить снижение производительности, так ещё и сама трассировка сжирает больше ресурсов, чем у NVIDIA.
  • Digital Foundry считает, что в будущем трассировка лучей станет универсальным стандартом для AAA-игр, так как сейчас даже Xbox Series S имеет поддержку этой технологии, что значительно повышает её доступность и распространение среди аудитории.

В обзорах, появившихся ранее, другие рецензенты также отмечали, что для профессиональных задач Radeon RX 6000 также не всегда подходят, так как многие программы для видеомонтажа и 3D-рендеринга оптимизированы для видеокарт NVIDIA с ядрами CUDA, а также задействуют аппаратный кодек NVENC и тензорные ядра.

AMD Radeon 6800 и 6800 ХТ появились в России 19 ноября по рекомендованной розничной цене 53 590 рублей и 59 990 рублей соответственно, однако на момент написания материала в свободной продаже не представлены.

{ "author_name": "Никита Богуславский", "author_type": "editor", "tags": [], "comments": 470, "likes": 97, "favorites": 31, "is_advertisement": false, "subsite_label": "hard", "id": 272936, "is_wide": false, "is_ugc": false, "date": "Tue, 01 Dec 2020 10:46:37 +0300", "is_special": false }
0
470 комментариев
Популярные
По порядку
Написать комментарий...
352

 >если не учитывать трассировку и DLSS
Это типа: лучшая машина в мире!
Правда стиральная

Ответить
96

Но амд все равно молодцы на самом деле, проявляют себя. Создают конкуренцию для NVIDIA)

Ответить
–75

Ну они стараются,но сидеть на двух стульях против Интела и Нвидии это все равно ниочем.АМД хооршие производители 10 лет назад стоял у меня от них Атлон проц хороший но по сравнению с аналогоми интела слабый.У АМД тактика дешево,но ненадолго.Тотже I7 4770  у меня сейчас стоит уже 6,5 лет и все еще спокойно тянет в фулхд.Аналогичный АМД я бы уже поменял года 2 назад наверно.Про видеокарты тоже самое.НВидиа надежны и производительны хоть и ценники поболее,но в любом случае конкуренция хорошо 

Ответить
66

AMD как раз наоборот славится своим FineWine.

Не будь AMD мы бы и дальше сидели на 4 ядерниках. А сейчас условный 6 ядерный 12 поточный Ryzen 1600X купленный 3 года назад спокойно может продержаться спокойно ещё года 3-4, выдавая приемлемую частоту кадров в большинстве игр (с соответствующей видеокартой, разумеется).

Ответить
8

только не забудь добавить, что для Ryzen 1600X надо купить правильную память и подкрутить настройки в биос, что бы немного нивелировать его минусы. Это что бы быть обьективными до конца. Я покупал 1600 и прекрасно знаю все его трещинки))
Бескомпромиссные процы у АМД - это 5000 серия, хотя и 3000 отличные вышли.

Ответить
17

Ну вообще-то рост производительности от частот оперативной памяти есть и у процессоров Интел, чем выше пропускная способность памяти тем лучше. Только почему-то считается что для AMD обязательно гнать ОЗУ, а для Интел типа не нужно, хотя в обоих случаях выигрыш от разгона памяти есть.

Ответить
4

Потому что байка "вставил и все" помноженная на любовь к бич-матери) Т.е. тупо нет возможности гнать, а оттуда выходит байка про "я не знаю, значит не нужно"

Ответить
0

Для 1600 даже не разгон в первую очередь нужен))
Походу тут углубляться в вопрос не имеет никакого смысла, тем более статей на эту тему уйма.

Ответить
12

1700й берет 3200 с бомжеплашками от крушиал зелеными на 2400 (правда сейчас там 24 гига формулой 4-8-4-8, так что 2800). о каком выборе памяти идет речь, если выше 3200 порой даже дорогие киты не брали кроме B-Die, а выхлоп свыше 3200 был реально 1-2%? охуительные истории такие охуительные) Причем как брал в мае 2017, так и в 2019, когда от него отстали и он ушел на рабочую станцию.

Ответить
2

И сколько у тебя латентность была? в твоих
охуительные истории такие охуительные

Ответить
0

Думаешь помню, вот только стандартные для хуйникса на 3200 16-18-18-36 позволяют эти плашки юзать на уровне быдло-оверпрайс HyperX кита (3200 те же) какого-нибудь. И зачастую профит от частоты НАМНОГО выше пары нс. Так же было и с FX-8350, которому лучше поднять тайминги и выдать 2133-2400 (при CPU_NB 2600), чем дрочить на нс.

Ответить
8

Да у меня у самого 2700X. Тут тоже с памятью не всё шикарно. Я больше апеллировал к тому, что буквально за 3 года мы увидели, как стандартом стало 8 ядер. 4 ядерники это теперь удел бюджетных i3/R3 для офисной машины.

Ответить
1

Athlon XP 2200+ - лучший проц от AMD )
Ну еще был шикарен Athlon 64 x2 3800 на 939 сокете

Ответить
1

Athlon XP 2500+ бартон был лучший проц того времени, который превращался в 3200+ легким движением руки ;)

Ответить
1

2500 для буржуев. пацаны на 2200 сидели

Ответить
0

Ты на шазу случаем раньше не зависал?

Ответить
0

Было дело. c 2013 по 18й гдето.

Ответить
0

На дтф  как то веселее и народу гораздо больше. Правда из за этого и неадекватность чаще можно наблюдать)))

Ответить
0

Ну меня на шазу начал раздражать холивар по любому поводу, причем на серьезных щщах. Ну и Коэновские кликбейты.
Да и тут японофилов больше явно.

Ответить
0

Бескомпромиссные, это шестидесятичетырехядерные AMD Epyc 7742

Ответить
0

Домой систему на таком проце, серьезно?))

Ответить
–2

твой 1600Х купленный 3 года назад, еле сравнялся с 4790К купленным 7лет назад

Ответить
3

Извини меня, но 4790K это сраный флагман, а 1600X бюджетник за 150 баксов.

Ответить
1

Да "флагман" того года в лице 1700/1700Х точно такую же эффективность в играх покажет, что и 1600Х. А стоил он даже дороже 7700К/8700К

Ответить
0

AMD и не претендовали на игровой паритет в 2017 году. AMD позиционировала их как решения для создателей контента и энтузиастов, которым нужна большая мультипоточная производительность.

Первыми более-менее конкурентно-способными в играх были процессоры 3000 серии.

Ответить
2

А ведь были времена, когда на человека сказавшего "у меня 4х ядерный i3" смотрели как на идиота.

Ответить
21

Еще один застрявший в шестилетнем прошлом и проецирующий оттуда свой опыт на текущую реальность. 

Ответить
17

Ну во-первых во времена 4770 у АМД не было такого топового конкурирующего процессора, была разве что линейка FX, но конкурировала она максимум с i5.
Нынешние райзены 5000 догнали интел и даже перегнали в куче игр, а в рабочих программах амд уже давно первые. Так что не понимаю о чем ты тут рассказываешь

Ответить
–35

Чойто тогда в большинстве случаев все бенчмарки в играх делают с процессоров интела ? И в большинстве случаев топовые процессоры берут у Интела,а не АМД который больше бюджетный сегмент.АМД используют те кто играет на карточках уровня 1060.Топовые конфигурации чаще делают через Интел-Нвидиа 

Ответить
8

АМД который больше бюджетный сегмент.

Шутник однако. Забудь, это было давно. Сегодня они конкурируют как по пр-ти, так и по цене.

Ответить
1

Ну щас топовый проц это уже 5950x )

Ответить
0

ну, тут надо понимать ещё, что процессор – это не только "сколько очков тестах он покажет".
у АМД всегда было плохо с сервисом (сейчас получше, но всё равно "средненько"), а у интела наоборот, всегда сервис был на первом месте. есественно, что любому продавцу логичнее собирать большую часть машин на интеле: универсальнее (в плане задач), надёжнее (в плане сервиса), нагляднее (в плане обучения и семинаров).
а когда доля рынка больше, через это и остальное подтягивается.

тут, как раз, "старые" механики ещё работают, отголосок 70-ых ))

Ответить
0

Насколько понимаю, брали Интелы, т.к. они в однопоточке рулили из-за своих 4,5-5 ГГц, где у АМД были пониже частоты

Ответить
1

Нынешние райзены 5000 догнали интел и даже перегнали в куче игр

Купить 5600Х за 36к вместо 10400F за 14к и получить -2fps прироста. Да, в синтетике там отрыв чуть ли не двухкратный, но в играх нифига. Можно найти примеры, где рязани показывают лучший результат чем интел, но их не много и цена фпс неадекватно высокая получается на фоне нового i5 который давно в продаже.

Ответить
2

Это тот проц который тестировали с памятью и материнкой дороже проца?) 

Ответить
0

А можно краткую суть?

Ответить
0

10400 не умеет в разгон, а соответственно память с ним на платах на которые он предназначен B и H серия, будет работать на частотах 2666, для того чтобы память работала на больших частотах нужна материнка поддерживающая разгон памяти, то есть Z серии, которые стоят чуть меньше самого проца а иногда и раза в 2 больше, НО большинство обзоров в сети появилось в момент выхода проца, когда в продаже даже небыло B и H серий материнок под 10-е поколение интела, так что большинство тестов делалось на Z серии с разогнанной до 3200 памятью. 
Тот же Techpowerup в обзоре чипа указывал результаты которые выдаёт процессор с памятью на частоте 2666 на которой она будет работать на всех платах не Z серии

Ответить
0

Последние B и H чипсеты Интела 2933 Мгц поддерживают.

Ответить
0

чипсет да, а проц нет, на платах B и H память не запустится выше частот заложенных в проце, 10700К 10900К будут работать тоже только на 2933 Мгц которые в них заложены. 
10400 стандартная частота памяти 2666, и кроме как на Z490 память на частоте выше работать не будет. 

Ответить
0

Даже если попробовать выставить частоту выше после перезагрузки всё сбросится обратно.

Ответить
1

Ну в общем-то да, очень профитно по фпс брать z чипсет и быструю  память, это надо учитывать. И да, не вижу смысла при этом брать 10600к или 10700к. Вроде как по логике z чипсет и к-индекс прямо таки созданы друг для друга, но кроме фапа на циферки в синтетике толку нет. Ну может какие-то рабочие задачи еще. Но в играх по процессору итак оверкилл, особенно для 4к, где сейчас видеокарты на максималках с лучами только 60 кадров готовы выдавать с натягом.
UPD
Как будто под ryzen 5600 не надо брать дорогую мать и быструю память в дополнение к процу за 34к.

Ответить
0

Я играю на 1440р 144гц монике, так что мне 150+ фпс вполне актуальны.) Плюс я и работаю на ПК, и 3д и видео редактирование, так что буста мне 5000 амд даёт достаточно, да и можно их на не такую дорогую B плату без компромисов к частотам памяти ставить, хотя кого я обманываю, где нибудь к февралю как доспупность и цены успокоятся скорее всего возьму какие нибудь 5800Х на X570 и запакую 64гб памяти (да мне нужна память, симуляция физики в блендере бывает прожорливой, да и афтеру палец в рот не клади).

Ответить
0

Ну работа это да, тут железки себя оправдывают, у самого воткнуто с давних времен 32 гб оперативы под компиляцию и вируталки. А играм до сих пор 8 гб хватает по сути, главное чтобы быстрые были, также и к процу у них подход другой, нежели у профессионального софта.

Ответить
3

То чувство, когда второй комп на Атлоне II  до сих пор робит, уже 11 лет стукнуло)
При этом еще и гонится с 3 до 3.5ггц (до 3.7, но нужен нормальный охлад, а не боксовый кулерочек)
Кто бы мог подумать, что 4 ядра будут популярны так долго..

Ответить
1

Мог бы продать  I7 4770 два года назад и оставить AMD. Тогда бы intel стал дорого, но ненадолго, а AMD - дешево и надолго.

Ответить
0

Интел нихера не тянет уже  легион убил мой 6700

Ответить
0

У меня после   последнего патча  фпс неплохо стабилизировался  и игра в фулхд на высоких  в 40+ вполне тянет.До патча  с графой развлекался чтобы дропов не было.

Ответить
–1

Аналогично думаю про М1 процессор, есть минусы, но это первая лошадка, которая вот так сразу на уровне конкурентов

Ответить
2

минусы, это то, что никакие приложения конкурентов нативно без эмулятора не запускаются?)

Ответить
1

Довольно многие уже либо выпустили бету с поддержкой М1, либо сделают это в ближайшее время 🤷🏻‍♂️ Так было при переходе с 32 на 64 и тоже было много жалоб, но разработчикам деваться некуда, это ведь Apple

Ответить
3

Ну у нас может наконец-то снова будет конкуренция, пусть даже без лучей, но это лучше чем ничего.

Ответить
1

лучи сделали и DLSS сделают,вопрос времени
но амд точно нельзя назвать догоняющим как раньше.

Ответить
–4

Ну как создают. Только в юмористических инфоповодах.

Ответить
1

Не, ну в той же вальгалле какой-нибудь у амд фпс больше ахах
Но лучшей картой сейчас всё равно остаётся 3090 (но не по соотношению цена/качество)

Ответить
0

Потому и считать надо лучшесть не вообще, а на доллар.

Ответить
0

Ну, хз - пока так себе конкуренция: производительность ниже и хоть заявленная цена тоже ниже, но у NVidia розничная цена сильно отличалась от заявленной, так что не факт что в рознице эти карты не будут стоить в районе 70-80 тыс.

Ответить
–36

dlss мыло в большинстве случаев, трассировка пока под вопросом, тут нужно смотреть по весне все таки что лучше 

Ответить
30

Прошёл Death Stranding c dlss, мыла не было от слова совсем, даже резче картинка получилась, единственный минус это артефакты, но они не сильно заметны, надеюсь их со временем исправят, а так фича бомба

Ответить

Смешной Гоша

Roen
–12

в каком разрешение? DLSS в 1440p и 4K очень хорош, но не 1080p где епта 540P картинка 

Ответить
15

чего? в 1080п алгоритм работы абсолютно такой же как и в 1440п и 4к. Картинка изначально рендерится в более низком разрешении. Я отключал и включал длсс в 1080п, разницы вообще не заметил, только вот буст по фпс хороший при включенном длсс. 

Ответить
0

Проверял, в место эксодус мылит или нет? Там какая версия DLSS?

Ответить
0

В метро старая.

Ответить
0

У меня в метро DLSS не включается вообще, типо включается и после применения настроек сбрасывает на выкл. Хз че за фигня. Мб этот баг только на 1080p хз.

Ответить
0

Это рукожопы-разработчики так прикрутили. Мало того, что первая версия, так ещё и не включается, если у тебя: не включен рей трейсинг, видеокарта 2060 и игра в 4к, 2080 и игра в 1080p\1440p или просто не совпала фаза луны. 

Ответить
–1

У меня RTX 3070, играю на Full HD. Уже прочитал, что DLSS не включается в Full HD, только в 2 и 4К соответственно. Рейтрейсинг то есть RTX стоит на "Ультра". ХЗ можно ли включить DLSS 2.0 на Full HD или нет, но скорее всего нет. НЕТ я не буду утверждать ибо нубас в этом. Только 2 недели назад купил видяху RTX.

Ответить
4

в 1080p и прекрасно работает, в том же Death Stranding, есть разные профили dlss, качество и производительность, с профилем 'качество' картинка рендерит в большем разрешении чем с профилем 'производительность', играл с профилем качество и всё выглядело прекрасно

Ответить
14

DS простая игра для обработки, тупо ландшафт один, это легко даже обычным апскеилом сделать... А вот когда игра динамичная с кучей частиц вот тут ДЛСС захлебывается, артефакты лезут и мыло

Ответить
1

Забей

Ответить
1

Простая игра для обработки, а обработать все равно может только нвидиа. То-то и оно, что важен конечный результат, а не почему он получился у одних и (пока?) не получился у других.

Ответить
–4

там есть от АМД FidelityFX, который ты можешь включить в DS и получить такой же эффект как и ДЛСС...

Ответить

Формальный спрей

Дмитрий
5

Когда кто-то сравнивает dlss и FidelityFX где-то грустит один Хуанг

Ответить
3

Всё там нормально. Картинка с DLSS в режиме качества и разрешении 1080р выглядит чётче, чем в 1080р со сглаживанием ТАА.
Только глубину резкости лучше выключить, вот её эффект DLSS действительно мылит ужасно.

Ответить
0

так оно для 1080 почти и не нужно - 1080 даж с лучами 2070с нативно выдает вполне. 30е явно еще лучше будут

Ответить
16

мыло было на первой версии, сейчас уже нет. По-моему одна из лучших технологий за n лет от nvidia  

Ответить
4

dlss 2.0 отличная фича, мыло если ты разглядываешь под 4х кратным увеличением экран

Ответить
4

мыло это очень сказано. dlss 2.0 прям неплохо

Ответить
3

Хз почему минусят. Меня, например, интересует преимущество DLSS.
Проблема в том что у меня монитор 1080п, а DLSS в таком разрешении либо вообще отключено, либо работает криво и выдаёт мыло.
Самые нормальные реализации DLSS применили в Контрол и Дес Стрендинг. В первую я вообще играть не могу, для меня коридоры это худшее что может быть в играх. А в Дес Стрендинг при включении DLSS на 1080п появляются артефакты от частиц, они оставляют за собой след. Это вообще не критично и малозаметно, но как факт.
Так что в данный момент менять свою gtx 1080 на какую-нибудь 3080 не вижу смысла. Хотя вероятно придется от недостатка производительности в будущем.

Ответить
2

Ты на своей 1080 в 1080р спокойно еще годик посидишь, если не больше. Пока не начнут выпускать игры на действительно некстген движках, типа УЕ5 ;)

Ответить

Комментарий удален

Комментарий удален

Комментарий удален

0

Ну, твоя 1080 по сути между 2060 и 2060super. Так что для фулхд тебе её хватит ещё на пару лет, просто без лучей.
Но, конечно, вопрос, нахрена сидеть на фуллхд по собственному желанию

Ответить
0

Мне не сложно ответить.
У меня монитор от асус 240гц, стоит уже года 2. Со своей задачей справляется на отлично.
Обновлять его на 1440п 144/240гц это глупо, потому что тратить кучу денег, когда плотность пикселей выше примерно на 30%. Будем честны, этого все еще мало для супер четкой картинки.
Про 4к мониторы с частотой выше 100гц говорить вообще не приходится, я к сожалению такое не могу позволить.
Да и у меня есть 4к телек к которому подключен комп, но он включается только для фильмов и тд. Потому что я чётко понимаю, что для меня герцовка решает гораздо больше, ведь даже если фпс ниже герцовки монитора, то все равно отзывчивость картинки гораздо выше и можно забыть про вертикальную синхронизацию как про страшный сон.

Ответить
0

Откуда взялось 30%? В 1440p на ~77% больше пикселей, чем в 1080p

Ответить
0

10900/82=132,9268292682927
Так что я примерно угадал 

Ответить
0

Это значит, что картинка плотнее на 33%, хотя пикселей и больше на 77% 

Ответить
0

Да, действительно, по такой метрике получается примерно 30%.
Но в любом случае, переход с 1080 на 1440 очень даже ощущается

Ответить
2

Ощущается конечно. Но к фуллхд легко привыкнуть после 1440п и 4К, а вот после 240гц перейти на 60 это боль. А еще боль это проходить эксклюзивы в 30 фпс

Ответить
0

Тут спорить не буду, сам разбалован 144Гц монитором)

Ответить
0

А я перепрыгнул на 1440 75. не хватает, но не парит.

Ответить
2

с такой логикой только катышки из пупка вытаскивать ) 

Ответить
–4

Да тебе покажи картинки, ты и не угадаешь, где нативка там и где длсс.
Да и если где-то в динамике мылит немного и артефачит, зато фпсов куча. Нужны те же фпсы - так играй без длсс в меньшем разрешении, мыла в простом апскейле больше увидишь 

Ответить
2

Оценивать работу длсс по картинкам - мое почтение, знаешь толк.

Ответить
1

Ну да, ты-то глазом в динамике видишь всё говно, но на картинках разглядеть слабо. Да смотри в видосах, не вопрос.
А лучше играй без длсс в меньшем разрешении, мыла в простом апскейле больше увидишь хоть в динамике, хоть на картинке.
Мсье знает толк в извращениях, моё почтение.

Ответить
3

nvidia

у нас лучшая машина в мире, но ездить лучше будут только по нашим дорогам

Ответить
3

Вот тут абсолютно наоборот, многие старые игры даже не поддерживают иногда карточки амд лол
И общая вся эта хуйня с драйверами пиздец тотальный. Ты мог приебаться действительно к чему-то важному, но приебался к тому, чего нет

Ответить
6

Мантры про дрова

Ответить
11

Какие мантры, это суровая правда хули)

Ответить
0

Суровая правда твоего воображения

Ответить
15

И это ещё даже не учитывая тот факт, что карточки NVIDIA банально в 3-4 раза популярнее лол, так что в случае AMD это соотношение можно было бы умножать
В общем, не позорься

Ответить
2

Чел, а ничего что у AMD не только гпу? Гуглить надо «GeForce drivers problem» против «Radeon drivers problem». Я не спорю при этом что у амд с дровами бывает беда. 

Ответить
4

я на картах ати (а потом амд) сижу с 9800SE. это в начале 2000-ых который.  просто у меня к нвидии много претензий было.
в определённый отрезок времени, АТИ безбожно рулила, потом амуде доила их (после покупки) технологию.

но, будем откровенны, драйвера и у ати всегда были притчей во языцах, а амуде превратило это в полный треш )
у драйверов амд есть единственное правило: не обновляться до последнего!! держаться!!!
(если нашёл рабочую версию, разумеется)

потому что каждый драйвер на каждой разной карте работает с минимальной прогнозируемостью, умудряясь, порой, закосячить даже 2д.

и единственное, чем они берут последние годы – это политикой ориентации на майнеров. т.е. они выпускают карты, их скупают майнеры, через 6..10 месяцев они скидывают эти карты за копейки → игрокам профит.

но, увы, если отсутствие хаирворксов в ведьмаке меня несколько напрягало, но покупку видюхи я откладывал; то вот Контрол ясно дал понять, что "придётся покупать нвидю". 2080 только не очень хотелось (да и на поиграть особо времени не было). А вот 3080 самое оно =]

Ответить
0

И по каким дорогам они не могут ездить? Тут можно лишь за уши притянуть жидкую поддержку OpenCL.

Ответить
4

Когда твой dlss завезут во все игры, тогда и поговорим.

Ответить
6

Так это скорее их выделенные полосы не во все города ведут :)

Ответить
–10

Ну и нафиг такое говно не нужно будет, в итоге все откажутся от этих полос и сделают универсальные.

Ответить
13

Путаешься.

У нвидии машина, которая ездит по всем дорогам, но у них ещё есть и выделенные специально под них дороги, которые другим недоступны.

Ответить
11

Комментарий удален по просьбе пользователя

Ответить
2

отбитым фанатиком красных

Единственным фанатиком тут выглядишь ты.

Ответить
0

Комментарий удален по просьбе пользователя

Ответить

Комментарий удален

3

а нвидия поддержку всех процессоров завезли, когда амуде только со своими работает.
или "это другое"?  =)

Ответить
4

поддержку всех процессоров завезли, когда амуде только со своими работает.

ЩИТО?

Ответить
4

Амд анонсировали технологию прямого доступа процессора к видеопамяти, доступную на их платформе, спустя время Нвидиа объявила такую же функцию, но работающую со всеми процессорами.

Ответить
0

хорошо что все дороги её)
а у конкурента только грунтовка 

Ответить
5

А меня заминусовали, когда я скриншот кидал в Control с лучами, и как проседает amd

Ответить
3

И чему ты удивляешься, что взять с фанбоев)) Там критического мышления 0. Даже если у тебя система на райзене и ты знаешь ее минусы, все равно будут минусовать, в том числе за правду.

Ответить
0

Ну я же никак не оскорбляю амд, они во многом действительно молодцы.

Ответить
3

Это лучший футболист мира...среди инвалидов.

Ответить
–3

шооо?! ты сейчас унизил инвалидов?!!  сейчас тебя отменят!11

...ах, нет, тут ещё не совсем все с ума сошли, тут пока ещё так говорить можно. )))

Ответить
1

Ну у АМД будет свой аналог. И у нвидии dlss работает далеко не везде еще.

Ответить
2

Ну к тому времени когда AMD сделает SuperResolution для нескольких игр, у NVIDIA уже будет DLSS 3.0 который раз будет практически для любой игры где есть поддержка TAA (да, в том числе и для старых тоже вроде)

Ответить
8

только вот длсс от амд будет и на консолях, так что охват в видеоиграх будет весьма обширнее, нежели у нвидии

Ответить
1

наверное это сработает также, как и в прошлом поколении консолей и нвидиа еще больше отстанет в гонке видеокарт.

Ответить
0

Это если от AMD, а если МС и Сони сделают свои реализации?

Ответить
0

Возможно можно будет просто в панели управления выбрать DLSS для каждой игры лол.
Но прям такой расклад уже конечно вряд ли)
Может разве что в 4.0 версии

Ответить
0

По SuperResolution нет инфы ещё. Откуда хоть какие то предположения?

Ответить
2

ну не все же покупают видеокарты, чтобы играть в проприетарный апскейл) это жи зашквар

Ответить
1

DLSS Quality выглядит ахуенно и во многих играх даже лучше оригинала благодаря суперсглаживанию (особенно в 4К)
DLSS Performance выглядит норм. Даёт прирост фпс иногда в 2 раза.
DLSS Ultra Performance выглядит уже немного мыльно, но все равно не прям критично
Даёт прирост фпс иногда даже в 2,5 раз

Ответить
0

"во многих играх") а вот теперь угадай какой апскейл будут использовать разработчики когда амд выпустит аналог и который будет работать на всех картах.

Ответить
0

Ну тут только время покажет, поговорим лет через 5. В данный момент DLSS ебёт

Ответить
0

ну только новость не об этом

Ответить
0

спорный вопрос. по статистики стима в последний раз когда я смотрел  12% пользователей пользуется амд
к тому моменту как они сделают "свой аналог" который еще хз как работать будет. фишка он нвидеа будет уже обкатана и привычна 

Ответить
0

Я лично буду играть в Киберпанк тот же с DLSS Performance, потому что это экшен от первого лица и хочется 120 кадров и больше стабильных

Ответить
1

Тупая фраза. Впрочем не удивлён. Твоя имеется в виду.

Ответить

Параллельный турник

Владислав
0

Проблема амд вовсе не в этом, а в ценах. Если бы они были дешевле на треть или четверть, то и вопросов бы не было. А они дороже :)

Ответить
–2

Где длсс добавляет кучу мыла 😉. А были карты с ней не у 5% пекашников. А то и меньше. И судили бы остальные о длсс не по ютюбу, а на деле, то знали бы это и не проводили бы его как преимущество. А так, типичные жертвы маркетинга, которые даже не имеют того о чем говорят и не видели его вживую🤦‍♂️.

Ответить
0

Несёшь полный бред, какое мыло) В 4К с DLSS Quality всё потрясающе

Ответить
–2

Откуда ты знаешь, ты ж даже не можешь проверить лично. А я могу, так что нет, не бред, а мыло 😉

Ответить
0

У меня 3080 лол) 

Ответить
–2

Да да, как и у всех пекашников. Ахаха. Но ты прям точно из тех пары сотых процентов пекпшников, которые имеют эту карту 👍. Вот же мне повезло на него попасть. Лол. А пока факту она у тебя только в мечтах 😉

Ответить
0

В мечтах у меня 3090 SLI, а 3080 под боком

Ответить
0

Под боком в других мечтах, я знаю 😉

Ответить
0

Приятно что завидуешь, что аж не верится) ❤️🥰

Ответить
0

Да, завидую твоему умению фантазировать и врать 😂😉👍. Ну и еще мололец, умеешь искать нужные картинки в гугле 😂👍🤦‍♂️.

Ответить
–1

У меня есть 3080, с пара скриншотов нативного и длсс 2 контрола. Да, кончно можно заметить мыло, но блин вы на радеоне даже 24 фпс не получите в таком разрешении с рейтрейсингом на максимуме, а на нвида можно еще резкости добавить через фристайл, в почти любую современную игру, а не пару особенных которые fidelityfx поддерживают. 

Ответить
0

Скриншот без шарпенинга не влез

Ответить
0

Тестил DLSS 2.0 на qhd, все равно мыло не видел.
Как по мне, даже на твоих скриншотах видно как картинка избавилась от мыла, на примере волос ГГ

Ответить
–1

Откуда ты знаешь кто что получит? Ты сравнивал или видел сравнения? Нет. А значит просто оправдываешь карту с мылом, которая худе амд, но ты не можешь с этим смириться 😉.

Ответить
–1

Чел, тесты с рейтресингом уже давно есть в сети, и в них RX 6800 xt неслабо так отстает от 3080 даже без ДЛСС. 

Ответить