«Мощнее NVIDIA, если не учитывать трассировку и DLSS», — главное из обзора Radeon RX 6000 от Digital Foundry Статьи редакции

«Железная» редакция Eurogamer провела подробное тестирование видеокарт AMD Radeon RX 6800 и 6800 XT, которые напрямую конкурируют с NVIDIA GeForce RTX 3070 и 3080 соответственно как по производительности, так и по цене. Мы выбрали из их материала главное.

  • AMD постаралась над новой системой охлаждения — металлический корпус хорошо рассеивает тепло, а три кулера работают эффективнее и тише, чем турбина в моделях прошлого поколения.
  • Все три новинки Radeon, включая ещё не вышедшую RX 6900XT получили одинаковый запас видеопамяти — по 16 ГБ GDDR6. У RTX 3070 памяти вдвое меньше, а у RTX 3080 — 10 ГБ, но значительно более быстрой GDDR6X. В реальных задачах и играх между старшими видеокартами наблюдается паритет, а RTX 3070 отстаёт только в DOOM Eternal с максимальным качеством текстур в 4К.
  • В игровых тестах без трассировки лучей и DLSS «базовая» RX 6800 легко обходит RTX 3070 на 5-10% (в зависимости от игры до 20 fps), но и стоит дороже (499 против 579 долларов).
  • RX 6800 XT сравнима с RTX 3080 — у неё более высокая частота ядер и более эффективная система обращения к памяти, поэтому в задачах с чистой растеризацией она чаще всего выдаёт такой же или лучший результат, чем у флагмана NVIDIA. Однако в некоторых играх (например, в DOOM Eterrnal и Tomb Raider) Radeon всё же отстаёт почти на 10%.
  • Всё меняется, если добавить в уравнение DLSS — в играх с поддержкой технологии у владельцев карт GeForce RTX нет повода не включать её, увеличивая производительность на 30-50%. У Radeon RX своего аналога пока нет.
  • В кристалле RDNA2 не предусмотрены ядра для машинного обучения, поэтому будущее решение от AMD скорее всего будет использовать простой темпоральный апскейлинг. Также у RX 6000 и Xbox Series со временем может появиться «умный» суперсемплинг от Microsoft, но разработка этой технологии пока далека от завершения.
  • В играх с трассировкой лучей Radeon также отстаёт от Geforce RTX. Мало того, что у RX 6800 и RX 6800 XT нет DLSS, который мог бы сгладить снижение производительности, так ещё и сама трассировка сжирает больше ресурсов, чем у NVIDIA.
  • Digital Foundry считает, что в будущем трассировка лучей станет универсальным стандартом для AAA-игр, так как сейчас даже Xbox Series S имеет поддержку этой технологии, что значительно повышает её доступность и распространение среди аудитории.

В обзорах, появившихся ранее, другие рецензенты также отмечали, что для профессиональных задач Radeon RX 6000 также не всегда подходят, так как многие программы для видеомонтажа и 3D-рендеринга оптимизированы для видеокарт NVIDIA с ядрами CUDA, а также задействуют аппаратный кодек NVENC и тензорные ядра.

AMD Radeon 6800 и 6800 ХТ появились в России 19 ноября по рекомендованной розничной цене 53 590 рублей и 59 990 рублей соответственно, однако на момент написания материала в свободной продаже не представлены.

{ "author_name": "Никита Богуславский", "author_type": "editor", "tags": ["\u043d\u043e\u0432\u043e\u0441\u0442\u0438","\u0432\u0438\u0434\u0435\u043e\u043a\u0430\u0440\u0442\u044b","radeon","digitalfoundry","amd"], "comments": 470, "likes": 97, "favorites": 30, "is_advertisement": false, "subsite_label": "hard", "id": 272936, "is_wide": false, "is_ugc": false, "date": "Tue, 01 Dec 2020 10:46:37 +0300", "is_special": false }
0
470 комментариев
Популярные
По порядку
Написать комментарий...
352

 >если не учитывать трассировку и DLSS
Это типа: лучшая машина в мире!
Правда стиральная

Ответить
96

Но амд все равно молодцы на самом деле, проявляют себя. Создают конкуренцию для NVIDIA)

Ответить
–75

Ну они стараются,но сидеть на двух стульях против Интела и Нвидии это все равно ниочем.АМД хооршие производители 10 лет назад стоял у меня от них Атлон проц хороший но по сравнению с аналогоми интела слабый.У АМД тактика дешево,но ненадолго.Тотже I7 4770  у меня сейчас стоит уже 6,5 лет и все еще спокойно тянет в фулхд.Аналогичный АМД я бы уже поменял года 2 назад наверно.Про видеокарты тоже самое.НВидиа надежны и производительны хоть и ценники поболее,но в любом случае конкуренция хорошо 

Ответить
66

AMD как раз наоборот славится своим FineWine.

Не будь AMD мы бы и дальше сидели на 4 ядерниках. А сейчас условный 6 ядерный 12 поточный Ryzen 1600X купленный 3 года назад спокойно может продержаться спокойно ещё года 3-4, выдавая приемлемую частоту кадров в большинстве игр (с соответствующей видеокартой, разумеется).

Ответить
8

только не забудь добавить, что для Ryzen 1600X надо купить правильную память и подкрутить настройки в биос, что бы немного нивелировать его минусы. Это что бы быть обьективными до конца. Я покупал 1600 и прекрасно знаю все его трещинки))
Бескомпромиссные процы у АМД - это 5000 серия, хотя и 3000 отличные вышли.

Ответить
17

Ну вообще-то рост производительности от частот оперативной памяти есть и у процессоров Интел, чем выше пропускная способность памяти тем лучше. Только почему-то считается что для AMD обязательно гнать ОЗУ, а для Интел типа не нужно, хотя в обоих случаях выигрыш от разгона памяти есть.

Ответить
4

Потому что байка "вставил и все" помноженная на любовь к бич-матери) Т.е. тупо нет возможности гнать, а оттуда выходит байка про "я не знаю, значит не нужно"

Ответить
0

Для 1600 даже не разгон в первую очередь нужен))
Походу тут углубляться в вопрос не имеет никакого смысла, тем более статей на эту тему уйма.

Ответить
12

1700й берет 3200 с бомжеплашками от крушиал зелеными на 2400 (правда сейчас там 24 гига формулой 4-8-4-8, так что 2800). о каком выборе памяти идет речь, если выше 3200 порой даже дорогие киты не брали кроме B-Die, а выхлоп свыше 3200 был реально 1-2%? охуительные истории такие охуительные) Причем как брал в мае 2017, так и в 2019, когда от него отстали и он ушел на рабочую станцию.

Ответить
2

И сколько у тебя латентность была? в твоих
охуительные истории такие охуительные

Ответить
0

Думаешь помню, вот только стандартные для хуйникса на 3200 16-18-18-36 позволяют эти плашки юзать на уровне быдло-оверпрайс HyperX кита (3200 те же) какого-нибудь. И зачастую профит от частоты НАМНОГО выше пары нс. Так же было и с FX-8350, которому лучше поднять тайминги и выдать 2133-2400 (при CPU_NB 2600), чем дрочить на нс.

Ответить
8

Да у меня у самого 2700X. Тут тоже с памятью не всё шикарно. Я больше апеллировал к тому, что буквально за 3 года мы увидели, как стандартом стало 8 ядер. 4 ядерники это теперь удел бюджетных i3/R3 для офисной машины.

Ответить
1

Athlon XP 2200+ - лучший проц от AMD )
Ну еще был шикарен Athlon 64 x2 3800 на 939 сокете

Ответить
1

Athlon XP 2500+ бартон был лучший проц того времени, который превращался в 3200+ легким движением руки ;)

Ответить
1

2500 для буржуев. пацаны на 2200 сидели

Ответить
0

Ты на шазу случаем раньше не зависал?

Ответить
0

Было дело. c 2013 по 18й гдето.

Ответить
0

На дтф  как то веселее и народу гораздо больше. Правда из за этого и неадекватность чаще можно наблюдать)))

Ответить
0

Ну меня на шазу начал раздражать холивар по любому поводу, причем на серьезных щщах. Ну и Коэновские кликбейты.
Да и тут японофилов больше явно.

Ответить
0

Бескомпромиссные, это шестидесятичетырехядерные AMD Epyc 7742

Ответить
0

Домой систему на таком проце, серьезно?))

Ответить
–2

твой 1600Х купленный 3 года назад, еле сравнялся с 4790К купленным 7лет назад

Ответить
3

Извини меня, но 4790K это сраный флагман, а 1600X бюджетник за 150 баксов.

Ответить
1

Да "флагман" того года в лице 1700/1700Х точно такую же эффективность в играх покажет, что и 1600Х. А стоил он даже дороже 7700К/8700К

Ответить
0

AMD и не претендовали на игровой паритет в 2017 году. AMD позиционировала их как решения для создателей контента и энтузиастов, которым нужна большая мультипоточная производительность.

Первыми более-менее конкурентно-способными в играх были процессоры 3000 серии.

Ответить
2

А ведь были времена, когда на человека сказавшего "у меня 4х ядерный i3" смотрели как на идиота.

Ответить
21

Еще один застрявший в шестилетнем прошлом и проецирующий оттуда свой опыт на текущую реальность. 

Ответить
17

Ну во-первых во времена 4770 у АМД не было такого топового конкурирующего процессора, была разве что линейка FX, но конкурировала она максимум с i5.
Нынешние райзены 5000 догнали интел и даже перегнали в куче игр, а в рабочих программах амд уже давно первые. Так что не понимаю о чем ты тут рассказываешь

Ответить
–35

Чойто тогда в большинстве случаев все бенчмарки в играх делают с процессоров интела ? И в большинстве случаев топовые процессоры берут у Интела,а не АМД который больше бюджетный сегмент.АМД используют те кто играет на карточках уровня 1060.Топовые конфигурации чаще делают через Интел-Нвидиа 

Ответить
8

АМД который больше бюджетный сегмент.

Шутник однако. Забудь, это было давно. Сегодня они конкурируют как по пр-ти, так и по цене.

Ответить
1

Ну щас топовый проц это уже 5950x )

Ответить
0

ну, тут надо понимать ещё, что процессор – это не только "сколько очков тестах он покажет".
у АМД всегда было плохо с сервисом (сейчас получше, но всё равно "средненько"), а у интела наоборот, всегда сервис был на первом месте. есественно, что любому продавцу логичнее собирать большую часть машин на интеле: универсальнее (в плане задач), надёжнее (в плане сервиса), нагляднее (в плане обучения и семинаров).
а когда доля рынка больше, через это и остальное подтягивается.

тут, как раз, "старые" механики ещё работают, отголосок 70-ых ))

Ответить
0

Насколько понимаю, брали Интелы, т.к. они в однопоточке рулили из-за своих 4,5-5 ГГц, где у АМД были пониже частоты

Ответить
1

Нынешние райзены 5000 догнали интел и даже перегнали в куче игр

Купить 5600Х за 36к вместо 10400F за 14к и получить -2fps прироста. Да, в синтетике там отрыв чуть ли не двухкратный, но в играх нифига. Можно найти примеры, где рязани показывают лучший результат чем интел, но их не много и цена фпс неадекватно высокая получается на фоне нового i5 который давно в продаже.

Ответить
2

Это тот проц который тестировали с памятью и материнкой дороже проца?) 

Ответить
0

А можно краткую суть?

Ответить
0

10400 не умеет в разгон, а соответственно память с ним на платах на которые он предназначен B и H серия, будет работать на частотах 2666, для того чтобы память работала на больших частотах нужна материнка поддерживающая разгон памяти, то есть Z серии, которые стоят чуть меньше самого проца а иногда и раза в 2 больше, НО большинство обзоров в сети появилось в момент выхода проца, когда в продаже даже небыло B и H серий материнок под 10-е поколение интела, так что большинство тестов делалось на Z серии с разогнанной до 3200 памятью. 
Тот же Techpowerup в обзоре чипа указывал результаты которые выдаёт процессор с памятью на частоте 2666 на которой она будет работать на всех платах не Z серии

Ответить
0

Последние B и H чипсеты Интела 2933 Мгц поддерживают.

Ответить
0

чипсет да, а проц нет, на платах B и H память не запустится выше частот заложенных в проце, 10700К 10900К будут работать тоже только на 2933 Мгц которые в них заложены. 
10400 стандартная частота памяти 2666, и кроме как на Z490 память на частоте выше работать не будет. 

Ответить
0

Даже если попробовать выставить частоту выше после перезагрузки всё сбросится обратно.

Ответить
1

Ну в общем-то да, очень профитно по фпс брать z чипсет и быструю  память, это надо учитывать. И да, не вижу смысла при этом брать 10600к или 10700к. Вроде как по логике z чипсет и к-индекс прямо таки созданы друг для друга, но кроме фапа на циферки в синтетике толку нет. Ну может какие-то рабочие задачи еще. Но в играх по процессору итак оверкилл, особенно для 4к, где сейчас видеокарты на максималках с лучами только 60 кадров готовы выдавать с натягом.
UPD
Как будто под ryzen 5600 не надо брать дорогую мать и быструю память в дополнение к процу за 34к.

Ответить
0

Я играю на 1440р 144гц монике, так что мне 150+ фпс вполне актуальны.) Плюс я и работаю на ПК, и 3д и видео редактирование, так что буста мне 5000 амд даёт достаточно, да и можно их на не такую дорогую B плату без компромисов к частотам памяти ставить, хотя кого я обманываю, где нибудь к февралю как доспупность и цены успокоятся скорее всего возьму какие нибудь 5800Х на X570 и запакую 64гб памяти (да мне нужна память, симуляция физики в блендере бывает прожорливой, да и афтеру палец в рот не клади).

Ответить
0

Ну работа это да, тут железки себя оправдывают, у самого воткнуто с давних времен 32 гб оперативы под компиляцию и вируталки. А играм до сих пор 8 гб хватает по сути, главное чтобы быстрые были, также и к процу у них подход другой, нежели у профессионального софта.

Ответить
3

То чувство, когда второй комп на Атлоне II  до сих пор робит, уже 11 лет стукнуло)
При этом еще и гонится с 3 до 3.5ггц (до 3.7, но нужен нормальный охлад, а не боксовый кулерочек)
Кто бы мог подумать, что 4 ядра будут популярны так долго..

Ответить
1

Мог бы продать  I7 4770 два года назад и оставить AMD. Тогда бы intel стал дорого, но ненадолго, а AMD - дешево и надолго.

Ответить
0

Интел нихера не тянет уже  легион убил мой 6700

Ответить
0

У меня после   последнего патча  фпс неплохо стабилизировался  и игра в фулхд на высоких  в 40+ вполне тянет.До патча  с графой развлекался чтобы дропов не было.

Ответить
–1

Аналогично думаю про М1 процессор, есть минусы, но это первая лошадка, которая вот так сразу на уровне конкурентов

Ответить
2

минусы, это то, что никакие приложения конкурентов нативно без эмулятора не запускаются?)

Ответить
1

Довольно многие уже либо выпустили бету с поддержкой М1, либо сделают это в ближайшее время 🤷🏻‍♂️ Так было при переходе с 32 на 64 и тоже было много жалоб, но разработчикам деваться некуда, это ведь Apple

Ответить
3

Ну у нас может наконец-то снова будет конкуренция, пусть даже без лучей, но это лучше чем ничего.

Ответить
1

лучи сделали и DLSS сделают,вопрос времени
но амд точно нельзя назвать догоняющим как раньше.

Ответить
–4

Ну как создают. Только в юмористических инфоповодах.

Ответить
1

Не, ну в той же вальгалле какой-нибудь у амд фпс больше ахах
Но лучшей картой сейчас всё равно остаётся 3090 (но не по соотношению цена/качество)

Ответить
0

Потому и считать надо лучшесть не вообще, а на доллар.

Ответить
0

Ну, хз - пока так себе конкуренция: производительность ниже и хоть заявленная цена тоже ниже, но у NVidia розничная цена сильно отличалась от заявленной, так что не факт что в рознице эти карты не будут стоить в районе 70-80 тыс.

Ответить
–36

dlss мыло в большинстве случаев, трассировка пока под вопросом, тут нужно смотреть по весне все таки что лучше 

Ответить
30

Прошёл Death Stranding c dlss, мыла не было от слова совсем, даже резче картинка получилась, единственный минус это артефакты, но они не сильно заметны, надеюсь их со временем исправят, а так фича бомба

Ответить

Ужасный коктейль

Roen
–12

в каком разрешение? DLSS в 1440p и 4K очень хорош, но не 1080p где епта 540P картинка 

Ответить
15

чего? в 1080п алгоритм работы абсолютно такой же как и в 1440п и 4к. Картинка изначально рендерится в более низком разрешении. Я отключал и включал длсс в 1080п, разницы вообще не заметил, только вот буст по фпс хороший при включенном длсс. 

Ответить
0

Проверял, в место эксодус мылит или нет? Там какая версия DLSS?

Ответить
0

В метро старая.

Ответить
0

У меня в метро DLSS не включается вообще, типо включается и после применения настроек сбрасывает на выкл. Хз че за фигня. Мб этот баг только на 1080p хз.

Ответить
0

Это рукожопы-разработчики так прикрутили. Мало того, что первая версия, так ещё и не включается, если у тебя: не включен рей трейсинг, видеокарта 2060 и игра в 4к, 2080 и игра в 1080p\1440p или просто не совпала фаза луны. 

Ответить
–1

У меня RTX 3070, играю на Full HD. Уже прочитал, что DLSS не включается в Full HD, только в 2 и 4К соответственно. Рейтрейсинг то есть RTX стоит на "Ультра". ХЗ можно ли включить DLSS 2.0 на Full HD или нет, но скорее всего нет. НЕТ я не буду утверждать ибо нубас в этом. Только 2 недели назад купил видяху RTX.

Ответить
4

в 1080p и прекрасно работает, в том же Death Stranding, есть разные профили dlss, качество и производительность, с профилем 'качество' картинка рендерит в большем разрешении чем с профилем 'производительность', играл с профилем качество и всё выглядело прекрасно

Ответить
14

DS простая игра для обработки, тупо ландшафт один, это легко даже обычным апскеилом сделать... А вот когда игра динамичная с кучей частиц вот тут ДЛСС захлебывается, артефакты лезут и мыло

Ответить
1

Простая игра для обработки, а обработать все равно может только нвидиа. То-то и оно, что важен конечный результат, а не почему он получился у одних и (пока?) не получился у других.

Ответить
–4

там есть от АМД FidelityFX, который ты можешь включить в DS и получить такой же эффект как и ДЛСС...

Ответить

Прошедший

Дмитрий
5

Когда кто-то сравнивает dlss и FidelityFX где-то грустит один Хуанг

Ответить
3

Всё там нормально. Картинка с DLSS в режиме качества и разрешении 1080р выглядит чётче, чем в 1080р со сглаживанием ТАА.
Только глубину резкости лучше выключить, вот её эффект DLSS действительно мылит ужасно.

Ответить
0

так оно для 1080 почти и не нужно - 1080 даж с лучами 2070с нативно выдает вполне. 30е явно еще лучше будут

Ответить
16

мыло было на первой версии, сейчас уже нет. По-моему одна из лучших технологий за n лет от nvidia  

Ответить
4

dlss 2.0 отличная фича, мыло если ты разглядываешь под 4х кратным увеличением экран

Ответить
4

мыло это очень сказано. dlss 2.0 прям неплохо

Ответить
3

Хз почему минусят. Меня, например, интересует преимущество DLSS.
Проблема в том что у меня монитор 1080п, а DLSS в таком разрешении либо вообще отключено, либо работает криво и выдаёт мыло.
Самые нормальные реализации DLSS применили в Контрол и Дес Стрендинг. В первую я вообще играть не могу, для меня коридоры это худшее что может быть в играх. А в Дес Стрендинг при включении DLSS на 1080п появляются артефакты от частиц, они оставляют за собой след. Это вообще не критично и малозаметно, но как факт.
Так что в данный момент менять свою gtx 1080 на какую-нибудь 3080 не вижу смысла. Хотя вероятно придется от недостатка производительности в будущем.

Ответить
2

Ты на своей 1080 в 1080р спокойно еще годик посидишь, если не больше. Пока не начнут выпускать игры на действительно некстген движках, типа УЕ5 ;)

Ответить

Комментарий удален

Комментарий удален

Комментарий удален

0

Ну, твоя 1080 по сути между 2060 и 2060super. Так что для фулхд тебе её хватит ещё на пару лет, просто без лучей.
Но, конечно, вопрос, нахрена сидеть на фуллхд по собственному желанию

Ответить
0

Мне не сложно ответить.
У меня монитор от асус 240гц, стоит уже года 2. Со своей задачей справляется на отлично.
Обновлять его на 1440п 144/240гц это глупо, потому что тратить кучу денег, когда плотность пикселей выше примерно на 30%. Будем честны, этого все еще мало для супер четкой картинки.
Про 4к мониторы с частотой выше 100гц говорить вообще не приходится, я к сожалению такое не могу позволить.
Да и у меня есть 4к телек к которому подключен комп, но он включается только для фильмов и тд. Потому что я чётко понимаю, что для меня герцовка решает гораздо больше, ведь даже если фпс ниже герцовки монитора, то все равно отзывчивость картинки гораздо выше и можно забыть про вертикальную синхронизацию как про страшный сон.

Ответить
0

Откуда взялось 30%? В 1440p на ~77% больше пикселей, чем в 1080p

Ответить
0

10900/82=132,9268292682927
Так что я примерно угадал 

Ответить
0

Это значит, что картинка плотнее на 33%, хотя пикселей и больше на 77% 

Ответить
0

Да, действительно, по такой метрике получается примерно 30%.
Но в любом случае, переход с 1080 на 1440 очень даже ощущается

Ответить
2

Ощущается конечно. Но к фуллхд легко привыкнуть после 1440п и 4К, а вот после 240гц перейти на 60 это боль. А еще боль это проходить эксклюзивы в 30 фпс

Ответить
0

Тут спорить не буду, сам разбалован 144Гц монитором)

Ответить
0

А я перепрыгнул на 1440 75. не хватает, но не парит.

Ответить
2

с такой логикой только катышки из пупка вытаскивать ) 

Ответить
–4

Да тебе покажи картинки, ты и не угадаешь, где нативка там и где длсс.
Да и если где-то в динамике мылит немного и артефачит, зато фпсов куча. Нужны те же фпсы - так играй без длсс в меньшем разрешении, мыла в простом апскейле больше увидишь 

Ответить
2

Оценивать работу длсс по картинкам - мое почтение, знаешь толк.

Ответить
1

Ну да, ты-то глазом в динамике видишь всё говно, но на картинках разглядеть слабо. Да смотри в видосах, не вопрос.
А лучше играй без длсс в меньшем разрешении, мыла в простом апскейле больше увидишь хоть в динамике, хоть на картинке.
Мсье знает толк в извращениях, моё почтение.

Ответить
3

nvidia

у нас лучшая машина в мире, но ездить лучше будут только по нашим дорогам

Ответить
3

Вот тут абсолютно наоборот, многие старые игры даже не поддерживают иногда карточки амд лол
И общая вся эта хуйня с драйверами пиздец тотальный. Ты мог приебаться действительно к чему-то важному, но приебался к тому, чего нет

Ответить
6

Мантры про дрова

Ответить
11

Какие мантры, это суровая правда хули)

Ответить
0

Суровая правда твоего воображения

Ответить
15

И это ещё даже не учитывая тот факт, что карточки NVIDIA банально в 3-4 раза популярнее лол, так что в случае AMD это соотношение можно было бы умножать
В общем, не позорься

Ответить
2

Чел, а ничего что у AMD не только гпу? Гуглить надо «GeForce drivers problem» против «Radeon drivers problem». Я не спорю при этом что у амд с дровами бывает беда. 

Ответить
4

я на картах ати (а потом амд) сижу с 9800SE. это в начале 2000-ых который.  просто у меня к нвидии много претензий было.
в определённый отрезок времени, АТИ безбожно рулила, потом амуде доила их (после покупки) технологию.

но, будем откровенны, драйвера и у ати всегда были притчей во языцах, а амуде превратило это в полный треш )
у драйверов амд есть единственное правило: не обновляться до последнего!! держаться!!!
(если нашёл рабочую версию, разумеется)

потому что каждый драйвер на каждой разной карте работает с минимальной прогнозируемостью, умудряясь, порой, закосячить даже 2д.

и единственное, чем они берут последние годы – это политикой ориентации на майнеров. т.е. они выпускают карты, их скупают майнеры, через 6..10 месяцев они скидывают эти карты за копейки → игрокам профит.

но, увы, если отсутствие хаирворксов в ведьмаке меня несколько напрягало, но покупку видюхи я откладывал; то вот Контрол ясно дал понять, что "придётся покупать нвидю". 2080 только не очень хотелось (да и на поиграть особо времени не было). А вот 3080 самое оно =]

Ответить
0

И по каким дорогам они не могут ездить? Тут можно лишь за уши притянуть жидкую поддержку OpenCL.

Ответить
4

Когда твой dlss завезут во все игры, тогда и поговорим.

Ответить
6

Так это скорее их выделенные полосы не во все города ведут :)

Ответить
–10

Ну и нафиг такое говно не нужно будет, в итоге все откажутся от этих полос и сделают универсальные.

Ответить
13

Путаешься.

У нвидии машина, которая ездит по всем дорогам, но у них ещё есть и выделенные специально под них дороги, которые другим недоступны.

Ответить
11

Комментарий удален по просьбе пользователя

Ответить
2

отбитым фанатиком красных

Единственным фанатиком тут выглядишь ты.

Ответить
0

Комментарий удален по просьбе пользователя

Ответить

Комментарий удален

3

а нвидия поддержку всех процессоров завезли, когда амуде только со своими работает.
или "это другое"?  =)

Ответить
4

поддержку всех процессоров завезли, когда амуде только со своими работает.

ЩИТО?

Ответить
4

Амд анонсировали технологию прямого доступа процессора к видеопамяти, доступную на их платформе, спустя время Нвидиа объявила такую же функцию, но работающую со всеми процессорами.

Ответить
0

хорошо что все дороги её)
а у конкурента только грунтовка 

Ответить
5

А меня заминусовали, когда я скриншот кидал в Control с лучами, и как проседает amd

Ответить
3

И чему ты удивляешься, что взять с фанбоев)) Там критического мышления 0. Даже если у тебя система на райзене и ты знаешь ее минусы, все равно будут минусовать, в том числе за правду.

Ответить
0

Ну я же никак не оскорбляю амд, они во многом действительно молодцы.

Ответить
3

Это лучший футболист мира...среди инвалидов.

Ответить
–3

шооо?! ты сейчас унизил инвалидов?!!  сейчас тебя отменят!11

...ах, нет, тут ещё не совсем все с ума сошли, тут пока ещё так говорить можно. )))

Ответить
1

Ну у АМД будет свой аналог. И у нвидии dlss работает далеко не везде еще.

Ответить
2

Ну к тому времени когда AMD сделает SuperResolution для нескольких игр, у NVIDIA уже будет DLSS 3.0 который раз будет практически для любой игры где есть поддержка TAA (да, в том числе и для старых тоже вроде)

Ответить
8

только вот длсс от амд будет и на консолях, так что охват в видеоиграх будет весьма обширнее, нежели у нвидии

Ответить
1

наверное это сработает также, как и в прошлом поколении консолей и нвидиа еще больше отстанет в гонке видеокарт.

Ответить
0

Это если от AMD, а если МС и Сони сделают свои реализации?

Ответить
0

Возможно можно будет просто в панели управления выбрать DLSS для каждой игры лол.
Но прям такой расклад уже конечно вряд ли)
Может разве что в 4.0 версии

Ответить
0

По SuperResolution нет инфы ещё. Откуда хоть какие то предположения?

Ответить
2

ну не все же покупают видеокарты, чтобы играть в проприетарный апскейл) это жи зашквар

Ответить
1

DLSS Quality выглядит ахуенно и во многих играх даже лучше оригинала благодаря суперсглаживанию (особенно в 4К)
DLSS Performance выглядит норм. Даёт прирост фпс иногда в 2 раза.
DLSS Ultra Performance выглядит уже немного мыльно, но все равно не прям критично
Даёт прирост фпс иногда даже в 2,5 раз

Ответить
0

"во многих играх") а вот теперь угадай какой апскейл будут использовать разработчики когда амд выпустит аналог и который будет работать на всех картах.

Ответить
0

Ну тут только время покажет, поговорим лет через 5. В данный момент DLSS ебёт

Ответить
0

ну только новость не об этом

Ответить
0

спорный вопрос. по статистики стима в последний раз когда я смотрел  12% пользователей пользуется амд
к тому моменту как они сделают "свой аналог" который еще хз как работать будет. фишка он нвидеа будет уже обкатана и привычна 

Ответить
0

Я лично буду играть в Киберпанк тот же с DLSS Performance, потому что это экшен от первого лица и хочется 120 кадров и больше стабильных

Ответить
1

Тупая фраза. Впрочем не удивлён. Твоя имеется в виду.

Ответить

Государственный алмаз

Владислав
0

Проблема амд вовсе не в этом, а в ценах. Если бы они были дешевле на треть или четверть, то и вопросов бы не было. А они дороже :)

Ответить
–2

Где длсс добавляет кучу мыла 😉. А были карты с ней не у 5% пекашников. А то и меньше. И судили бы остальные о длсс не по ютюбу, а на деле, то знали бы это и не проводили бы его как преимущество. А так, типичные жертвы маркетинга, которые даже не имеют того о чем говорят и не видели его вживую🤦‍♂️.

Ответить
0

Несёшь полный бред, какое мыло) В 4К с DLSS Quality всё потрясающе

Ответить
–2

Откуда ты знаешь, ты ж даже не можешь проверить лично. А я могу, так что нет, не бред, а мыло 😉

Ответить
0

У меня 3080 лол) 

Ответить