✅ Call of Duty: Black Ops Cold War
✅ Cyberpunk 2077
✅ Fortnite
✅ Minecraft https://t.co/YHvmjufEHa
Отключаешь лучи, включаешь DLSS, кайфуешь от сглаженной картинки и кучи FPS. Тут Nvidia мегакрасавчики. DLSS вообще продлит жизнь новым карточкам прилично, если эту технологию будут юзать в большинстве ААА проектов.
Строительный Илья
а потом выйдет DLSS 3 для которой надо будет купить новые карты)
Это будет через несколько лет, разумеется их нужно будет купить что бы поддерживать свой ПК в актуальном состоянии. Сейчас посижу на RTX 2070 до конца поколения 30 серии, и куплю 40 серию. Так и нужно делать, а не играть в игры с Картошка-модами.
играл так с тех времен, когда только ввели возможность как-то настраивать графоний в играх
@
купил в прошлом году новый компец, i5 там, geforce какой-то, ssd
@
один хрен играю на средне-низких чтобы не лагало
@
при зрении -4 разницы никакой
Мы по твоему консольщики ? Ты бы ещё 30 ФПС и геймпад в шутане прикрутил....
Ну допустим кто то играет на rtx 3090 в Puzzle Quest: Galactrix. А что, нельзя что ли?)
Да можно , но вот только зачем? Лучшая графика и производительность улучшает общий эксперименс от игры.
Можно, но я не буду. Если игра не работает на ультрах, то я не буду в неё играть
Ну 2000 серия поддерживает 2.0, возможно и 3.0 будет поддерживать, там же код оптимизируют, а не сами ядра. Впрочем, поглядим.
Нет, не только их число увеличили. Тензорные ядра в Ампере как минимум поддерживают большее количество операций
Строительный
Но в любом случае, надо будет так же обновлять регулярно железо. Но сейчас конечно отличный буст даёт технология.
Ага, ну рано или поздно и лучи можно будет включать без проблем с производительностью, но это будет потом, а сейчас DLSS решает прям.
Аналог DLSS может вдохнуть жизнь в новые консоли, которые уже не вывозят в полной мере лучи и т.п. Классная штука, за ней будущее
Если её будут использовать большинство игр, то не продлит. Разработчики обленятся и будут игры работать с DLSS в 60 фпс.
Может меня заминусят, но я не понимаю почему так возносят эту технологию. Это просто подтянутый апскейл, а апскейл отрисовывает подмарафеченную картинку низшего разрешения (например 720р вместо 1080р) и за счет этого (ясен пень) дает больше фпс. Мыло всеравно проступает, так как это всё же не нативное разрешение. Из последних примеров можете просто сравнить четкость картинки СР2077 с выключенным DLSS и с включенными разными степенями данной опции.
П.с.: мне не в кайф
понимаю почему так возносят эту технологию
В смысле почему? 20% буст фпс при минимальной разнице в графике которую еще и можно нивелировать шарпом это не повод ее превозносить?
А если же это такая пустая фича то где ее аналог на консолях? Амд? Просто подтянутый апскейл, святая простота прям.
если же это такая пустая фича
то где ее аналог на консолях
Ты так написал странно...
Первая половина - считаю, что технология не пустая и готов привести аргумент где она уже активно используется.
Вторая половина - говорю, что аналога на консолях нет.
Ты второй половиной только подтверждаешь, что технология пустая. Или нет. Я черт знает, что ты сказать хотел. Но одно с другим не вяжется.
Чтобы было понятнее. "Если же это такая пустая фича, то почему её аналог во всю катушку используют на новых консолях". Вот к такой формулировке не было бы вопросов.
Неверно. В некоторых играх на пресете "качество" DLSS 2.0 делает картинку четче натива. Можешь посмотреть разые тесты и убедиться в этом сам
Обычно в тех, где проебались с ТАА. Настолько, что даже натив выглядит хуже DLSS
слишком часто нынче проебываются с ТАА, поэтому как альтернатива почему нет
Death Stranding. Там отвратный TAA и отличный DLSS. Артефакты в Control были с DLSS1, после патча с DLSS 2 их нет
Что прямо лучше особо не замечал, но картинку он уже не портит. Играл примерно во всё где есть DLSS. В 1080p он мне не очень нравился, а потом начал через драйвер 1440p разрешение ставить и стало огонь. А потом 4k монитором обзавёлся и ещё больше понял какая это полезная вещь.
Бл, ребят, вот поверил бы, но у меня шо киберпанк, шо любая другая игра с длсс мылит настолько картинку, что это видно невооруженным взгядом, могу скрины накидать для доказательства своих слов
Может быть это потому что у меня фулхд моник и длсс для него не предназачен?
"делает картинку четче натива" это за счет увеличения резкости, которую я через панель нвидиа и сам могу сделать.
Так а список игр поддерживающих dlss 2.0 это вообще блядь какая-то хуета.
Bright Memory: Infinite
Call of Duty: Black Ops Cold War
Control
Cyberpunk 2077
Death Stranding
Deliver Us The Moon
F1 2020
Fortnite
Ghostrunner
Justice
Marvel’s Avengers
MechWarrior 5: Mercenaries
Minecraft
Moonlight Blade
Pumpkin Jack
War Thunder
Watch Dogs: Legion
Wolfenstein: Youngblood
Xuan-Yuan Sword VII
Из всего этого более менее игры в которые реально можно играть разве что maincraft, Cold War да кп 2077. Все остальное либо такой лютый трешак нишевый либо всратое дрочево для одноизвилинных. Ах да еще Control этот с гг бабомужиком этим жутким. Вдвойне обидно от того что реальная актриса типа подарившая лицо гг игры очень красивая девушка. Но суки повесточные тупо ее изуродовали в игре.
Я реально думал там прррывная технология с которой прям все игры можно будет в 4к играть, а там как обычно очень громкий пердеж в лужу.
Cold War
остальное либо такой лютый трешак нишевый либо всратое дрочево
"вы или крестик снимите, или трусы наденьте", как говорится. колда последние лет 10 попадает под оба определения.
Во во, амуде показывает чистую аппаратную мощь без мухлежа с апскейлами
Потому что после RT сырая картинка выглядит страшно и уже сглаживается тензорами, откуда и появляется мыло. На примере ниже видны типичные артефакты
Ты взял картинку от полностью Raytraced рендера, где шум из-за того, что натурально если в пиксель выходного кадра ни одного луча не попало, то его цвет будет некорректным. В Cyberpunk такой рендеринг вообще не используется.
В Киберпанке не полный Path Tracing, только отражения, GI и затенение. Все. На картинке что ты скинул полный Path Tracing, поэтому если лучшей не хватило, то изображение будет шумным и для этого используют шумодав. Шумодав при использовании трассировки в играх тоже используют, но он не связан с DLSS
P.S. Хоть сколько-нибудь полноценный path-tracing сейчас только в Minecraft и Quake RTX
Это опция лучше динимического разрешения, самая главная фича опции это для пк бояр 4к и для слабых карт, которым не хватает фпс, могут получить фпс на халяву при максималках. Бесплатно, так ещё во всех топ играх, тут ещё в варзону завозят. Так же ты можешь при возможности увеличить разрешение текстур (разрешение) от 100% до 200% и включить длсс, что бы не так смазывалась картинка в результате(если ты при фулхд/2к играешь и тебе надо 144попугая) ты сидишь и охуваешь от буста. Проекты в которые не добавляют в такие как скажем тот же дивижин, ас, и куча других. Писали об этом в редит, что им просто в падлу добавлять. А те же игры от юбиков, мы знаем их оптимизацию, для таких проектов длсс с играл бы в положительную сторону.
Мыло всеравно проступает
в 4х кратном увеличении да, ну еще с волосами артефакты заметны, ради двойной прибавки фпс я готов это потерпеть
Не только. Некоторые материалы с DLSS не вытягиваются в должным образом. Например в WD Legion фактура ткани на одежде. Нейронки просто пока не способны так точно апксейлить
У меня хорошее зрение и я не вижу никакой разницы по картинке. Я не хожу и нн всматриваюсь в камни и листья со снайперской винтовкой, правда.
С другой стороны у меня чувство, что фпс с длсс, это то, что все должны были получать из коробки, вне зависимости от поддержки железом технологии. Типо, сами спиздили, сами и отдают.
Пользуюсь DLSS и это реально революция в отличии другой маркетинговой хуеты )
Рендер в меньшем разрешении и развёртка нейросетью под твоё разрешение с помощью тензорных ядер, если я правильно понимаю.
потому что это относительно новая технология и работает она только на карточках NVIDIA
Внедряют потихоньку, DirectML Super Resolution был анонсирован полгода назад, но чем закончилось — не знаю.
Видеокарты уж сколько лет по такому принципу развиваются — зелёные выкатывает свою супер-пупер проприетарную технологию, все на неё хайпуют, через несколько лет AMD выкатывают свой вариант, делают его более доступным, открытым и в среднем похуже, но поезд хайпа уже уходит. Иногда открытая технология в итоге захватывает рынок засчёт дешевизны (FreeSync).
Сейчас мы на стадии «все хайпуют от DLSS».
Сейчас все на стадии "большинство сидят на "GTX 1060", потому что все что выше - "дорого, после покупки не останется даже на дошик, да и нет в продаже без оверпрайса".
А так как большинству 1060 хватает на каэсочку, дотку и танчики, то и дальше будут сидеть.
А очередная проприетарная технология, которой пользуются 3,5 элитария, опять и снова загнется - как только мощностя подрастут, и гипотетический GTX 6060 начнут покупать Подпивковичи для своих танчиков, взамен наконец сгоревшей из-за залития пивом 1060.
Я не Лиза Су, чтобы знать ответы на подобные вопросы. Мб когда нибудь красные и видюхи подтянут и дадут пизды nvidia, но пока...
Ну и зачем мне допиленные карты через 2 года
А у амд всё всегда с первого дня работает идеально? Зачем тогда они выпускают обновления дров? От нечего делать?
Зачем мне технология которая раком ставит топ карты?
Так тебе две технологии дают, одно ставит на колени, другая поднимает, в результате получается заметно лучше чем без них.
Ну амд слоупочная что поделать. Но они 100% поднимут дровами. За нвидию я не могу быть так уверен.
А можно мне обе технологии что бы нормально работали?
Upd: Я даже не уверен что именно сейчас стоит покупать карты нвидия, ибо хуанито ударит и через пол года выкатит Супер ультра карты.
Ну амд слоупочная что поделать.
Ну и зачем мне допиленные карты через 2 года когда я смогу взять условную rx 7000 серию?
За нвидию я не могу быть так уверен.
Да, ведь раньше никогда их дрова ничего не улучшали, тоже по приколу выпускают.
А можно мне обе технологии что бы нормально работали?
А нормально это как? Чтобы и честное глобальное освещение, и ультра настройки, и 4к, и фпс стабильный? Нет, нельзя. Зато можно что-то отдельно, например 4к и высокий фпс, или освещение и высокие настройки. На нвидии у тебя есть выбор, на амд нет (ну, формально есть, но когда от включения глобального у тебя фпс из 60 превращается в 30 с просадками, можно сказать, что толком выбора нет).
Я что то не припомню игр где у меня лучше карта становилась, после обновлений. Или так же или хуже.
Ну да слишком много компромиссов у нвидии стало. Выбор получить мыло с длсс или 30 фпс с освещением, ммм... спасибо за такой выбор. очередные технологии которые забудутся со временем. Как и с большинством разработок. хаирворксы всякие физиксы.
Или так же или хуже.
Имена, пароли, явки.
Выбор получить мыло с длсс или 30 фпс с освещением, ммм
Длсс на качестве рисует больше деталей чем нативная картинка, лол. Ну и да, в том месте где у нвидии будет 30фпс с лучами, у амд будет 15. Ну и да, никто не заставляет тебя включать лучи на полную. Ну и да, никто не заставляет тебя включать лучи вообще, если они тебе не нужны.
очередные технологии которые забудутся со временем
Масштабирование нейросетями показывало невероятное соотношение между качеством и производительностью задолго до того как зелёные притащили его в свои карточки. Если что и забудется, так это всякие фиделити и прочие шахматы.
физиксы
Физикс сейчас много где, только уже как составная часть, а не отдельная фича.
Зачем ты технологии которых у амд еще нету сравниваешь. Вот выйдут и будешь меряться. Меня интересует чистая производительность, а не всякие маневры от нвидии. + не во всех играх работает длсс, но заплатить я должен за ртх.
Физикс сейчас много где, только уже как составная часть, а не отдельная фича.
Амд че нить придумает и будет такой же общий стандарт для всех. Как с гсинк произошло, резко стал работать с технологий фрисинк.
Вот выйдут и будешь меряться.
Ну вот будут амд идти в ногу с индустрией, тогда и буду смотреть на карты амд.
Меня интересует чистая производительность
Нвидиа не хуже или лучше.
+ не во всех играх работает длсс, но заплатить я должен за ртх
Так у амд ты тоже за лучи платишь, они тоже там есть. Только работают как говно. Но платишь ты, почему-то, сопоставимую сумму.
Амд че нить придумает
Вот как придумает, так обязательно посмотрим, а пока имеем что имеем.
Ну вот будут амд идти в ногу с индустрией, тогда и буду смотреть на карты амд
Как будто я тебе убеждал купить амд.
Так у амд ты тоже за лучи платишь, они тоже там есть. Только работают как говно. Но платишь ты, почему-то, сопоставимую сумму.
Я чет не видел нигде, что бы мне впаривала амд лучи. Я в принципе уверен что все фичи что есть у нвидии можно реализовать на амд без сильной потери. Но тогда зачем нужна нвидия? 1,5 года прошло, а игр кот наплакал, да и те что есть на любителя.
Вот и получается что, вроде ты заплатил за технологии, а не пользуешься. Моя претензия больше вот к чему.
Как будто я тебе убеждал купить амд.
Как будто я тебя убеждал купить нвидиа.
Я чет не видел нигде, что бы мне впаривала амд лучи.
Ну так они там есть. И в цену они включены. А то, что о них не говорят на презентациях, так никто не будет говорить, мол, "у нас теперь тоже есть технология Х, только она в 1.5-2 раза хуже чем у конкурента".
Но тогда зачем нужна нвидия?
Затем, что у нвидии длсс и нормальные лучи есть, а у амд нет.
2 года прошло, а игр кот наплакал, да и те что есть на любителя.
Всё лучше, чем ничего.
Ну так они там есть. И в цену они включены. А то, что о них не говорят на презентациях, так никто не будет говорить, мол, "у нас теперь тоже есть технология Х, только она в 1.5-2 раза хуже чем у конкурента".
Ну дак оно будет работать просто потому что карта может, а не из за волшебных ртх ядер, слышь купи! Прям адепт нвидии.
Ну да лучше платить за воздух, как скажешь.
О чем ты?? Покупая карту с ртх 2080 ты получал более мощную карту чем прошлогодний гтх1080 , но при этом он ещё может в лучи и в длсс.
У меня сейчас Радеон 7 , и какие причины у меня для обновления на рх6700хт? Десяток процентов производительности , и возможно когда то в будущем лучи и длсс от амуде, когда обновление до 3080 мне уже гарантирует лучи, длсс и всякий софт на нейронках и этот же прирост производительности если не выше .
Я сторонник амд , у меня был фуфик до 2016 года , сейчас Рязань 3950х, купил Радеон 7 из лояльности к ним и отличного предложения по деньгам на тот момент , но их ГПУ объективно хуже чем у нвидиа,
Ну в плане 2 года и технологии использует каждый третий ааа релиз, вполне себе неплохо.
Мы говорим про технологии и выбор ГПУ , и нвидиа предлагает лучшее решение и там и там . Амд не предлагает ощутимо более дешёвой опции , рх6700хт сравнимая по цене и мощности с ртх3080 , в данный момент не имеет этих технологий , а голый фпс такой же , значит что мы выбираем? То что предлагает больший охват функций и возможностей. Даже когда амд сделают свои лучи далеко не факт что они будут такими же по качеству , далеко не факт что их будут активно использовать , и далеко не факт как это будет влиять на производительность, а нвидиа тебе уже даёт готовое решение .
Почему ты в принципе 6700 сравниваешь с 3080? Когда конкурент 3080 это 6800. Цена там +- одинаковая. Ну я выберу то что будет выгодно, а не где перделок больше, которые по сути бесполезны в старых играх. Учитывая какой хуанито кидок. Купишь карту через пол года тебе за такую же цену супер выкатят.
Ну так по такой логике вообще нет смысла покупать новое железо никогда.
6800хт стоил на 50 баксов дешевле ртх3080, имеет такую же производительность в рефе , но не имеет в данный момент РТ, длсс и нейроноки, и это уже сейчас , а ответ от амд будет когда то в будущем и мы даже не знаем как он будет работать. Разница 50 баксов.
Ну и сейчас мы имеем ртх в которых играет полтора рудокопа. И когда он станет прям доступный всем, непонятно. И небольшое кол-во игр, где есть длсс. Сейчас посмотрел CU 6800 стоит 800 евро и это сапфир нитро, и 3080 от гнилобайт за 920 евро. Уже и не 50 бачей выходит, а все 120 евриков. Все зависит от цены в России.
Зачем мне судить по цене в РФ, если я в ней не живу? Или Нвидиа должна ставить цену с поправкой на накрутку у барыг итд? Очевидно что на Нвидиа она больше, ибо это более узнаваемый бренд, я сужу по оффициально заявленой цене, так же как и гнилобайт более раскурченый бренд чем сапфир. Да и почему же ты цену на 6800 а не 6800хт смотришь? 6800 слабее ртх3080 и слабее почти во всех играх на процентов 8-20. Есть ряд игр где в рх6800 лучше результат правда это дрочильни от юбисофт, и то не все. Равной ртх3080 являеться 6800хт, а она ощутимо дороже в рефересе(в сравнение с 6800) а значит у вендров так же будет стоить. Просто я не могу понять контекст твоего спора.
Я человек какой сейчас сидит на рязане 3950х и радеон 7, я в целом амд фанат, но рыксы это обьективно более хреновое решение чем ртх, ты сэкономишь даже эти невероятные 120 евриков, ух конечно, спасибо не куплю десяток латте, но ты конкретно теряешь вещи какие потом не получишь, для меня это ускорение рендеринга 3д сцен порой до 50% в случае между радеон 7 и 2080, ибо радеон 7 проигрывает даже ебучей 2060 в ряде задач, для меня гпу это не только игрушечки катать, а 6800хт дает чуть больше 20% прироста к производительности стоковой радеон 7.
Смотри как для меня выглядит ситуация.
Обе карты хорошие, но ртх3080 предлагает мне +50% к скорости выполнения задач какие приносят мне деньги, и при не проигрывает рх6800хт в играх, даже исключая ртх и длсс в играх. И делает это за дополнительные даже ну пусть будет 200 евро. И это я не говорю про другие штуки типо нормального превью лучей при постройке сцены, ускорение нейронок постройки ланшафта и расчетов физики жидкостей за счет тензорных ядер итд, все это мелочи но каждая из них скажеться на моей работе только в плюс, а играть хуже я не буду, назови мне хоть одну причину почему для меня рх6800хт релевантна? перспективы на будущее?
Ты видимо с первого раза не понял что речь онли про игры. Зачем ты тогда что то доказывать стал? Если тебе для работы нужна пользуйся в чем проблема твоя? Мы говорили про игры, к чему ты простыню выкатал? Ну если ты готов платить за пшик в играх твое дело. Потому что я буду платить потенциально за карту, а не за обещания хуанга, о ретрейсинге который вот уже 2 года накидывает за щеку всем его картам. И длсс которая шакалит картинку.
3800
3080? Да, 3080 - ультрахайтек и мощнее, да и 4к нормально тянет, 6800 - не такой ультрахайтек, плюс АМД ещё и драйвера нормально подкатывать не умеют, постоянно какая-нибудь срань происходит, только нервов больше.
Вообще что та, что эта - обе такие, что я бы их не покупал ещё несколько лет, лол.
постоянно какая-нибудь срань происходит
https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/
фанатам любого бренда хоть в глаза ссы - все божья роса
у меня 2 раза (или больше) были карты АМД и постоянно на старте игр были траблы, то текстуры фиолетовые, то полигоны улетают в небо как небоскреб, через месяц другой они конечно фиксят. но на нвидии таких проблем не было, а если есть это скорее особенности сборки и взаимодействия софта на конкретных ПЕКА. на амд камне до сих пор вылетает синька если закрыть античит фейсит во время игры пабг, или если забыл выйти из фейсит античита и закрыл пабг. синька обеспечена
были карты
постоянно на старте игр были траблы
скорее особенности сборки и взаимодействия софта на конкретных ПЕКА
Есть, причём не только на сами модели нейросетей, а даже тупо на методы обучения нейросетей: https://patenton.ru/patent/RU2723270C1
Например, GPT-3 вон принадлежит конкретно OpenAI, и лицензию можно получить на её использование только от них.
Ну, на конкретные методы почему бы и нет, на то он и метод, лол. Какие-нибудь продвинутые методы арифметического кодирования тоже обложены патентами, что не помешало для av1 запилить свободное от них интервальное (из одной семьи с арифметическим). Проблема не столько в патентах, сколько в ресурсах.
Проблема не столько в патентах, сколько в ресурсах.
Ну, это очевидно, я скорее про само заявление "На нейросети нет патентов."
Например, GPT-3 вон принадлежит конкретно OpenAI, и лицензию можно получить на её использование только от них.
Если у тебя есть десяток миллионов баксов, куча ML-инженеров и похожая корпус текстов, то можно и свою GPT-3 сделать.
Вон сбер недавно свой GPT-2 делал и на хабре писал.
Но и модель то у неё будет другая, даже если она так же будет авторегрессионной языковой моделью, сделанной на Transformer.
Вон сбер недавно свой GPT-2 делал и на хабре писал.
Это была надстройка над GPT-2, которая, как бы, имеет открытый исходный код, если мне память не изменяет. То, что у них в итоге получилось вполне принадлежит им, даже если они за основу брали продукт с открытым исходным кодом.
На нейросети, как на концептуальный подход к проблеме масштабирования изображений, патентов нет. Мешает запилить своё именно отсутствие ресурсов, а не патенты, которые максимум не дали бы сделать также хорошо как у конкурентов, если бы инженеры амд додумались до чего-то, но это что-то оказалось запатентованным.
как на концептуальный подход к проблеме масштабирования изображений, патентов нет
Ну я про это и написал. ЛЮБОЙ подход будет представлен на конференции быстрее тупо потому, что патент — это дело не быстрое (минимум пара лет). Но, тем не менее, патенты на некоторые нейросети существуют.
https://www.amd.com/ru/technologies/radeon-software-fidelityfx
это вроде как нечто похожее
в xbox должен быть directml
dlss проприетарная технология nvidia и вряд ли будет доступна где-то еще в ближайшем будущем
Ничего вроде 🤔
https://www.amd.com/ru/technologies/vsr
Хотя у нее вроде обратный принцип работы, если я правильно понял, и не знаю почему ее многие называют аналогом 🙄
кто ее налогом DLSS называет
Даже не знаю...
https://dtf.ru/hard/255550-amd-ne-nazyvaet-dazhe-primernyh-srokov-vyhoda-super-resolution-analoga-dlss-dlya-videokart-radeon
https://overclockers.ru/blog/molexandr/show/43366/amd-testiruet-tehnologiju-super-resolution-analog-nvidia-dlss
https://3dnews.ru/1025995/amd-snova-poobeshchala-otkrituyu-alternativu-dlss-kotoraya-budet-rabotat-na-pk-konsolyah-gp-ot-intel-i-nvidia
https://www.ixbt.com/news/2020/11/06/nvidia-dlss-amd-super-resolution.html
https://www.tomshardware.com/news/amd-promises-open-source-fidelityfx-super-resolution-dlss-alternative