Intel XeSS — это технология с открытым исходным кодом, которая будет работать на видеокартах AMD и NVIDIA
XeSS основана на нейронных сетях и задействует XMX и DP4a инструкции. Последние доступны в том числе и на видеочипах «зелёных» из семейства Pascal GP102-106.
Анонсированный XeSS от Intel: технология масштабирования на основе AI, которая учитывает векторы движения (скорость) и историю предыдущих кадров. Данные обрабатываются инструкциями XeSS XMX, прежде чем достичь постобработки.
XeSS будет работать с инструкциями DP4a и XMX, которые присутствуют либо в уже выпущенных графических процессорах DG1 (Xe-LP), либо в грядущей серии Intel Xe-HPG (DG2) и не только.
XMX Matrix Engine — это строительный блок для ускорения ИИ на графических процессорах Arc из семейства Alchemist. Каждый чип DG2 будет иметь 16 матричных и 16 векторных движков.
Интеловское демо работает на ещё не вышедшем десктопном графическом ускорителе Arc Alchemist.
Краткое видео демонстрирует двукратный прирост производительности при задействованной в 4K технологии XeSS по сравнению с исходным 4K разрешением. Недурно, согласитесь.
Отрадно видеть, что XeSS от «синих» планируют открыть для всех желающих. Первоначальный план компании состоит в том, чтобы предложить SDK избранным разработчикам игр и игровых движков, а после всем остальным.
Intel официально подтвердила, что SDK версия XeSS на XMX будет доступна уже в конце этого месяца, а версия для DP4a выйдет позже в этом году.
Источник: VideoCardz
Комментарий недоступен
Всегда можно сослаться на пандемию.
Вне зависимости от обещаний.
Комментарий недоступен
Нвидия развивает технологию раньше всех на пару лет и получает за это... по наглой морде?
Они обещали что все игры полностью перейдут на рейтрейсингА Нвидия сама разрабатывает игры, чтобы такое обещать? Какая-то странная предява если честно.
А в чём, собственно, наглость Нвидии?
Ни разу с нвидиа такого не было и вот опять, даже скучно(
Ну так могут себе позволить, а Интел не могут, они новички в этой нише. Если вдруг Интел встанут рядом с Нвидиа, то сразу же быстро начнут клепать эксклюзивы, это неизбежно
Это хорошо, что на паскалях! Опять инвидия выглядит не в лучшем свете со своим дллс онли ртх!
Так длсс работает на тензорных ядрах. Гипотетически его можно запустить на старых видеокартах, да только фпс обрушится в нулину.
Такая вот технология, со своими плюсами и минусами.
Есть кстати занимательный факт про дллс. Пару лет назад вышел ролик у прохайтек. Где они запустили дллс на 1080ти. Они где то на зарубеном ресуре прочитали о такой возможности. И в игре Deliver Us the Moon им это удалось. Резултат был немного хуже чем на 2080, но всё же дллс заработал и даже была прибавка фпс не плохая! Ролик через несколько часов был удален, никаких объяснений не последовало от бородачей по этому поводу. Вот и думайте сами, мог ли Хуанг реализовать дллс на паскалях или он просто зажал эту возможность!
Последовало. Они там перепутали решарп unreal engine с dlss.Потом борода извинился в другом ролике. Ещё неудобно получилось, что представитель wargaming, их друг, в том ролике с серьезным лицом объяснял почему это работает. Фейл был.
А что думать? Технически запустить DLSS без тензорных ядер можно. Ознакомься с принципом работы технологии. Сам по себе апскейл не требует дополнительных ядер, потому что он работает по принципу TAA, которому никакие особые вычисления не нужны. Собственно, инженеры Nvidia и не скрывают, что DLSS — это, грубо говоря, TAAU. Тензорные ядра нужны технологии, чтобы избежать эвристических алгоритмов при очистке кадра от артефактов. И это важный шаг, потому что если ты посмотришь на то, как обычный TAAU достраивает изображение, увидишь кучу мыла, а в актуальных версиях DLSS его не просто нет — местами картинка дает большую детализацию, чем нативное разрешение.
https://www.youtube.com/watch?v=d5knHzv0IQE&list=LL&index=34
Такой бред пишешь.
Они тогда зафейлились и довольно быстро это признали.
Там ошибка помню была и они исправили это в перезалитом или врезкой в следующем видео.
О боже блять этот абсер бороды был удален так как он сам обосрался и хомячков своих говном накормил, это была работа штатного абскейлера ue, они дибилы даже фото прикрепили из этих фото и ясно было что не какой это не dlss а обычный встроенный ue абскейлер, а хомячки побежали в припрыжку включать dlss через блокнот ! Там были тесты 1660s rtx2080 и vega 64 вроде не суть, короче абскейлер выдал меньше кадров и хуже картинку естественно, я там его заспамил да и те кто проверяет инфу а не заглатывает за щеку сразу отписали, что это не dlss так как алгоритм работы был известен тогда, и он не мог работать на тех картах.
а NVIDIA что? Заголовок сводит меня с ума
Спасибо, пофиксил. (=
А на консолях интересно будет? Или только ПК?
Подозреваю, что если поддержку встроят на уровне движка, то и на консолях будет
на консолях это уже у АМД надо спрашивать
DX12 на Xbox точно есть.
Без железа от Интел? Ну очень вряд ли.
Может "на основе AI"? Вижу и оригинале "AI-based", но ничего про time)
Пофиксил. Спасибо, дело было вечером и вообще вот. (=
На первом скрине по моему чересчур зашакалили разрешение 1080.
Это зум оригинального кадра в 1080р, поэтому зашакален
Красавчики, технологии у интел всегда передовые, но интересно, чем же они будут выделять видеокрты на фоне остальных.
хунито придется dlss свой открывать для всех, интел без всяких тензорных ядер вон запускает на калькуляторах и ртх не нужон
Комментарий недоступен
Интел кекс/сексс. 👍🏻
Интел топ, пора уже составлять конкуренцию зелёным.
Интересный поворот делает 3д графика в играх)
Какая-то ошибка произошла и на первой пикче одно и то же изображение три раза поставили, исправьте плиз
Опять будет куча нылюдей которые купят вместо видеокарты некий арк... Сейчас в принципе если ты хочешь заниматься 3d или обработкой видео то ничего кроме nvidia лучше вообще не брать. И это плохо. Проблема не в том что люди в чем-то виноваты, а в том что никто кроме nvidia не выделяет бабла на улучшение интеграции с их продуктами.
Вау, это невероятно! А игры когда начнут выпускать?