Nvidia представила Chat with RTX - свой аналог ChatGPT, который работает локально.

Демо модели весит 35 ГБ и доступно бесплатно всем владельцам видеокарт RTX 3000 или 4000 серии.

Пользовательский интерфейс модели
25K25K показов
12K12K открытий
11 репост

Даже не эксклюзив 5000 серии, Хуанга похитили

Ответить

Так это демо, на 5к серии фулл будет

Ответить

А что кроме генерации кадров эксклюзив? Буквально все технологии nvidia работают на всех картах rtx, самый последний dlss 3.5 работает на всех картах, лучи работают на всех картах.
То есть миллион разных версий, технологий, которые работают на всех картах, но стоит вспомнить генерацию кадров, обвести её огромным кружком и плясать вокруг этого.
Сейчас единственный локальный ИИ работает через установку паскаля и прочие костыли, и при этом весьма долго грузит независимо от системы, причём исключительно картинки и в низком разрешении, а тут полноценный ИИ, который работает локально, причём шерстит по всему интернету. В данный момент это крайне прорывная версия ИИ, дак ещё и действительно мощности твоего пк будут влиять на скорость результата. И поверь на 50й серии результат будет намного лучше как собственно и должно быть

Ответить

Соглы, я нахуя коплю на 5090ти? Если там не будет эксклюзивных фич, то это бан.

Ответить