Чат с RTX — это демонстрационное приложение, которое позволяет вам персонализировать GPT large language model (LLM), подключенную к вашему собственному контенту - документам, заметкам, видео или другим данным. Используя генерацию с расширенным поиском (RAG), TensorRT-LLM и ускорение RTX, вы можете спрашивать чат-бота, и быстро получать контекстуально релевантные ответы. А поскольку все это выполняется локально на вашем ПК с Windows RTX или рабочей станции, вы получите быстрые и безопасные результаты.
Даже не эксклюзив 5000 серии, Хуанга похитили
А что кроме генерации кадров эксклюзив? Буквально все технологии nvidia работают на всех картах rtx, самый последний dlss 3.5 работает на всех картах, лучи работают на всех картах.
То есть миллион разных версий, технологий, которые работают на всех картах, но стоит вспомнить генерацию кадров, обвести её огромным кружком и плясать вокруг этого.
Сейчас единственный локальный ИИ работает через установку паскаля и прочие костыли, и при этом весьма долго грузит независимо от системы, причём исключительно картинки и в низком разрешении, а тут полноценный ИИ, который работает локально, причём шерстит по всему интернету. В данный момент это крайне прорывная версия ИИ, дак ещё и действительно мощности твоего пк будут влиять на скорость результата. И поверь на 50й серии результат будет намного лучше как собственно и должно быть
Комментарий недоступен
А есть скриншоты сравнения с RTX и без?
А то так не понятно.
тоже интересует этот вопрос