Nvidia представила Chat with RTX - свой аналог ChatGPT, который работает локально.

Демо модели весит 35 ГБ и доступно бесплатно всем владельцам видеокарт RTX 3000 или 4000 серии.

Пользовательский интерфейс модели
153153

Большая языковая модель, работающая локально, это потенциально очень круто.
Это важный шаг к "живым" нпс в играх.

38
Ответить

а потом НПС будет жить в твоем компьютере и заставлять развиваться

5
Ответить

Так же уже есть локальные LLM — LM Studio клиент для установки.

4
Ответить

Я не хочу разговаривать с "живыми" нпс в играх, для этого есть реальная жизнь

Ответить

Теперь придется выбирать DLSS или ChatRTX
Или купить 5000 серию где будет Х2 ядер

Ответить

На самом деле уже относительно давно можно было запускать. Даже на обычном CPU (но очень медленно) их специальным образом подрезают и они начинают весить по 4-6гб. Но работают всё равно неплохо

Ответить