Будущее видеоигр с искусственным интеллектом: все начинается с того, что персонаж перепрыгивает через коробку

На конференции разработчиков игр 2025 года производитель графических чипов Nvidia продемонстрировал свои новейшие инструменты, которые используют генеративный искусственный интеллект для улучшения будущих игр.

Будущее видеоигр с искусственным интеллектом: все начинается с того, что персонаж перепрыгивает через коробку

Ранее в этом месяце на собственной выставке GTC AI show в Сан-Хосе, Калифорния, производитель графических чипов Nvidiaпредставила множество партнерских соглашений и анонсов для своих продуктов и платформ с генераторным искусственным интеллектом. В то же время в Сан-Франциско Nvidia провела за закрытыми дверями демонстрацию наряду с Конференцией разработчиков игр, чтобы показать гейммейкерам и СМИ, как ее технология искусственного интеллекта может улучшить видеоигры будущего.

В прошлом году на выставке Nvidia GDC 2024 были проведены практические демонстрации, где я смог поговорить с неиграбельными персонажами на базе искусственного интеллекта, или NPC, в псевдо-беседах. Они отвечали на то, что я набирал, с помощью достаточно контекстуальных ответов (хотя и не таких естественных, как по сценарию). Искусственный интеллект также радикально модернизировал старые игры, придав им современный графический вид.

В этом году на выставке GDC 2025 Nvidia снова пригласила представителей индустрии и прессу в гостиничный номер рядом с Moscone Center, где проходила конференция. В большой комнате, окруженной компьютерным оборудованием, оснащенным новейшими графическими процессорами GeForce 5070, 5080 и 5090, компания продемонстрировала геймерам новые способы, с помощью которых генеративный искусственный интеллект переделывает старые игры, предлагает новые возможности для аниматоров и развивает взаимодействие с NPC.

Nvidia также продемонстрировала, как ее новейшая технология рендеринга графики с искусственным интеллектом, DLSS 4 для линейки графических процессоров, улучшает качество изображения, траекторию света и частоту кадров в современных играх - функции, которые влияют на геймеров каждый день, хотя эти усилия Nvidia более традиционны, чем другие ее эксперименты. Хотя некоторые из этих достижений зависят от студий, которые внедряют новые технологии в свои игры, другие доступны геймерам прямо сейчас.

Будущее видеоигр с искусственным интеллектом: все начинается с того, что персонаж перепрыгивает через коробку

Создание анимации из текстовых подсказок

Nvidia представила новый инструмент, который генерирует анимацию моделей персонажей на основе текстовых подсказок - вроде того, как если бы вы могли использовать ChatGPT в iMovie, чтобы персонажи вашей игры перемещались в соответствии со сценарием. Цель? Сэкономьте время разработчиков. Использование этого инструмента может превратить программирование нескольких часов в задачу продолжительностью в несколько минут.

Body Motion, как называется инструмент, можно подключить ко многим платформам создания цифрового контента; старший менеджер по продуктам Nvidia Джон Маласка, который запускал мою демонстрацию, использовал Autodesk Maya. Чтобы начать демонстрацию, Маласка создал примерную ситуацию, в которой он хотел, чтобы один персонаж перепрыгнул через коробку, приземлился и двинулся вперед. На временной шкале сцены он выбрал момент для каждого из этих трех действий и написал текстовые подсказки, чтобы программное обеспечение сгенерировало анимацию. Затем пришло время поработать.

Геймплей сгенерировано в Luma KolerskyAI

Чтобы усовершенствовать свою анимацию, он использовал движение тела для создания четырех различных вариантов прыжков персонажа и выбрал тот, который хотел. (Все анимации созданы на основе лицензированных данных motion capture, сказал Маласка.) Затем он указал, где именно он хотел, чтобы персонаж приземлился, а затем выбрал, где он хотел, чтобы они оказались в конечном итоге. Движение тела смоделировало все кадры между этими тщательно выбранными точками поворота движения, и boom: анимационный сегмент достигнут.

В следующем разделе демо-версии у Маласки тот же персонаж прошел через фонтан, чтобы добраться до лестницы. Он мог редактировать с помощью текстовых подсказок и маркеров временной шкалы, чтобы заставить персонажа красться и обходить приспособления во дворе.

"Мы в восторге от этого", - сказал Маласка. "Это действительно поможет людям ускорить рабочие процессы".

Он указал на ситуации, когда разработчик может получить анимацию, но хочет, чтобы она работала немного по-другому, и отправляет ее обратно аниматорам для редактирования. Сценарий, требующий гораздо больше времени, был бы гораздо более трудоемким, если бы анимация основывалась на реальном захвате движения, и если игра требует такой точности, восстановление записи актеров mocap могло бы занять дни, недели или месяцы. Настройка анимации с движением тела на основе библиотеки данных захвата движения может обойти все это.

Я бы не хотел беспокоиться за художников по захвату движения и о том, можно ли использовать движение тела, чтобы частично или полностью обойти их работу. К счастью, этот инструмент можно было бы с пользой использовать для создания анимационных и виртуально раскадровочных эпизодов, прежде чем привлекать профессиональных художников к съемке завершенных сцен. Но, как и любой инструмент, все зависит от того, кто им пользуется.

Body Motion планируется выпустить позже в 2025 году по лицензии Nvidia Enterprise.

Еще один шаг к ремастерингу Half-Life 2 с использованием RTX Remix

На прошлогодней GDC я видел ремастеринг Half-Life 2 с платформой Nvidia для моддеров, RTX Remix, которая призвана вдохнуть новую жизнь в старые игры. Последняя попытка Nvidia возродить классическую игру Valve была выпущена для широкой публики в виде бесплатной демо-версии, которую геймеры могут скачать в Steam, чтобы проверить своими глазами. То, что я увидел в пресс-центре Nvidia, в конечном итоге было технической демонстрацией (а не полной версией игры), но она по-прежнему демонстрирует, что RTX Remix может сделать для обновления старых игр, чтобы соответствовать современным ожиданиям от графики.

Прошлогодняя демонстрация RTX Remix Half-Life 2 была посвящена тому, как старые плоские текстуры стен можно обновить эффектами глубины, чтобы, скажем, придать им вид затертых булыжников, и это присутствует и здесь. Когда смотришь на стену, "кажется, что кирпичи выступают, потому что в них используется отображение параллаксной окклюзии", - сказал Найл Усмани, старший менеджер по продуктам RTX Remix, который руководил демонстрацией. Но демонстрация этого года была больше посвящена взаимодействию со светом - вплоть до имитации тени, проходящей через стекло, закрывающее циферблат газового счетчика.

Будущее видеоигр с искусственным интеллектом: все начинается с того, что персонаж перепрыгивает через коробку

Усмани познакомил меня со всеми световыми и огненными эффектами, которые модернизировали некоторые из наиболее знаковых частей fallen Ravenholm в Half-Life 2. Но самое поразительное применение было в области, где атакуют культовые враги-хедкрабы, когда Усмани сделал паузу и указал на то, как подсветка проникает сквозь мясистые части гротескных псевдо-зомби, из-за чего они светятся полупрозрачным красным, очень похоже на то, что происходит, когда вы подносите палец к фонарику. Одновременно с GDC Nvidia выпустила этот эффект, называемый подповерхностным рассеянием, в комплекте для разработки программного обеспечения, чтобы разработчики игр могли начать его использовать.

Будущее видеоигр с искусственным интеллектом: все начинается с того, что персонаж перепрыгивает через коробку

В RTX Remix есть и другие трюки, на которые указал Усмани, например, новый нейронный шейдер для последней версии платформы - тот, что в демо-версии Half-Life 2. По сути, объяснил он, набор нейронных сетей тренируется в режиме реального времени на игровых данных во время игры и адаптирует непрямое освещение к тому, что видит игрок, делая освещенные области более похожими на реальные. В качестве примера он поменял местами старую и новую версии RTX Remix, показав в новой версии, как свет правильно проникает через сломанные стропила гаража. Что еще лучше, частота кадров в секунду увеличилась с 87 до 100.

"Традиционно мы отслеживали луч и отбрасывали его много раз, чтобы осветить комнату", - сказал Усмани. "Теперь мы отслеживаем луч и отбрасываем его всего два-три раза, а затем завершаем его, и ИИ делает вывод о множестве отскоков после. На протяжении достаточного количества кадров система как будто вычисляет бесконечное количество отскоков, так что мы можем добиться большей точности, потому что она отслеживает меньше лучей [и получает] большую производительность ".

Тем не менее, я видел демонстрацию на графическом процессоре RTX 5070, который продается за 550 долларов, и для демонстрации требуется как минимум RTX 3060 Ti, так что владельцам видеокарт старше этой модели не повезло. "Это исключительно потому, что трассировка путей очень дорогая - я имею в виду, что это будущее, по сути, передовые технологии, и это самая продвинутая трассировка путей", - сказал Усмани.

Будущее видеоигр с искусственным интеллектом: все начинается с того, что персонаж перепрыгивает через коробку

Nvidia ACE использует искусственный интеллект, чтобы помочь неигровым игрокам думать

Прошлогодняя NPC AI station продемонстрировала, как неигровые персонажи могут уникальным образом реагировать на игрока, а технология Nvidia ACE в этом году показала, как игроки могут предлагать неигровым персонажам новые идеи, которые изменят их поведение и жизнь вокруг них.

Производитель графического процессора продемонстрировал технологию как подключенную к InZoi, игре, похожей на Sims, в которой игроки заботятся о NPC с их собственным поведением. Но с предстоящим обновлением игроки могут включить Smart Zoi, который использует Nvidia ACE для того, чтобы вкладывать мысли непосредственно в умы Zoi (персонажей), за которыми они наблюдают... а затем наблюдать за их соответствующей реакцией. Эти мысли не могут противоречить их собственным чертам, объяснила аналитик по технологическому маркетингу Nvidia Geforce Уинн Риаван, поэтому они направят Zoi в нужном направлении.

"Итак, поощряя их, например, "Я хочу сделать people's day приятнее", это побудит их общаться с большим количеством Zois вокруг них", - сказал Риаван. "Ключевое слово "Попробовать": они все равно терпят неудачу. Они такие же, как люди ".

Риаван вложил мысль в голову Зои: "Что, если я всего лишь искусственный интеллект в симуляции?" Бедняжка Зои перепугалась, но все равно побежала в общественный туалет почистить зубы, что соответствует ее, по-видимому, пристрастию к гигиене зубов.

Действия NPC, следующие за мыслями игрока, управляются небольшой языковой моделью с полумиллиардом параметров (большие языковые модели могут включать от 1 миллиарда до более чем 30 миллиардов параметров, причем более высокие дают больше возможностей для детальных ответов). Тот, который используется в игре, основан на модели Minitron Mistral NeMo с 8 миллиардами параметров, уменьшенной для использования более старыми и менее мощными графическими процессорами.

"Мы намеренно уменьшаем модель до меньших размеров, чтобы она была доступна большему количеству людей", - сказал Риаван.

Технология Nvidia ACE работает на устройстве с использованием компьютерных графических процессоров - Krafton, издатель InZoi, рекомендует использовать минимальную спецификацию графического процессора Nvidia RTX 3060 с 8 ГБ виртуальной памяти для использования этой функции, сказал Риаван. Krafton выделила Nvidia "бюджет" в один гигабайт видеопамяти, чтобы обеспечить видеокарте достаточно ресурсов для рендеринга графики. Отсюда необходимость минимизировать параметры.

Nvidia все еще обсуждает внутри компании, как разблокировать возможность использования языковых моделей с большими параметрами, если у игроков более мощные графические процессоры. Игроки, возможно, смогут увидеть разницу, поскольку NPC "действительно реагируют более динамично, поскольку они лучше реагируют на ваше окружение с помощью более крупной модели", - сказал Риаван. "Прямо сейчас, при этом, акцент делается в основном на их мыслях и чувствах".

Ранняя версия функции Smart Zoi для доступа будет доступна всем пользователям бесплатно, начиная с 28 марта. Nvidia рассматривает ее и технологию Nvidia ACE как ступеньку, которая однажды может привести к появлению по-настоящему динамичных NPC.

"Если у вас MMORPG с Nvidia ACE, NPC не будут стоять на месте и просто повторять один и тот же диалог - они могут просто быть более динамичными и генерировать свои собственные ответы, основанные на вашей репутации или чем-то еще. Типа, эй, ты плохой человек, я не хочу продавать тебе свои товары ", - сказал Риаван.

4
1
7 комментариев