Nvidia и Remedy использовали нейросети для создания лицевой анимации
Для этого понадобился специальный сервер с восемью видеопроцессорами.
Об этом сообщает Ars Technica.
Разработчикам Max Payne, Alan Wake и Quantum Break с помощью производителя видеопроцессоров удалось упростить один из самых дорогостоящих и трудных процессов в разработке игр — анимацию и захват движений. Тестирование проводилось на ежегодной конференции по вопросам компьютерной графики SIGGRAPH.
Для этого использовалась самообучающаяся нейросеть, запущенная на сервере DGX-1 от Nvidia. У сотрудников Remedy получилось с помощью кадров с живыми актёрами создать сложную 3D-анимацию лица. По их мнению это поможет сократить время «трудоёмкого преобразования данных и их исправлений».
Обе компании считают, что их технология способна приблизиться, а может быть и стать лучше традиционных способов создания анимации, как вручную, так и с помощью захвата движений. Remedy и Nvidia также утверждают, что по результатам тестов для создания анимации можно использовать даже аудиоклипы, а не видео. В таком случае технология создаёт различные выражения лиц, которые не могут быть точно выявлены по записи. Анимацию затем можно изменить и исправить вручную.
Чтобы получить результат, в нейросеть сначала загружается определённая информация о предыдущих анимациях, созданных Remedy. Затем, по словам сотрудников компании, необходим только небольшой видеоролик (от пяти до десяти минут), по которому сеть создаёт похожую 3D-анимацию, которая почти не требует никаких правок от аниматоров.
На конференции Nvidia также продемонстрировала новую технологию, которая с помощью нейросети определяет «лесенки» на краях игровых объектов и сглаживает их. В результате компания получает более «резкую» картинку, чем с помощью других типов сглаживания. Помимо этого Nvidia использовала нейронную сеть для ускорения сложного рендеринга трассировки лучей, с помощью её обучения поиску их наиболее полезных путей.
За нейросетью будущее!
Это очень круто. Ретаргет лицевой анимации - большая проблема.