Компания Nvidia расширяет сферы применения технологий искусственного интеллекта в игровой разработке. Компания анонсировала сервис ACE (Avatar Cloud Engine) для оживления неигровых персонажей (NPC) с помощью генеративных языковых моделей ИИ. Инструменты ACE позволяют добавить возможности общения с персонажами, не требуя заранее прописанного диалога.

В представленном демо Kairos показано общение с персонажем, который осмысленно отвечает на вопросы, опираясь на прописанную предысторию. Все его ответы сгенерированы ИИ.

Технология разработана совместно со стартапом Convai. Очевидно, что Nvidia ACE имеет большие перспективы в играх с большими мирами и большим количеством персонажей.

Nvidia ACE использует платформу Nvidia Omniverse с применением дополнительных модулей. Nvidia NeMo используется для создания, настройки и развертывания языковых моделей. Большие языковые модели можно настроить с помощью базы знаний и предысторий персонажей, а также защитить от небезопасных разговоров с помощью NeMo Guardrails. Для автоматического распознавания речи и преобразования текста в речь используется Nvidia Riva.

Технология Nvidia Omniverse Audio2Face используется для мгновенного создания выразительной анимации лица игрового персонажа, соответствующей речевой дорожке. Audio2Face можно интегрировать напрямую в  MetaHuman (Unreal Engine 5) для создания лицевой анимации.

Технология Audio2Face уже используется игровыми разработчиками. Заявлено, что GSC Game World берет технологию на вооружение для разработки S.T.A.L.K.E.R. 2: Heart of Chernobyl. Студия Fallen Leaf использует Audio2Face для анимации лиц персонажей в Fort Solis, научно-фантастическом триллере от третьего лица.

Источник:
Videocardz.com