NVIDIA представила новую игровую технологию под названием ACE (Avatar Cloud Engine), которая базируется на искусственном интеллекте и предназначена для интеграции в NPC (неигровых персонажей). Компания опубликовала видео, на котором показала, как это все работает.
Таким образом, ACE поможет разработчикам генерировать уникальное поведение, голос и диалоги для NPC в играх. К примеру, в опубликованном ролике показали взаимодействие с неигровым персонажем Джином. Он способен распознавать речь и на основе сказанного генерировать уникальные ответы. Выглядит все это довольно интересно и перспективно.
ACE базируется на платформе NVIDIA Omniverse, которая включает в себя различные модули. Среди них есть Audio2Face, который позволяет улучшить создание реалистичной анимации лица во время диалога.
Некоторые игры уже используют существующие технологии генеративного искусственного интеллекта NVIDIA. К примеру, GSC Game World внедряет Audio2Face в S.T.A.L.K.E.R. 2: Heart of Chornobyl.
За распознавание речи отвечает модуль Riva, а для создания предыстории и личности персонажа, который должен соответствовать игровому миру, используется NeMo.
Напомним, ранее NVIDIA показала, как ее новые технологии позволяют получить ультра-реалистичный уровень графики в играх.
на этом если верить их сайту. Сборная солянка которая вся вместе дает некий результат живого общения
А какой смысл от всего этого если персонаж не будет способен как то взаимодействовать с миром при общении с игроком. Не будет знать о лоре игры и происходящем больше чем пропишут разработчики, что бы просто пообщаться тогда это в чат VR нужнее и то если кто то предпочтет не по онлайну играть
О-о, я только за, если в играх будут крутые и интересные диалоги, надеюсь, в будущем эту тему хорошо так разовьют!)
Внедрят кучу скриптов, которые будут воспроизводиться от выбранных слов, да и все