NVIDIA y los desarrolladores crean personajes digitales de gran realismo para juegos y aplicaciones con NVIDIA ACE

 Los microservicios NVIDIA ACE debutan con modelos de IA generativa que cambiarán la forma de interactuar con los avatares digitales


NVIDIA ha lanzado recientemente microservicios de producción para su motor de la Nube de Avatares de NVIDIA (ACE), permitiendo a los desarrolladores de juegos, herramientas y middleware integrar modelos de inteligencia artificial generativa de última generación en los avatares digitales de sus aplicaciones y juegos.

Estos nuevos microservicios ACE brindan a los desarrolladores la capacidad de crear avatares interactivos utilizando avanzados modelos de IA, como NVIDIA Audio2Face™ (A2F), que genera animaciones faciales expresivas a partir de fuentes de audio, y NVIDIA Riva Automatic Speech Recognition (ASR), para crear aplicaciones personalizables de habla y traducción multilingüe utilizando IA generativa.

Algunos de los desarrolladores que ya han adoptado ACE incluyen a Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft y UneeQ.

Keita Iida, vicepresidente de relaciones con los desarrolladores en NVIDIA, destaca que las tecnologías de IA generativa están transformando la creación de juegos y la jugabilidad. ACE abre nuevas posibilidades al permitir a los desarrolladores poblar sus mundos con personajes digitales realistas y eliminar la necesidad de diálogos preestablecidos, ofreciendo así una mayor inmersión en el juego.

Principales desarrolladores de juegos y avatares interactivos están liderando la adopción de ACE y tecnologías de IA generativa para transformar las interacciones entre jugadores y personajes no jugables (PNJ) en juegos y aplicaciones.

Tencent Games considera este momento como clave para la IA en los juegos, afirmando que NVIDIA ACE y Tencent Games sentarán las bases para llevar a los videojuegos avatares digitales con personalidades e interacciones individuales y realistas.

NVIDIA ACE está revolucionando la vida de los personajes de los juegos. Históricamente, los PNJ se diseñaban con respuestas y animaciones faciales predeterminadas, limitando las interacciones con los jugadores. Con ACE, los PNJ pueden ahora ofrecer respuestas realistas con tiempos de respuesta de baja latencia y animaciones naturales de alta fidelidad, lo que amplía significativamente las posibilidades de interacción en mundos virtuales.

Convai, por ejemplo, está utilizando los microservicios ACE, Riva ASR y A2F, para permitir que los PNJ conversen entre ellos, tengan conocimiento de los objetos, recojan y entreguen objetos en ubicaciones específicas, guíen a los jugadores hacia objetivos y naveguen por los mundos.

Los microservicios Audio2Face y Riva Automatic Speech Recognition ya están disponibles, permitiendo a los desarrolladores de avatares interactivos incorporar estos modelos individualmente en sus procesos de desarrollo.



Publicar un comentario

 
Copyright © No Soy Gamer. Gracias a OddThemes | Blogger