12 de noviembre de 2024
Nvidia ACE

Nvidia presenta los microservicios de NVIDIA Avatar Cloud Engine (ACE)

NVIDIA Avatar Cloud Engine (ACE) permitirá integrar modelos de IA en avatares

NVIDIA ha presentado hoy la producción de microservicios para NVIDIA Avatar Cloud Engine (ACE) que permite a los desarrolladores de juegos, herramienta y software intermedio (middleware) integrar modelos de IA vanguardistas en avatares digitales en sus juegos y aplicaciones.

Los nuevos microservicios ACE permiten a los desarrolladores construir avatares interactivos usando modelos de IA como NVIDIA Audio2Face  (A2F) que crean expresiones faciales de fuentes de audio, y NVIDIA Riva Automatic Speech Recognition (ASR) para construir conversaciones multilenguaje personalización y aplicaciones de traducción con IA generativa.

Entre los desarrolladores adoptando ACE están Charisma.AIConvaiInworldmiHoYoNetEase GamesOurpalmTencentUbisoft y UneeQ.

Keita Iida, vicepresidente de relaciones con desarrolladores en NVIDIA:

Las tecnologías de IA generativa están transformando prácticamente todo lo que hacemos, y eso incluye la creación de juegos y cómo los jugamos. NVIDIA Ace abre nuevas posibilidades para el desarrollo de juegos llenando los mundos de personajes digitales realistas a la vez que elimina la necesidad de diálogos pre guionizados, ofreciendo una mayor inmersión en los juegos.

Desarrolladores de juegos y avatares interactivos de primer nivel adoptan NVIDIA ACE

Desarrolladores de juegos y avatares interactivos de primer nivel están siendo pioneros en ACE y tecnologías de IA generativa que pueden usarse para transformar las interacciones entre jugadores y personajes no jugables (NPCs por sus siglas en inglés) en juegos y aplicaciones.

Tencent Games:

Es un hito para la IA en juegos. NVIDIA Ace y Tencent Games ayudarán a construir la base que permitirá crear avatares digitales con personalidades e interacciones únicas y realistas en videojuegos.

NVIDIA ACE hace que los personajes cobren vida

Los NPCs se han diseñado históricamente para dar respuestas predeterminadas y usar la misma animación facial. Esto limita las interacciones de los jugadores, que tienden a que estas relaciones breves sean meramente transaccionales y, por lo tanto, son ignoradas por la mayoría.

Purnedu Mukherjee, fundador y CEO de Convai:

«Los personajes de mundos virtuales con el poder de IA generativa desbloquean varios casos de uso y experiencias que antes eran imposibles. Convai está usando Riva ASR y A2F para hacer posibles NPCs realista con tiempos de respuesta cortos y animación natural de alta fidelidad.

Para mostrar cómo ACE puede transformar la interacción de NPCs, NVIDIA ha trabajado con Convai para expandir la demo NVIDIA Kairos, que debutó en Computex del año pasado, con un nuevo número de funciones y la inclusión de los microservicios de ACE.

En la última versión de Kairos, Riva ASR y A2F se usan cada vez más, mejorando la interacción con los NPC. El nuevo framework de Convai ahora permite que los NPCs conversen entre ellos y darles conocimiento de los objetos, permitiéndoles coger y dar objetos en diferentes áreas. Además, los NPCs ganan la habilidad de ayudar a los jugadores con sus metas y viajes por los diferentes mundos.

Los microservicios de Audio2Face y Riva Automatic Speech Recognition ya están disponibles. Los desarrolladores de avatares interactivos pueden incorporar los modelos de manera individual en sus flujos de desarrollo.

Fuente: nota de prensa de Nvidia via Ziran.

Foto del avatar

Blansi

Administrador web. No me complico, me gusta jugar, pero especialmente juegos que emulen aquella fantástica época de finales de los 90s y principios de los 2000.

Ver todas las entradas de Blansi →

Deja una respuesta