A NVIDIA anunciou hoje (8) microsserviços de produção para o NVIDIA Avatar Cloud Engine (ACE) que permitem aos desenvolvedores de jogos, ferramentas e middleware integrarem modelos de IA generativas de última geração aos avatares digitais em seus jogos e aplicativos.
Os novos microsserviços ACE permitem que os desenvolvedores criem avatares interativos usando modelos de IA, como o NVIDIA Audio2Face (A2F), que cria animações faciais expressivas a partir de fontes de áudio, e NVIDIA Riva Automatic Speech Recognition (ASR), para criar aplicativos personalizáveis de fala e tradução multilíngues usando recursos generativos de IA.
Os desenvolvedores que utilizam o NVIDIA ACE incluem: Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft e UneeQ.
“As tecnologias de IA generativa estão transformando praticamente tudo o que fazemos, e isso também inclui a criação e a jogabilidade de jogos”, disse Keita Iida, vice-presidente de relações com desenvolvedores da NVIDIA. “NVIDIA ACE abre novas possibilidades para desenvolvedores de jogos ao preencher seus mundos com personagens digitais realistas, ao mesmo tempo que elimina a necessidade de diálogos pré-programados, proporcionando maior imersão no jogo.”
Principais desenvolvedores de jogos e avatares interativos adotam NVIDIA ACE
Os principais desenvolvedores de jogos e avatares interativos são pioneiros nas maneiras pelas quais as tecnologias ACE e IA generativa podem ser usadas para transformar as interações entre jogadores e personagens não jogáveis (NPCs) em jogos e aplicativos.
“Este é um momento marcante para a IA nos jogos”, disse a Tencent Games. “O NVIDIA ACE e a Tencent Games ajudarão a estabelecer as bases que trarão avatares digitais com personalidades e interações individuais e realistas para os videogames.”
NVIDIA ACE dá vida aos personagens do jogo
Os NPCs foram historicamente projetados com respostas e animações faciais predeterminados. Isso limitava as interações dos jogadores, que tendiam a ser transacionais, de curta duração e, como resultado, ignoradas pela maioria dos jogadores.
“Personagens generativos alimentados por IA em mundos virtuais desbloqueiam vários casos de uso e experiências que antes eram impossíveis”, disse Purnendu Mukherjee, fundador e CEO da Convai. “A Convai está aproveitando Riva ASR e A2F para permitir NPCs realistas com tempos de resposta de baixa latência e animação natural de alta fidelidade.”
Para mostrar como o ACE pode transformar as interações entre NPCs, a NVIDIA trabalhou com a Convai para expandir a demonstração NVIDIA Kairos, que estreou na Computex, com uma série de novos recursos e inclusão de microsserviços ACE.
Na versão mais recente do Kairos, Riva ASR e A2F são amplamente utilizados, melhorando a interatividade do NPC. A nova estrutura de Convai agora permite que os NPCs conversem entre si e lhes dá consciência dos objetos, permitindo-lhes coletar e entregar itens nas áreas desejadas. Além disso, os NPCs ganham a habilidade de conduzir os jogadores aos objetivos e atravessar mundos.
Os microsserviços Audio2Face e Riva Automatic Speech Recognition já estão disponíveis. Os desenvolvedores de avatares interativos podem incorporar os modelos individualmente em seus pipelines de desenvolvimento.
Confira mais conteúdos abaixo:
- The Last of Us não ganha nenhum prêmio no Globo de Ouro 2024
- OD, exclusivo do Xbox, será projeto totalmente diferente de tudo que já vimos, afirma Kojima
- Análise | The Lords of the Fallen
- Hi-Fi Rush pode ser lançado para Nintendo Switch em 2024, segundo rumores
Por fim, não deixe de acompanhar a Manual dos Games nas redes sociais no Facebook, Instagram, Twitter e Youtube para receber os conteúdo em primeira mão.