Pesquisadores usam inteligência artificial para criar personagens de videogame que se movem de maneira mais realística
Os jogos de videogame mais recentes dão aos jogadores mais liberdade para explorar mundos digitais complexos. Por isso, é cada vez mais desafiador para um personagem gráfico criado em computador se mover e interagir naturalmente com tudo que existe virtualmente ao seu redor. Portanto, para evitar essas transições lamentáveis entre movimentos pré-programados, os pesquisadores recorreram à inteligência artificial e ao deep learning para fazer com que os personagens se movam de uma maneira quase tão realística quanto os humanos.
Para ajudar os personagens a andar, correr, pular e executar outros movimentos da maneira mais realista possível, os desenvolvedores geralmente se baseiam em performances humanas, que são capturadas e traduzidas para personagens digitais.
Isso produz resultados mais rápidos e mais bonitos do que fazer as animações manualmente, mas é impossível planejar todas as maneiras possíveis de um personagem interagir com o mundo digital, de acordo com os pesquisadores.
Os desenvolvedores tentam planejar o maior número de possibilidades, mas, no final das contas, precisam confiar no software para fazer a transição entre, por exemplo, as animações de um personagem andando até uma cadeira e, em seguida, sentando-se nela. Na maioria das vezes, esses segmentos parecem toscos e antinaturais, o que pode atrapalhar a experiência de quem está jogando.
Cientistas da computação da Universidade de Edimburgo e da Adobe Research trouxeram uma nova solução que será apresentada na conferência ACM Siggraph Asia, realizada em Brisbane, na Austrália, no próximo mês. E, como muitas inovações que surgiram antes, ela envolve alavancar as capacidades das redes neurais de aprendizado profundo para suavizar os engasgos de animação que os videogames exibem atualmente.
Para criar os vídeos deepfake convincentes, mas perturbadores, que estão por toda a internet agora, uma rede neural é treinada primeiro estudando o rosto de uma determinada pessoa (geralmente uma celebridade) de todos os ângulos possíveis e com todas as expressões imagináveis usando um banco de dados de dezenas de milhares de fotos na cabeça do sujeito. É um processo demorado, mas, com esse conhecimento, é possível criar automaticamente trocas de rosto de modo que elas pareçam inacreditavelmente realistas.
Uma abordagem semelhante está sendo adotada para esta pesquisa. No entanto, em vez de treinar uma rede neural em um banco de dados de rostos, ela estuda uma coleção de movimentos capturados e digitalizados de um artista ao vivo em um palco. Para obter os melhores resultados, é necessário um banco de dados de movimentos bastante grande para o sistema analisar, com um ator passando pelos movimentos de pegar objetos, escalar coisas ou sentar-se em uma cadeira.
Mas essa variedade não precisa incluir todas as possibilidades, pois a rede neural pode pegar o que aprendeu e adaptar a praticamente qualquer situação ou ambiente. Assim, ela produz resultados e movimentos com aparência natural, de acordo com os pesquisadores. Isso preenche as lacunas entre o movimento de andar até a cadeira, diminuir a velocidade, virar o corpo e depois sentar, mas, ao mesmo tempo, vincular inteligentemente todos esses movimentos e animações para ocultar as costuras.
Existem outras vantagens em ensinar aos videogames como os personagens devem se mover e interagir com as coisas, em vez de pré-animar esses movimentos, como ajudar a reduzir o tamanho dos arquivos dos jogos e a quantidade de dados que precisam ser processados e compartilhados.
Isso vai se tornar ainda mais relevante à medida que o streaming de jogos ficar mais popular. Essa abordagem também abre caminho para interações mais complexas entre os personagens de videogame. Com que frequência você vê mais de dois personagens acabando brigando? Nunca, exceto em cenas pré-animadas. Assim, quem sabe a próxima versão do Red Dead Redemption não possa finalmente incluir brigas reais em bares?