O aplicativo Lensa, de 2018, ganhou popularidade nos últimos tempos, enchendo as timelines das redes sociais de avatares de inteligência artificial, inclusive de celebridades como Ivete Sangalo. Mas denúncias recentes apontaram que o app parece ter uma tendência a sensualizar imagens femininas.
No início de dezembro, mulheres usuárias do Lensa perceberam que o recurso “Magic Avatar”, do aplicativo, criava imagens semi-pornográficas ou sexualizadas de forma involuntária.
Para a CNN, a jornalista Zoe Sottile escreveu: “Um dos desafios que encontrei no aplicativo foi descrito por outras mulheres online. Embora todas as imagens que carreguei estivessem totalmente vestidas e principalmente closes do meu rosto, o aplicativo retornou várias imagens com nudez implícita ou real”.
Outro relato surpreendente é o da pesquisadora de investigação crítica da internet do centro da Universidade da Califórnia em Los Angeles (UCLA), Olivia Snow, que revelou à WIRED que o aplicativo retornou imagens nuas à sua semelhança até mesmo em suas fotos de criança.
Snow considera que tecnologias de IA como a da Lensa podem ser usadas para gerar “pornografia de vingança”. Ou seja, fazer imagens nuas de alguém sem seu consentimento.
O mesmo problema não acontece em imagens masculinas no aplicativo. Para a MIT Technology Review, Melissa Heikkilä escreveu que seus avatares “eram caricaturalmente pornificados”, enquanto os de seus colegas homens “eram astronautas, exploradores e inventores”.
Stable Diffusion: a tecnologia do Lensa
Segundo o Ars Technica, o Lensa utiliza o modelo de síntese de imagem Stable Diffusion, cujo comportamento vem das imagens encontradas em seu conjunto de dados de treinamento de imagem, proveniente da internet.
O CEO da Prisma Labs, Andrey Usoltsev, declarou ao TechCrunch que: “Nem nós, nem a Stability AI poderíamos aplicar conscientemente qualquer viés de representação; para ser mais preciso, os dados não filtrados feitos pelo homem obtidos online introduziram o modelo aos vieses existentes da humanidade. Os criadores reconhecem a possibilidade de preconceitos sociais. Nós também.”
“Estamos no processo de construção do filtro NSFW. Ele efetivamente desfocará todas as imagens detectadas como tal”, continuou Usoltsev, se referindo ao termo em inglês not safe for work (não seguro para o trabalho), gíria para links com pornografia, violência e outros assuntos impróprios para o ambiente de trabalho.