Claudia, a jovem criada por IA, fatura vendendo nudes na internet
Dois estudantes de ciências da computação ganharam quase US$ 100 – o equivalente a cerca de R$ 500 – ao vender nudes de Claudia, uma jovem de 19 anos com cabelos escuros, olhos verdes e totalmente criada por IA (inteligência artificial).
Segundo os criadores, que pediram para não ser identificados, todas as imagens de Claudia foram geradas por mecanismos como o Midjourney e Stable Diffusion.
Tudo começou como uma piada, quando leram que um homem ganhou US$ 500 ao vender fotos de mulheres reais. Eles, então, decidiram descobrir se alguém pagaria por fotos de uma mulher fake. E conseguiram.
Em entrevista à revista Rolling Stone, eles contam que arrecadaram cerca de US$ 100 apenas com a venda de nudes até que editores do Reddit denunciassem a conta. Agora, eles seguem postando obscenidades em outros fóruns – e esperam faturar mais dinheiro.
“Para aqueles que não sabem, vou colocar um fim na sua fantasia”, escreveu um usuário em um dos posts de Claudia. “Isso é literalmente uma criação de IA. Se você trabalhou com modelos de imagem de IA e fez o seu próprio por tempo suficiente, pode acusar isso com 10.000% de precisão”.
[deleted by user]
by inFaces
“Você poderia dizer que toda essa conta é apenas um teste para ver se você pode enganar as pessoas com imagens de IA”, disseram os criadores. Segundo os estudantes, Claudia “nasceu” no Stable Diffusion a partir de comandos de texto como “sem maquiagem, cabelo preto, fundo simples e franja”.
Alerta sobre deepfake
Claudia é apenas uma entre várias imagens de mulheres criadas para abastecer a indústria do entretenimento adulto. A criação abre a discussão sobre o uso de IA para vender nudes e gerar pornografia deepfakes – técnica que cria imagens explícitas falsas de forma tão convincente que parecem reais.
Na maioria das vezes, deepfakes substituem o rosto de personagens em vídeos já existentes pelo de outra pessoa. A tecnologia espelha até as expressões faciais que existem no conteúdo original para o “novo rosto” colocado artificialmente.
Atrizes, como Emma Watson e Scarlet Johansson, streamers e até mulheres anônimas já viram seus rostos “colocados” em vídeos pornográficos dos quais nunca fizeram parte ou consentiram participar.
Um estudo da empresa holandesa Sensity, que detecta mídia sintética online, estima que 96% das deepfakes são usadas para pornografia. Na grande maioria dos casos, os conteúdos envolvem mulheres que não consentiram ter suas imagens envolvidas nesse tipo de material.