Efeito colateral: app Lensa sensualiza imagens de mulheres em excesso

Aplicativo de criação de avatares tem recebido reclamações de mulheres que relatam sexualização de suas imagens
lensa sexualização de mulheres
Imagem: Melissa Heikkilä/Lensa

O aplicativo Lensa, de 2018, ganhou popularidade nos últimos tempos, enchendo as timelines das redes sociais de avatares de inteligência artificial, inclusive de celebridades como Ivete Sangalo. Mas denúncias recentes apontaram que o app parece ter uma tendência a sensualizar imagens femininas.

No início de dezembro, mulheres usuárias do Lensa perceberam que o recurso “Magic Avatar”, do aplicativo, criava imagens semi-pornográficas ou sexualizadas de forma involuntária.

Para a CNN, a jornalista Zoe Sottile escreveu: “Um dos desafios que encontrei no aplicativo foi descrito por outras mulheres online. Embora todas as imagens que carreguei estivessem totalmente vestidas e principalmente closes do meu rosto, o aplicativo retornou várias imagens com nudez implícita ou real”.

Outro relato surpreendente é o da pesquisadora de investigação crítica da internet do centro da Universidade da Califórnia em Los Angeles (UCLA), Olivia Snow, que revelou à WIRED que o aplicativo retornou imagens nuas à sua semelhança até mesmo em suas fotos de criança.

Snow considera que tecnologias de IA como a da Lensa podem ser usadas para gerar “pornografia de vingança”. Ou seja, fazer imagens nuas de alguém sem seu consentimento.

O mesmo problema não acontece em imagens masculinas no aplicativo. Para a MIT Technology Review, Melissa Heikkilä escreveu que seus avatares “eram caricaturalmente pornificados”, enquanto os de seus colegas homens “eram astronautas, exploradores e inventores”.

Stable Diffusion: a tecnologia do Lensa

Segundo o Ars Technica, o Lensa utiliza o modelo de síntese de imagem Stable Diffusion, cujo comportamento vem das imagens encontradas em seu conjunto de dados de treinamento de imagem, proveniente da internet.

O CEO da Prisma Labs, Andrey Usoltsev, declarou ao TechCrunch que: “Nem nós, nem a Stability AI poderíamos aplicar conscientemente qualquer viés de representação; para ser mais preciso, os dados não filtrados feitos pelo homem obtidos online introduziram o modelo aos vieses existentes da humanidade. Os criadores reconhecem a possibilidade de preconceitos sociais. Nós também.”

“Estamos no processo de construção do filtro NSFW. Ele efetivamente desfocará todas as imagens detectadas como tal”, continuou Usoltsev, se referindo ao termo em inglês not safe for work (não seguro para o trabalho), gíria para links com pornografia, violência e outros assuntos impróprios para o ambiente de trabalho.

Isabela Oliveira

Isabela Oliveira

Jornalista formada pela Unesp. Com passagem pelo site de turismo Mundo Viajar, já escreveu sobre cultura, celebridades, meio ambiente e de tudo um pouco. É entusiasta de moda, música e temas relacionados à mulher.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas