Este app que identifica nudes no seu celular precisa de uma aula de anatomia

Existe um novo aplicativo que usa aprendizado da máquina para vasculhar imagens explicitas do rolo de câmera do seu celular. A proposta do Nude é arquivar todas essas fotos picantes para uma uma pasta disponível apenas para você, além de lhe ajudar a deletá-las tanto do celular quanto do iCloud. Mas algoritmos ainda não são […]

Existe um novo aplicativo que usa aprendizado da máquina para vasculhar imagens explicitas do rolo de câmera do seu celular. A proposta do Nude é arquivar todas essas fotos picantes para uma uma pasta disponível apenas para você, além de lhe ajudar a deletá-las tanto do celular quanto do iCloud. Mas algoritmos ainda não são muito bons em detectar nuances do comportamento humano – e depois de deixar o Nude investigar as minhas fotos, suspeito que o algoritmo nunca nem tenha visto um corpo nu antes.

Deixando claro, eu mandei aplicativo para uma missão impossível, já que eu não tenho nenhuma foto abertamente explicita de mim ou de parceiros passados salvas no meu celular. Mas quando permiti que o aplicativo acessasse minhas fotos, notei algumas estranhas opções que foram adicionadas a pasta de nudes:

Levou cerca de 30 minutos para o algoritmo analisar as minhas quase 2.000 fotos.  O teor sexual de algumas das imagens é discutível – como um ator sem camisa, uma mulher fazendo topless (cujos seios estão cobertos com o braço), e uma captura de tela da aba Explorar do Instagram que mostra um homem excitado.

Mas muitas das imagens adicionadas a pasta não fariam corar nem mesmo o mais puritano ser humano. Como uma captura de tela de Grace Kelly em Ladrão de Casaca. Ou alguns cãezinhos. Ou um tweet da Michelle Obama. Ou uma foto minha quando bebê. Ou imagens do Rami Malek na praia. Ou um donut.

Os criadores do app, Jessica Chiu e Y.C. Chen, contam ao Verge que o algoritmo foi treinado com sites como o Pornhub, coletando mais de 30 milhões de imagens, mas o serviço ainda não é perfeito em detectar imagens explicitas. Entramos em contato com o Nude para entender porque o aplicativo acha que estas imagens mencionadas acima são categorizadas como conteúdo explícito.

“Quando o assunto é a sensitividade da detecção de uma nude, nos precavemos”, disse Chen em um email para o Gizmodo. “Sempre existirão falsos positivos, e estamos aprendendo capturando todas as possibilidades em vez de falhar na detecção de um algumas. Dito isso, recomendamos que usuários atualizem o iPhone para o iOS 11 antes de instalar o app. O CoreML provou ser o mais preciso quando roda nosso modelo de aprendizado da máquina, mas, infelizmente, a Apple só tornou possível utilizar o CoreML no iOS 11”. Testamos o aplicativo em um iPhone 6s com o iOS 11.

Certamente existe uma necessidade de tanto armazenar conteúdo sensível quanto uma maneira de detectar este mesmo conteúdo. Mas serviços como o Nude não serão efetivos se eles não conseguem distinguir que um tweet da antiga Primeira Dama dos EUA não se encaixa na mesma categoria que fotos de pinto.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas