Tecnologia

Vítimas de pornografia deepfake ganham ferramenta da Microsoft para limpar busca no Bing

A gigante de tecnologia Microsoft anunciou uma parceria para ajudar a remover imagens íntimas não consensuais — incluindo deepfakes
Imagem: Marco Verch/Reprodução

Com o surgimento de inteligência artificial generativa que consegue criar vídeos extremamente realistas o risco de desinformação por deepfake é maior. Pensando nisso, a gigante de tecnologia Microsoft anunciou uma parceria para ajudar a remover imagens íntimas não consensuais — incluindo deepfakes — de seu mecanismo de busca Bing.

Parceria da Microsoft contra deepfake

A parceria é com StopNCII, uma organização que permite que vítimas de pornografia de vingança criem uma impressão digital dessas imagens explícitas, reais ou não, em seus dispositivos. Aí então a Microsoft pode usar essa impressão digital, ou “hash”, como é tecnicamente conhecido, para limpar a imagem de suas plataformas.

Além do Bing, varias outras empresas de tecnologia concordaram em trabalhar com a StopNCII. A Meta utiliza a ferramenta em suas plataformas Facebook, Instagram e Threads. Outros serviços como Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse e Redgifs também já fecharam um acordo com a StopNCII.

Segundo a empresa, já tomou medidas em 268.000 imagens explícitas retornadas pela busca de imagens do Bing em um piloto até o final de agosto.

“Ouvimos preocupações de vítimas, especialistas e outras partes interessadas de que os relatórios de usuários por si só podem não ter impacto efetivo ou abordar adequadamente o risco de que as imagens possam ser acessadas por meio de pesquisa”, disse a Microsoft.

Algoritmo para identificar deepfake

Pesquisadores da Universidade de Drexel, da Filadélfia (EUA), desenvolveram um algoritmo chamado “MISLnet” que consegue detectar vídeos deepfake com uma precisão de 98%.

Em um estudo publicado em junho, os pesquisadores comentam sobre a dificuldade das ferramentas atuais para identificar vídeos gerados por IA. Ressaltando a necessidade de um método novo.

Assim, esse algoritmo, segundo o estudo, focou em um método de detecção de conteúdo falso gerado por IA que teria as mesmas características únicas de vídeos de IA generativa. Portanto, eles utilizaram algoritmos de machine learning, para identificar padrões sutis, ou “impressões digitais” em vídeos deepfake de IA generativa.

O MISLnet é um tipo de CNN. E demonstrou uma capacidade de adaptação impressionante, de acordo com os criadores.

Gabriel Andrade

Gabriel Andrade

Jornalista que cobre ciência, economia e tudo mais. Já passou por veículos como Poder360, Carta Capital e Yahoo.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas