Apple reitera que recurso para detectar conteúdo de abuso infantil não será usado por governos

Empresa reforçou seu compromisso em não violar a privacidade dos demais usuários. Mas, na prática, talvez não funcione assim.
Imagem: Giuseppe Cacace/AFP (Getty Images)
Imagem: Giuseppe Cacace/AFP (Getty Images)

Após inúmeras críticas, a Apple se dobrou para defender seus planos de lançar ferramentas controversas destinadas a identificar e relatar material de abuso sexual infantil (ou CSAM) em suas plataformas.

Na semana passada, a empresa anunciou várias atualizações pendentes, descrevendo-as em uma postagem de blog intitulada “Proteção expandida para crianças”. Esses novos recursos, que serão lançados ainda este ano com o lançamento do iOS 15 e do iPadOS 15, são projetados para pesquisar e identificar materiais de abuso infantil nos dispositivos dos usuários — isso por meio de um conjunto de algoritmos. Uma dessas ferramentas vai escanear fotos no dispositivo que foram compartilhadas com o iCloud em busca de sinais de CSAM, enquanto outro recurso promete verificar mensagens enviadas para contas de crianças ou por menores de idade.

A Apple afirma que as novas medidas têm por objetivo impedir que menores compartilhem ou recebam mensagens que incluam imagens sexualmente explícitas. Só que a empresa mal teve tempo de anunciar seus planos na semana passada e já se deparou com dezenas de críticas, alguns vindas de organizações de liberdades civis. As ONGs caracterizaram as mudanças propostas como bem intencionadas, mas, no final das contas, podem abrir um precedente para algo perigoso envolvendo privacidade.

Nesta segunda-feira (9), a Apple publicou uma resposta a muitas das preocupações que foram levantadas. A empresa negou que suas ferramentas possam algum dia ser reaproveitadas para buscar outros tipos de material nos telefones e computadores dos usuários que não sejam CSAM. Os críticos temem que um governo, por exemplo, possa pressionar a Apple a adicionar ou alterar os novos recursos, tornando-os mais amplos no que diz respeito à aplicação da lei.

A Apple negou essa possibilidade:

“A Apple recusará tais demandas [de um governo]. A capacidade de detecção de CSAM da Apple é construída exclusivamente para detectar imagens CSAM conhecidas armazenadas nas fotos do iCloud que foram identificadas por especialistas e outros grupos de segurança infantil. Já enfrentamos demandas para construir e implantar mudanças impostas pelo governo que degradam a privacidade dos usuários antes e recusamos firmemente essas demandas. Continuaremos a recusá-las no futuro.”

Imagem: Alisina Elyasi/Unsplash

Imagem: Alisina Elyasi/Unsplash

A Apple ainda esclareceu que os recursos estão sendo lançados apenas nos Estados Unidos — ao menos por enquanto. Embora algumas preocupações tenham sido levantadas sobre se um governo estrangeiro poderia corromper ou subverter essas novas ferramentas para empregá-las como uma forma de vigilância, a Apple disse que conduzirá cuidadosamente avaliações legais em cada país antes de lançar os mesmos recursos fora dos EUA, para garantir que não haja chance de abuso.

O que dizem os novos termos

Mesmo com pai explicações, muitas pessoas ainda podem ter dúvidas sobre como os recursos realmente vão funcionar e o que eles significam para privacidade e autonomia nos dispositivos da empresa. Listamos alguns dos principais pontos:

  • Curiosamente, o iCloud precisa ser ativado para que o recurso de detecção de CSAM funcione. Segundo a Apple, apenas o conteúdo salvo em nuvem será monitorado pela nova ferramenta. Os críticos apontaram que isso tornaria extremamente fácil para os abusadores explorarem o recurso, já que tudo o que eles teriam que fazer para ocultar o conteúdo CSAM em seus telefones seria optar por sair do iCloud. Mesmo assim, a Apple acredita que o sistema será sim eficaz;
  • A Apple não montará um banco de dados de pornografia infantil em seu iPhone. Outro ponto que a empresa foi forçada a esclarecer é que não fará, de fato, o download do CSAM real em seu dispositivo. Em vez disso, está usando um banco de dados de “hashes” — impressões digitais de imagens de abuso infantil específicas e conhecidas, que são representadas como código numérico. Esse código será carregado no sistema operacional do telefone, o que permite que as imagens enviadas para a nuvem sejam comparadas automaticamente com os hashes no banco de dados;
  • O iCloud não estará apenas digitalizando novas fotos, mas sim todas as imagens. Além de digitalizar fotos que serão enviadas para o iCloud no futuro, a Apple também planeja digitalizar todas as fotografias atualmente armazenadas em seus servidores em nuvem;
  • A Apple afirma que a atualização do iMessage não compartilha nenhuma informação com a empresa ou com autoridades. De acordo com a Apple, o recurso atualizado do iMessage não compartilha nenhuma de suas informações pessoais com a própria companhia, nem alerta as autoridades. Em vez disso, ele enviará o alerta para um pai se seu filho enviou ou recebeu uma imagem por mensagem de texto que o algoritmo da Apple considerou de natureza sexual. O recurso está disponível apenas para contas que foram configuradas como famílias no iCloud.

Assine a newsletter do Giz Brasil

Apesar das garantias, defensores da privacidade e especialistas em segurança ainda não estão muito impressionados com as novidades — e alguns estão mais do que um pouco alarmados. Portanto, basta dizer que muitas pessoas ainda têm dúvidas. Estamos todos em um território bastante desconhecido e confuso aqui. Embora seja impossível esclarecer a missão da Apple, o poder da tecnologia que ela está implantando provocou, para dizer o mínimo, uma reação alarmante.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas