_Apple

Apple reitera que recurso para detectar conteúdo de abuso infantil não será usado por governos

Empresa reforçou seu compromisso em não violar a privacidade dos demais usuários. Mas, na prática, talvez não funcione assim.

Imagem: Giuseppe Cacace/AFP (Getty Images)

Imagem: Giuseppe Cacace/AFP (Getty Images)

Após inúmeras críticas, a Apple se dobrou para defender seus planos de lançar ferramentas controversas destinadas a identificar e relatar material de abuso sexual infantil (ou CSAM) em suas plataformas.

Na semana passada, a empresa anunciou várias atualizações pendentes, descrevendo-as em uma postagem de blog intitulada “Proteção expandida para crianças”. Esses novos recursos, que serão lançados ainda este ano com o lançamento do iOS 15 e do iPadOS 15, são projetados para pesquisar e identificar materiais de abuso infantil nos dispositivos dos usuários — isso por meio de um conjunto de algoritmos. Uma dessas ferramentas vai escanear fotos no dispositivo que foram compartilhadas com o iCloud em busca de sinais de CSAM, enquanto outro recurso promete verificar mensagens enviadas para contas de crianças ou por menores de idade.

A Apple afirma que as novas medidas têm por objetivo impedir que menores compartilhem ou recebam mensagens que incluam imagens sexualmente explícitas. Só que a empresa mal teve tempo de anunciar seus planos na semana passada e já se deparou com dezenas de críticas, alguns vindas de organizações de liberdades civis. As ONGs caracterizaram as mudanças propostas como bem intencionadas, mas, no final das contas, podem abrir um precedente para algo perigoso envolvendo privacidade.

Nesta segunda-feira (9), a Apple publicou uma resposta a muitas das preocupações que foram levantadas. A empresa negou que suas ferramentas possam algum dia ser reaproveitadas para buscar outros tipos de material nos telefones e computadores dos usuários que não sejam CSAM. Os críticos temem que um governo, por exemplo, possa pressionar a Apple a adicionar ou alterar os novos recursos, tornando-os mais amplos no que diz respeito à aplicação da lei.

A Apple negou essa possibilidade:

“A Apple recusará tais demandas [de um governo]. A capacidade de detecção de CSAM da Apple é construída exclusivamente para detectar imagens CSAM conhecidas armazenadas nas fotos do iCloud que foram identificadas por especialistas e outros grupos de segurança infantil. Já enfrentamos demandas para construir e implantar mudanças impostas pelo governo que degradam a privacidade dos usuários antes e recusamos firmemente essas demandas. Continuaremos a recusá-las no futuro.”

Imagem: Alisina Elyasi/Unsplash

A Apple ainda esclareceu que os recursos estão sendo lançados apenas nos Estados Unidos — ao menos por enquanto. Embora algumas preocupações tenham sido levantadas sobre se um governo estrangeiro poderia corromper ou subverter essas novas ferramentas para empregá-las como uma forma de vigilância, a Apple disse que conduzirá cuidadosamente avaliações legais em cada país antes de lançar os mesmos recursos fora dos EUA, para garantir que não haja chance de abuso.

O que dizem os novos termos

Mesmo com pai explicações, muitas pessoas ainda podem ter dúvidas sobre como os recursos realmente vão funcionar e o que eles significam para privacidade e autonomia nos dispositivos da empresa. Listamos alguns dos principais pontos:

Apesar das garantias, defensores da privacidade e especialistas em segurança ainda não estão muito impressionados com as novidades — e alguns estão mais do que um pouco alarmados. Portanto, basta dizer que muitas pessoas ainda têm dúvidas. Estamos todos em um território bastante desconhecido e confuso aqui. Embora seja impossível esclarecer a missão da Apple, o poder da tecnologia que ela está implantando provocou, para dizer o mínimo, uma reação alarmante.

Sair da versão mobile