_Apple

Apple trabalha em sistema para identificar imagens de abuso infantil no iPhone

A causa é nobre, mas pode abrir um precedente que coloca em cheque a privacidade de todos os usuários.

Imagem: Victoria Song/Gizmodo

Imagem: Victoria Song/Gizmodo

A Apple deve anunciar em breve uma nova ferramenta para ajudar a identificar fotos com possível abuso infantil no iPhone. O recurso deve utilizar uma “função de correspondência neural” para detectar se as imagens no dispositivo de um usuário correspondem às impressões digitais de material de abuso sexual infantil conhecido (CSAM, na sigla em inglês).

Embora não tenha sido confirmada pela Apple, a notícia foi revelada pelo especialista em segurança Matthew Green, professor associado do Instituto de Segurança da Informação Johns Hopkins. Green é uma fonte confiável que já escreveu sobre os métodos de privacidade da Apple ao longo dos anos. Inclusive, ele trabalhou com a empresa no passado para corrigir uma falha de segurança no iMessage.

“Tive a confirmação independente de várias pessoas de que a Apple lançará ainda esta semana uma ferramenta do lado do cliente para digitalização CSAM. Mas essa é uma ideia ruim”, destacou Green em seu perfil no Twitter. “Essas ferramentas permitirão que a Apple escaneie as fotos do seu iPhone em busca de imagens que correspondam a um hash perceptivo específico e as relate aos servidores da Apple se muitos deles aparecerem”, completou.

É aí que entra um detalhe importante. Apesar de parecer que a Apple levou em consideração a privacidade do usuário, também existem preocupações de que a tecnologia pode abrir a porta para o uso indevido não intencional, especialmente quando se trata de vigilância.

O centro da questão é que, mesmo que várias empresas de tecnologia, incluindo a Apple, tenham adicionado criptografia de ponta a ponta a seus serviços e produtos, vários governos se opõem a essa ferramenta. O argumento é que a criptografia dificulta a aplicação da lei nas tentativas de reprimir conteúdo ilegal, como pornografia infantil. De acordo com Green, um “compromisso” é usar essas tecnologias de digitalização no “lado do cliente” ou no telefone antes de serem enviadas e criptografadas na nuvem.

Green também afirma que a versão da Apple não seria inicialmente usada em imagens criptografadas, apenas na biblioteca de fotos do seu iPhone se (e somente se) você tiver o backup do iCloud habilitado. Em outras palavras: o recurso digitalizaria apenas fotos que já estão nos servidores da Apple. No entanto, Green também questiona por que a Apple se esforçaria para projetar esse tipo de sistema se não tivesse planos eventuais de usá-lo para conteúdo criptografado de ponta a ponta.

O especialista do Instituto Johns Hopkins aponta que esse tipo de tecnologia tem um propósito nobre — identificar criminosos —, porém gera consequências de longo alcance e pode ser potencialmente mal utilizada. Por exemplo, usuários mal-intencionados poderiam criar imagens inofensivas que se enquadram no sistema de detecção de pornografia infantil da Apple. Logo, isso poderia abrir um precedente que dificultaria ainda mais autoridades de realizar investigações sem ajuda da Apple, uma vez que a companhia raramente quebra a criptografia de seus produtos.

Sair da versão mobile