TikTok libera relatório de transparência, mas deixa de lado questões de privacidade
O TikTok tem tido uma existência de altos e baixos. Desde 2018 o aplicativo ganha popularidade com conteúdos divertidos. Ao mesmo tempo tem sofrido com escrutínio internacional: foi banido na Índia, um dos seus maiores mercados, e agora está sendo assombrado pela possibilidade de ser barrado nos Estados Unidos.
O aplicativo já resistiu a uma boa quota de ações coletivas e está sendo investigado pelo Departamento de Justiça dos EUA com o argumento de que pode representar um risco à segurança nacional. O que parecia ser uma plataforma para vídeos bobinhos e engraçados tem se tornado assunto de relevância política e de privacidade.
Evidentemente que nada disso foi abordado no 3º relatório de transparência do TikTok que foi publicado nesta quinta-feira (9). Em vez disso, a companhia afirma que uma das maiores ameaças à segurança na plataforma são adolescentes e seus conteúdos malucos.
“O TikTok é construído na fundação da expressão criativa”, diz o relatório. “Sentir-se seguro ajuda as pessoas a se sentirem confortáveis para se expressarem abertamente, o que permite que a criatividade floresça. É por isso que nossa principal prioridade é promover uma experiência segura e positiva para todos na TikTok.”
Manter a plataforma segura e protegida, segundo eles, começa por “abordar comportamentos e conteúdos problemáticos”. No último semestre do ano passado, a empresa relatou ter retirado cerca de 50 milhões de vídeos em todo o mundo (49.247.689, para ser mais precisa) por violar as diretrizes comunitárias ou termos de serviço da plataforma.
Os algoritmos de moderação de conteúdo de TikTok supostamente capturaram cerca de 98% desses clipes antes de serem reportados por outros usuários, e cerca de 89% desses vídeos foram alegadamente tirados antes que alguém tivesse a chance de vê-los.
Ou dito de outra forma: pouco mais de 5 milhões de vídeos passaram por esses algoritmos e apareceram em nossos feeds antes que a empresa entrasse em ação e retirasse o clipe.
Antes de o governo indiano banir o TikTok e dezenas de outros apps chineses sobre supostas questões de segurança e privacidade em junho, o país era o maior mercado externo do TikTok, o que significa que grande parte do conteúdo proibido aconteceu por lá.
Como o relatório aponta, pouco menos de 16,5 milhões de retiradas de conteúdo aconteceram na Índia – um número bem maior do que nos EUA, que representa o segundo país em que mais conteúdos foram removidos. Os usuários americanos publicaram 4,5 milhões de conteúdos proibidos durante este tempo, superando o Paquistão, Reino Unido e Rússia.
Essas retiradas de conteúdo não refletem ações do TikTok em si, mas dos usuários – principalmente os adolescentes que são meio bobos e cheios de maldade na cabeça. O relatório só oferece dados detalhados das retiradas de dezembro de 2019, mas pintam um bom quadro das prioridades da plataforma:
Durante o mês de dezembro, 25,5% dos vídeos que tiramos estavam na categoria de nudez adulta e atividades sexuais.
Por uma abundância de precauções para a segurança das crianças, 24,8% dos vídeos que removemos violaram nossas políticas de segurança para menores, que incluem conteúdos que retratam comportamentos prejudiciais, perigosos ou ilegais de menores, como o uso de álcool ou drogas, bem como conteúdos mais sérios que tomamos medidas imediatas para remover, encerrar contas e reportar ao NCMEC (Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA) e às autoridades policiais conforme apropriado.
Conteúdo contendo atividades ilegais e mercadorias regulamentadas constituíram 21,5% das retiradas.
Além disso, 15,6% dos vídeos removidos violaram nossa política de suicídio, automutilação e atos perigosos, o que reflete principalmente nossa remoção de desafios perigosos.
Apenas para recapitular: o sexting – consensualmente ou não – representou cerca de 25% das remoções. Outros 25% estavam relacionados a adolescentes que se vangloriam de usar cigarros eletrônicos ou coisas do tipo.
“Atividades ilegais e bens regulamentados”, pela definição do TikTok, também se traduz para o uso e compra de drogas, juntamente com “brincadeiras” e qualquer “como fazer” envolvendo “atividades ilegais”, o que, segundo a definição de TikTok, constituía cerca de 20% das remoções.
Um pouco mais do que 15% foi em grande parte a remoção do que eles chamam de “desafios perigosos” – coisas como botar fogo em si mesmo ou colocar um preservativo na cabeça para conseguir uns likes.
Provavelmente não estou dando crédito suficiente ao TikTok por seus problemas, já que os conteúdo removidos não são criados apenas por adolescentes, mas por predadores sexuais, traficantes de drogas e clipes que podem incitar alguém ao suicídio. Mas este relatório não deixa essa distinção clara.
Sem isso, e pelo fato de a maior parte do público do TikTok ser constituído por menores de 18 anos, vale a pena assumir que a grande maioria desses casos – que somam cerca de 87% do total de remoções da plataforma – atingem mais os adolescentes.
Isso faz com que o resto de suas proibições pareça quase nada:
Dos vídeos restantes removidos, 8,6% violaram nossa política de conteúdo violento e gráfico; 3% caíram sob nossa política de assédio e bullying; e menos de 1% continham conteúdo que violava nossas políticas de discurso de ódio, integridade e autenticidade, e indivíduos e organizações perigosos.
O TikTok, como quase todas as outras redes sociais, conta com o apoio de uma inteligência artificial imperfeita, com revisores humanos igualmente imperfeitos, para fazer este trabalho sujo de remoção.
E, como qualquer outra plataforma, eles estão lutando com o fato de que o discurso do ódio é muito difundido e muito difícil de ser capturado de formas automatizadas.
Para cada seis vezes que o relatório cita “segurança”, a privacidade é mencionada apenas uma vez, e apenas em um pequeno parágrafo que descreve a “ampla gama de configurações de privacidade” disponíveis para adolescentes em uma plataforma que, vale a pena repetir aqui, está sob escrutínio internacional sobre os dados que coleta.
Os TikTokers podem tornar suas contas privadas ou desativar sua função de mensagens ou bloquear um seguidor, de acordo com o documento. Uma parte importante que é omitida aqui é que o app não tem ferramentas para deletar dados de uso.