Anistia Internacional apresenta dados mostrando como o Twitter tem falhado em policiar abuso na plataforma

Nove meses depois que a Anistia Internacional pediu que o Twitter fosse mais transparente sobre abusos em sua plataforma, a organização publicou outro estudo indicando que o site ainda tem um problema de abuso online grave, e isso afeta esmagadoramente as mulheres de cor. Embora as descobertas não sejam surpreendentes se você estiver a par […]
Getty

Nove meses depois que a Anistia Internacional pediu que o Twitter fosse mais transparente sobre abusos em sua plataforma, a organização publicou outro estudo indicando que o site ainda tem um problema de abuso online grave, e isso afeta esmagadoramente as mulheres de cor.

Embora as descobertas não sejam surpreendentes se você estiver a par do discurso na plataforma nos últimos anos, ver os números frios e concretos é um lembrete decepcionante da realidade infernal do Twitter. O estudo, conduzido em conjunto com a empresa de softwares Element AI, descobriu que as mulheres negras eram 84% mais propensas do que as brancas a serem incluídas em um tuíte abusivo ou problemático. “Um em cada dez tweets mencionando mulheres negras era abusivo ou problemático”, escreve a Anistia, “em comparação com um em cada quinze para mulheres brancas”.

Para conduzir o estudo, mais de 6.500 voluntários de 150 países passaram por 228 mil tweets enviados a 778 mulheres políticas e jornalistas nos EUA e no Reino Unido no ano passado. No total, os pesquisadores estimam que, ao longo do ano, um tuíte problemático ou abusivo foi enviado às voluntárias a cada 30 segundos, em média.

“O relatório descobriu que, como empresa, o Twitter está falhando em sua responsabilidade de respeitar os direitos das mulheres online ao não investigar adequadamente e responder a denúncias de violência e abuso de maneira transparente, que levam muitas mulheres a se silenciarem ou se censurarem na plataforma”, escreve a Anistia.

As conclusões mais importantes do chamado “Projeto de Patrulha de Trolls” da Anistia não são necessariamente a toxicidade desenfreada do Twitter, que tem sido uma base negativa do site durante anos. Mas eles acrescentam dados obtidos com muito esforço à crítica de que o Twitter ainda não consegue lidar com seus piores usuários, o que, por sua vez, impacta negativamente as pessoas mais marginalizadas em sua plataforma.

De acordo com o estudo, as mulheres de cor estavam 34% mais propensas do que as mulheres brancas a serem mencionadas em um tuíte abusivo ou problemático. Ele também descobriu que um total de 7% dos tuítes que mencionam mulheres jornalistas eram problemáticos ou abusivos, em comparação com 7,12% dos tuítes que mencionam políticas mulheres. E os tuítes considerados nesse estudo sequer incluem os excluídos ou de contas suspensas ou desativadas no ano passado — provavelmente os exemplos piores e mais flagrantes.

“Por meio da pesquisa de crowdsourcing, fomos capazes de acumular evidências vitais em uma fração do tempo que levaria para que um pesquisador da Anistia o fizesse, sem perder o julgamento humano que é tão essencial ao olhar para o contexto em torno dos tuítes”, disse Milena Marin, consultora sênior de Pesquisa Tática na Anistia Internacional, em um comunicado.

A Anistia define tuítes abusivos como aqueles que “incluem conteúdo que promove violência ou ameaças a pessoas com base em sua raça, etnia, origem nacional, orientação sexual, gênero, identidade de gênero, afiliação religiosa, idade, deficiência ou doença grave”, que podem incluir “ameaças físicas ou sexuais, desejos de dano físico ou morte, referência a eventos violentos, comportamento que incite medo ou calúnias repetidas, epítetos, tropos racistas e sexistas ou outro conteúdo que degrade alguém”.

Tuítes problemáticos, por outro lado, “contêm conteúdos ofensivos ou hostis, especialmente se repetidos a um indivíduo em várias ocasiões, mas não necessariamente atingem o limite do abuso” e “podem reforçar estereótipos negativos ou prejudiciais contra um grupo de indivíduos (por exemplo, estereótipos negativos sobre uma raça ou pessoas que seguem uma determinada religião)”.

Como aponta a Anistia, tuítes abusivos violam as políticas do Twitter, mas os problemáticos são mais complexos e nem sempre infringem as políticas da empresa. A organização ainda assim decidiu incluí-los nesse estudo porque, segundo ela, “é importante destacar a amplitude e a profundidade da toxicidade no Twitter em suas várias formas e reconhecer o efeito cumulativo que o conteúdo problemático pode ter sobre a capacidade das mulheres de se expressarem livremente na plataforma”.

Vijaya Gadde, chefe jurídica e política do Twitter, disse ao Gizmodo por e-mail que a inclusão de conteúdo problemático no relatório pela Anistia “merece mais discussão”, acrescentando que “não está claro” como a organização definiu ou classificou esse conteúdo e se ela acha que o Twitter deve remover conteúdo problemático de sua plataforma.

Em seu mais recente relatório semestral de transparência, divulgado na semana passada, o Twitter disse que recebeu denúncias contra mais de 2,8 milhões de “contas únicas” por abuso (“uma tentativa de assediar, intimidar ou silenciar a voz de outra pessoa”), quase 2,7 milhões de contas por discurso “de ódio” (tuítes que “promovem violência contra ou atacam ou ameaçam diretamente outras pessoas com base na sua inclusão em um grupo protegido”) e 1,35 milhão de contas por ameaças violentas. Dessas, a empresa agiu — o que inclui até mesmo a suspensão de contas — em cerca de 250 mil por abuso, 285 mil por conduta odiosa e pouco mais de 42 mil por ameaças violentas.

Gadde disse que o Twitter “se comprometeu publicamente a melhorar a saúde coletiva, a abertura e a civilidade das conversas públicas em nosso serviço” e que a empresa está “comprometida em nos responsabilizarmos publicamente pelo progresso” quando se trata de manter a “saúde” das conversas em sua plataforma.

A chefe jurídica do Twitter também apontou que a plataforma usa tanto aprendizado de máquina quanto moderadores humanos para analisar denúncias de abuso online. Como vimos claramente em outras plataformas como Facebook e Tumblr, ferramentas de inteligência artificial podem não ter a capacidade de entender as nuances e o contexto da linguagem humana, tornando-as inadequadas por si só para determinar se certos conteúdos são legitimamente abusivos. São os detalhes dessas ferramentas que a Anistia quer que o Twitter torne mais públicos.

“A Patrulha de Trolls não se trata de policiar o Twitter ou forçá-lo a remover conteúdo”, disse Marin. “Estamos pedindo que seja mais transparente, e esperamos que as descobertas da Patrulha de Trolls o obriguem a fazer essa mudança. Essencialmente, o Twitter deve começar a ser transparente sobre como exatamente eles estão usando o aprendizado de máquina para detectar abusos, além de publicar informações técnicas sobre os algoritmos que utilizam.”

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas