Uma nova ferramenta lançada pelo Twitter pretende coibir casos de assédio que acontecem na rede social. O chamado “modo de segurança”, anunciado na última quarta-feira (1) pretende blindar perfis que costumam ser alvo de comentários ofensivos ou odiosos. Como? Bloqueando automaticamente usuários troll, que estejam usando “linguagem potencialmente ameaçadora”, por sete dias.
A novidade havia sido anunciada em fevereiro, mas vai ser testada, agora, em um grupo seleto de usuários. Todos eles têm mais de mil seguidores, são usuários de Android e iOS da versão web e tuítam em inglês. Não há ainda uma data definida para quando o recurso vai estar disponível para todas as arrobas da rede.
De acordo com o Twitter, a ferramenta vai saber identificar se uma pessoa está propagando “insultos, comentários odiosos ou enviando respostas e menções repetitivas e indesejadas”. Quem for bloqueado ficará impossibilitado de seguir a conta que o denunciou, ver seus tweets ou enviar mensagens diretas.
A função deverá ser ativada pelo próprio usuário em suas configurações. Então, o algoritmo da rede social vai analisar interações negativas com aquela conta, considerando o conteúdo do texto e a relação entre o autor e quem responde. É possível que o usuário revise os banimentos temporários e remova eventuais incoerências manualmente.
Já existem, hoje, ferramentas usadas por usuários para coibir discursos de ódio e espalhadores de ofensas gratuitas. Além de bloquear e silenciar usuários-problema, quem se sente ameaçado ou ofendido também pode denunciar certo post à plataforma. A diferença, agora, é que o processo ficou mais automático — diminuindo o desgaste das vítimas.