_Twitter

O Twitter sabe que virou um lugar desagradável – e, agora, quer ajudar usuários a ter paz

Rede social anunciou, nesta quinta-feira (23), que estuda liberar novos recursos para aumentar o controle dos usuários. Veja mais.

Divulgação/Twitter

Discutir no Twitter, especialmente sobre um assunto polêmico, já virou sinônimo de receber hostilidade em troca. Sabe aquele dia em que você acorda sem disposição para argumentar com quem está mais afim de ofender do que de trocar ideias? No futuro, vai ser possível saber de antemão em quais conversas vale a pena entrar — e em quais delas você vai só passar raiva. Bem, pelo menos, é o que espera a rede social.

Em um evento nesta quinta-feira (23), a companhia anunciou um pacote de novos recursos que está estudando implementar. Segundo o Twitter, a definição do que é confortável ler em uma rede social varia de pessoa para pessoa. Pensando nisso, o passarinho azul vem testando ferramentas para melhorar a experiência na plataforma — aumentando o número de recursos de controle que estão na mão do próprio usuário.

A ferramenta que mais chama a atenção é a “Heads up” — ou “atenção”, em bom português. Ela servirá para indicar aos usuários qual o “tom” de determinada conversa, e quem está participando dela. A ideia é que, em breve (não foi divulgado quando), usuários recebam um aviso antes de incluir sua opinião no meio de um debate potencialmente acalorado.

Mas como exatamente o Twitter consegue dizer se uma thread está seguindo ou não a linha good vibes? Christine Su, líder de produtos para conversas seguras, afirmou que a rede social vem conduzindo experimentos para treinar o algoritmo nesse sentido.

O primeiro envolve a análise dos tipos de emojis usados nas conversas. Emojis de raiva, por exemplo, dão a entender que os ânimos estão mais exaltados ali — já outras figuras, como a de macaco ou uma berinjela, podem sinalizar presença de conteúdo racista ou sexual. A outra, é analisar que palavras usuários twittam em resposta a conteúdos apontados como sensíveis.

Outra ideia em fase inicial de desenvolvimento é a criação de “filtros de palavras” que permitam a usuários barrar discursos indesejados em suas respostas. É uma forma de evitar xingamentos ou emojis direcionados, por exemplo, mas vai além disso. Palavras que não necessariamente quebram as regras, mas que as pessoas acham ofensivas, também poderão ser banidas.

Divulgação/Twitter



Já existe, atualmente, uma ferramenta que permite ao usuário “mutar” certos termos de sua timeline ou impedir que determinadas contas comentem em seus posts, é verdade. Mas, no futuro, o Twitter quer fazer com que esse bloqueio de palavras ofensivas aconteça em tempo real. “Isso ainda está na fase conceitual de desenvolvimento. Vamos mantê-los informados sobre como essa ideia pode evoluir”, diz a empresa, em comunicado.


O Twitter estuda também a implementação de um recurso que funcionaria como uma “saída à francesa”. Ela permitirá que usuários deixem, discretamente, uma conversa em que não desejam estar sem deixar rastros. Como? Removendo seguidores sem bloqueá-los. Assim, o usuário que mencionou você naquela conversa não será notificado que você deixou de receber notificações daquilo — nem que proibiu foi proibido de ver novos posts.

Como quem lê o Gizmodo viu por aqui nos últimos dias, o Twitter anunciou em setembro o “Modo Seguro” um novo recurso de segurança para evitar, assédios, ataques em massa (ou trolls insistentes) na plataforma. No futuro, o algoritmo também vai ser capaz de bloquear automaticamente contas semelhantes às que um usuário já bloqueou. Assim você não precisa fazer todo o trabalho. O recurso vem sendo testado com um pequeno grupo de contas de usuários de iOS, Android e Twitter.com que têm as configurações habilitadas em inglês, segundo a companhia.

A rede social também planeja incluir espécies de “etiquetas” em determinadas contas que permitam a quem usa saber se está interagindo com uma pessoa, uma marca ou um bot, por exemplo.

Por fim, o recurso de “Comunidades”, já anunciado pelo Twitter em setembro, também ganhou destaque. Ele vai permitir que tuiteiros escolham conversar com pessoas que compartilham  interesses . Essas comunidades terão moderação descentralizada: moderadores poderão ocultar tweets e banir usuários por conta própria, além de adicionar novas regras de convivência, caso necessário. Apenas um grupo pequeno de usuários podem criar comunidades atualmente — mas o recurso vai começar a poder ser usado por mais gente até o fim do ano.

Sair da versão mobile