A contenção de crise no Facebook tá funcionando a todo o vapor: agora, a rede social decidiu tornar pública as diretrizes que definem quais conteúdos podem ou não ser mantidos no ar. Em uma página dedicada e cheia de tópicos, os usuários poderão ver quais são as regras seguidas pelos algoritmos e moderadores para derrubar publicações.
• Facebook disponibilizará ferramentas de controle de privacidade da UE para todos
• O Facebook gasta uma baita grana com a segurança pessoal de Mark Zuckerberg
A rede social também permitirá que os usuários que tiverem publicações derrubadas possam apelar da decisão e obter uma segunda opinião. De acordo com a publicação oficial do Facebook, a iniciativa tem como objetivo dar mais transparência aos processos de moderação e permitir que as pessoas possam dar sugestões para os filtros aplicados.
Os padrões de comunidade liberados hoje possuem 27 páginas e abordam tópicos como violência, nudez, exploração sexual infantil, bullying, assédio, discurso de ódio, entre muitos outros. O Facebook ressalta que não são novas regras, apenas a publicação das diretrizes que operam internamente. O material foi liberado em 40 idiomas, incluindo o português.
Essas mesmas regras se aplicam a outros serviços, como o Instagram, embora existem algumas pequenas diferenças – não é preciso ter um nome real no Instagram por exemplo. Porém, as regras gerais de discurso permanecem valendo, como aponta o Verge.
O Facebook vem sendo pressionado por mais transparência em suas diretrizes de moderação há bastante tempo, mas nas eleições americanas de 2016 o movimento ganhou mais força. Tanto progressistas quanto conservadores criticam a plataforma, mas há uma ênfase especial da ala conservadora de que existe um viés político por trás das regras, o que foi evidenciado pelas perguntas de diversos congressistas a Mark Zuckerberg.
Não é só nos Estados Unidos que a rede social foi questionada, nem apenas por motivos estritamente políticos. Em março, as Nações Unidas culpou o Facebook por espalhar o discurso de limpeza étnica contra os rohingyas, um povo muçulmano. No mês passado, a rede também teve que suspender atividades no Sri Lanka depois que algumas mensagens incitavam violência contra a minoria muçulmana no país.
Quem tiver uma publicação derrubada na rede social receberá uma notificação e poderá pedir uma nova análise que irá levar, tipicamente, 24 horas para ser realizada – e sempre será efetuada por um humano.
A expectativa do Facebook é que a contribuição dos usuários nessas diretrizes possam ajudá-los a treinar melhor os algoritmos e os moderadores humanos responsáveis pelas análises. A promessa é que até o final do ano a rede tenha 20 mil pessoas trabalhando com a moderação.
Imagem do topo: Getty