[Gawker] Por dentro da brigada antipornografia e antiviolência do Facebook

Amine Derkaoui, um marroquino de 21 anos está enfurecido com o Facebook. Ano passado ele passou algumas semanas treinando para filtrar conteúdo ilícito no Facebook através de uma empresa terceirizada, pelo qual ele era pago meros US$1 por hora. Ele ainda está furioso por isso. “É humilhante. Eles estão apenas explorando o terceiro mundo,” Derkaoui […]

Amine Derkaoui, um marroquino de 21 anos está enfurecido com o Facebook. Ano passado ele passou algumas semanas treinando para filtrar conteúdo ilícito no Facebook através de uma empresa terceirizada, pelo qual ele era pago meros US$1 por hora. Ele ainda está furioso por isso.

“É humilhante. Eles estão apenas explorando o terceiro mundo,” Derkaoui reclamou com um pesado sotaque francês no Skype, algumas semanas depois do Facebook registar sua IPO (Oferta Pública Inicial) de US$100 bilhões. Como um tipo de vingança, Derkaoui nos forneceu alguns documentos internos, que esclarece exatamente como o Facebook censura o conteúdo que ele não quer que você veja, e ajudou a entender as pessoas cujo trabalho é se assegurar que esse tipo de conteúdo não chegue até você.

O Facebook transformou os milhões de posts de seus usuários em ouro. Mas talvez tão importantes quanto os álbuns com as fotos das férias e artigos compartilhados, é o conteúdo que fica fora da timeline dos usuários: pornografia, violência, racismo, cyberbullying, e por aí vai. O Facebook tornou-se uma alternativa limpa e segura do assustador mundo da internet aberta, tanto para seus usuários quanto para os anunciantes, graças ao trabalho de um pequeno exército de moderadores de conteúdo como Derkaoui.

“Nós trabalhamos para abrigar um ambiente onde todo mundo pode discutir abertamente e expressar sua visão, enquanto respeita os direitos dos outros,” conforme está escrito nas normas da comunidade do Facebook.

Mas a linha entre manter o Facebook limpo e a censura excessiva é tênue, e a vontade do Facebook de limpar a sujeira dos usuários levou a uma série de revoltas. Em abril do ano passo, eles apagaram um inocente beijo gay e foram acusados de homofobia; poucos meses antes, a remoção de um desenho com nudez atiçou a ira do mundo da arte. Mais recentemente, “lactantes” enfurecidas têm agitado protestos por causa da remoção de fotos de amamentação do Facebook.

Esses escândalos da censura não têm ajudado na transparência do Facebook em relação a seu processo de moderação de conteúdo. Sempre que o Facebook apaga uma imagem que considera ofensiva, ele menciona ao usuário a sua Declaração de Direitos e Responsabilidades. Esta regra é vaga quando se trata de moderação de conteúdo, e provavelmente é intencional. Se os usuários soubessem exatamente qual critério estava sendo usado para julgar seu conteúdo, eles poderiam fazer com que o Facebook se restringisse a elas. Seria claro onde o Facebook estava escolhendo censurar de acordo com suas regras, e onde foi uma censura arbitrária.

Bem, agora nós sabemos exatamente quais as normas do Facebook. Derkaoui nos forneceu uma cópia das orientações surpreendentemente específicas que o Facebook impõe aos moderadores de conteúdo. É a primeira vez que o público pode ver exatamente o que o Facebook considera que extrapola, e que tipo de conteúdo ofensivo ele não irá permitir em vídeos, imagens e publicações no mural. O documente é basicamente um mapa do território moral do Facebook.

A equipe de moderação de conteúdo que Derkaoui era membro usa uma ferramenta web-based para ver uma série de imagens, vídeos e publicações do mural que foram denunciadas pelos usuários. Eles podem tanto confirmar, o que faz com que o conteúdo seja apagado, ou negar, ou mandar para um nível superior de moderação, essa última opção faz com que o conteúdo em questão seja enviado para funcionários do Facebook.

Uma folha de referência no manual de 17 páginas define exatamente o que deve ser confirmado e apagado pela equipe. (A folha de referência pode ser vista na esquerda; o documento completo pode ser visto aqui.) Ele é dividida em categorias como “Sexo e Nudez”, “Conteúdo com Incitação ao ódio”, “Conteúdo Explícito” e “Perseguição e Bullying”. O documento era o que estava valendo mês passado.

O Facebook, ao que parece, irá apagar coisas relativamente inocentes. Por exemplo, qualquer um dos seguintes conteúdos serão apagados, de acordo com o guia.

– Representação óbvia de “capô de fusca” (masculino ou feminino).

– Mães amamentando sem roupas.

– Brinquedos sexuais e outros objetos, mas apenas no contexto de atividade sexual.

– Representação de fetiches sexuais em qualquer forma.

– QUALQUER imagem photoshopada de pessoas, seja negativa, positiva ou neutra.

– Imagens de pessoas bêbadas, inconscientes ou dormindo, com coisas desenhadas em seus rostos.

– Discurso violento (Exemplo: “Eu adoro ouvir crânios rachando.”).

– Quando se trata de sexo e nudez, de acordo com o guia, o Facebook é obedece estritamente a classificação etária de 13 anos. Atividade sexual, mesmo com roupas, é apagada, assim como “partes intimas sem roupas, incluindo mamilos femininos e bundas.” Mas “mamilos masculinos tudo bem.” Preliminares são permitidas, “mesmo para o mesmo sexo (homem-homem/mulher-mulher)”, então os gays também podem trocar carícias no Facebook.

O Facebook é mais brando quando se trata de violência. Fotos violentas são permitidas, contanto que as vísceras de alguém não estejam para fora. “Cabeças e membros esmagados são permitidas desde que a parte interna não apareça,” diz uma regra. “Cortes profundos são permitidos; sangue excessivo é permitido.”

Drogas são mais complicadas. Fotos de maconha são explicitamente permitidas, apesar de que imagens de outras drogas ilegais “fora do contexto de estudos médicos, acadêmicos ou científicos” são apagadas. Contanto que não pareça que você é um traficante, pode postar quantas fotos do seu estoque você quiser.

Em “Conteúdo que incita o ódio” as normas especificamente banem “Fotos versus…fotos comparando duas pessoas lado a lado,” o que é irônico considerando que o primeiro sucesso de Mark Zuckerberg foi o FaceSmash, que classificava quão atraentes eram as estudantes de Harvard.

Alguns tipos de conteúdo são julgados pelo contexto. Por exemplo, vídeos de brigas em escolas são apagados apenas se o “vídeo foi postado para continuar atormentando a pessoa que foi o alvo no vídeo.” Discursos violentos são permitidos caso sejam uma piada, e vídeos de abuso de animais podem continuar apenas se fica claro que o usuário não aprova.

O Facebook tem lutado com a questão do aborto, já que ele pode englobar tanto sexo quanto violência. Mês passado, uma publicação oferecendo instruções de aborto foi “acidentalmente” apagada de uma página de um ativista holandês dos direitos de reprodução. Os grupos anti-aborto às vezes reclamam que o Facebook censura suas fotos explícitas de fetos abortados.

Apesar das normas não mencionarem aborto, uma discussão em um fórum usado por moderadores de conteúdo do Facebook que Derkaoui nos mostrou esclareceu um pouco sobre a política sobre aborto no Facebook. O líder da moderação de conteúdo escreveu:

“Aborto em todas as suas formas pode ser divulgado, a menos que ele viole os padrões de nudez ou violência explícita. Isso significa que os usuários podem mostrar imagens assim como falar sobre aborto, discutir a questão, etc. Só é uma violação se conteúdo explicito como desmembramento ou decapitação for mostrado, ou se órgãos internos estiverem visíveis.”

Alguns tipos de conteúdo podem ser encaminhados para um nível superior de avaliação. Isso inclui ameaças críveis contra pessoas ou figuras públicas, conteúdo sobre suicídio, e encorajamento a cometer crimes.

Talvez a categoria mais intrigante seja a dedicada a “normas internacionais”. Dentro desta categoria, qualquer negação do holocausto que “foca em discurso de ódio”, qualquer ataque no fundador da Turquia, Atatürk, ou uma bandeira da Turquia em chamas precisa ser encaminhado para um nível superior. Isto provavelmente é para manter o Facebook de acordo com as leis internacionais; em muitos países europeus, negar o holocausto é contra a lei, assim como ataques contra Atatürk na Turquia.

Um porta-voz do Facebook nos disse em um comunicado que o documento “fornece uma imagem de nossos padrões em relação à [um de nossos] terceirizados, para informações mais atualizadas, por favor, visitem www.facebook.com/CommunityStandards.”

Derkaoui conseguiu seu emprego através da oDesk, uma empresa terceirizada com sede na Califórnia, que fornece serviços de moderação de conteúdo tanto para o Google quanto para o Facebook. Depois de fazer uma excelente entrevista e teste escrito, ele foi convidado para se juntar à equipe da oDesk de cerca de 50 pessoas espalhadas pelo terceiro mundo – Turquia, Filipinas, México, India – trabalhando para moderar o conteúdo do Facebook. Eles trabalham de casa em turnos de 4 horas e ganham US$1 por hora mais comissões (o que, de acordo com a descrição da vaga, deveria somar até chegar a uma “meta” de cerca de US$4 por hora).

A descrição do emprego não fez menção ao Facebook, e Derkaoui disse que seus superiores na oDesk nunca disseram explicitamente quem era o cliente. O Facebook mantém segredo sobre como ele modera seu conteúdo; a empresa está evitando chamar atenção para a enxurrada de conteúdos horríveis que está tentando controlar. Outros moderadores que eu conversei mencionaram que eles tiveram que assinar contratos de não divulgação rigorosos com a oDesk. Uma até se recusou a falar comigo porque acreditou que eu era um funcionário do Facebook disfarçado tentando testá-la.

Entretanto, um porta-voz do Facebook confirmou que eles eram clientes da oDesk. “Em um esforço para processar de maneira rápida e eficiente milhões de denúncias que recebemos todo dia, nós achamos útil contratar empresas terceirizadas para fornecer classificação de uma pequena proporção de conteúdo denunciado,” ele disse em uma declaração. “Essas terceirizadas são sujeitas a rigorosos controles de qualidade e nós programamos várias camadas de segurança para proteger os dados das pessoas usando o nosso serviço.”

Derkaoui, que agora trabalha como um gerente de conteúdo regional para a Zenoradio, empresa de tecnologia com sede em Nova Iorque, não conseguiu completar o extenso processo de treinamento da oDesk. Ele perdeu um teste importante porque era um Ramadan e não conseguiu acompanhar. Mas entrevistas no Skype com inúmeros ex-membros do time dão uma ideia do estranho trabalho de moderação de conteúdo, o trabalho prototípico do boom das mídias sociais.

Os ex-moderadores com quem conversei eram de países na Ásia, África e América Central. Eles eram jovens e bem educados, o que não é de surpreender considerando sua proficiência em inglês. Um deles está tentando vaga em universidades dos Estados Unidos para estudar ciências políticas ano que vem; outro já está estudando engenharia. Para eles, moderação de conteúdo do Facebook foi uma maneira de fazer dinheiro em paralelo durante alguns poucos turnos de quatro horas por semana. Muitos tinham passado por outros empregos na oDesk, tais quais trabalhar como assistente virtual.

Assim como Derkaoui, a maioria concordou que o pagamento era uma mixaria, apesar de também reconhecer que era o tipo de trabalho normalmente disponível na oDesk. Derkaoui foi o único que citou dinheiro como motivo para sair. Os outros pareciam ter sido mais afetados pelas horas que passaram vagando pelo lado negro do Facebook.

“Imagine como se houvesse uma espécie de esgoto,” um moderador explicou durante uma recente conversa no Skype, “e toda a bagunça/sujeira/lixo/merda do mundo flui na sua direção e você tem que limpar.”

Cada moderador parecia achar um diferente gênero de conteúdo ofensivo especialmente chocante. Um ficou abalado com os vídeos de abuso de animais. (“Alguns por dia,” ele disse.) Para outro, era o racismo: “Você tinha a KKK (Ku Klux Klan) aparecendo em todo lugar.” Outro reclamou de vídeos violentos de “brigas feias, um homem surrando outro.”

Um moderador durou apenas três semanas antes de pedir demissão.

“Pedofilia, necrofilia, decapitação, suicídios, etc,” ele lembra. “Eu saí porque valorizo minha sanidade mental.”

Algumas empresas reconheceram o fardo da moderação de conteúdo e começaram a fornecer acompanhamento psicológico para os funcionários. Mas ex-moderadores disseram que a oDesk apenas alertou que o emprego envolveria conteúdo explícito.

“Eles mencionaram que o emprego não era para quem tinha estômago fraco antes de me contratar,” disse o moderador que saiu do emprego depois de três semanas. “Eu acho que no final das contas, é minha culpa por subestimar quão perturbador seria.”

Atualização: Facebook lança novas normas de conteúdo, agora permite fluidos corporais.

Imagem do topo por Jim Cooke.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas