O Instagram anunciou no domingo (27) que está proibindo desenhos, memes, vídeos e quadrinhos que retratam autolesão e suicídio, bem como “outras imagens que podem não mostrar autolesão ou suicídio, mas incluem materiais ou métodos associados”. Essa nova medida se soma à política que já existia, que proibia conteúdo que promove ou encoraja tais práticas.

Houve movimentações para que a plataforma tomasse medidas mais fortes, especialmente após a repercussão da morte de Molly Russell, de 14 anos. Em janeiro deste ano, seu pai falou publicamente sobre encontrar imagens de depressão, automutilação e suicídio em seus feeds de mídia social. Ainda assim, ela não exibia “sinais óbvios” de problemas de saúde mental preexistentes.

Movido pela história de Russell, o secretário de saúde do Reino Unido, Matt Hancock, enviou uma carta ao Instagram, Facebook, Twitter, Google, Snapchat, Pinterest e Apple, pedindo-lhes para remover conteúdos gráficos ou que pudessem disparar estes comportamentos.

“É espantosa a facilidade para acessar esse conteúdo online. Não tenho dúvidas sobre os danos que esse material pode causar, principalmente para os jovens”, escreveu ele. “É hora dos provedores de internet e mídia social intensificarem e limparem esse conteúdo de uma vez por todas.”

Em fevereiro, o chefe do Instagram, Adam Mosseri, respondeu à notícia anunciando no Telegraph que a plataforma lançaria “telas de sensibilidade”, para desfocar imagens de automutilação, nas quais o usuário precisaria clicar para ver. Eles atualizaram sua política para remover todas as imagens gráficas de danos pessoais, bloquear imagens de conteúdo não gráfico, incluindo cicatrizes, e direcionar para redes de ajuda os usuários que pesquisam conteúdo relacionado a suicídio e autolesão.

Posteriormente, alguns usuários descobriram que suas imagens de cicatrizes que acompanham as histórias de recuperação foram desfocadas ou removidas. Isso gerou a hashtag #youcantcensormyskin (você não pode censurar minha pele), levantando a questão de como fazer para promover histórias positivas e remover imagens que podem disparar gatilhos de suicídio.

Os dados sobre essas imagens são “limitados e complexos”, disse a Samaritanos, uma linha direta de ajuda e apoio em crises sediada no Reino Unido, em comunicado ao Gizmodo. Eles continuam:

Embora saibamos que algum conteúdo pode ser útil e de suporte, também há evidências de que ele pode ser prejudicial e que algumas imagens podem glorificar, sensacionalizar e normalizar as autolesões. Isso é muito preocupante, pois sabemos que a automutilação é um forte fator de risco para futuros suicídios. Também sabemos que, nos últimos anos, as taxas de autolesões e de suicídio em jovens têm aumentado, o que é muito preocupante.

Os Samaritanos continuam dizendo que colaborarão com as plataformas de mídia social, incluindo o Instagram, e ouvirão os criadores para “maximizar o conteúdo de suporte e minimizar o conteúdo nocivo”.

Mosseri falou sobre essa linha tênue no anúncio das novas políticas:

Entendemos que o conteúdo que pode ser útil para alguns pode ser prejudicial para outros. Nas minhas conversas com jovens que lutaram com esses problemas, ouvi dizer que a mesma imagem pode ser útil para alguém um dia, mas ser um gatilho no dia seguinte.

Alguns bons exemplos de conteúdo útil podem ser encontrados no Instagram do Projeto Trevor, com mensagens de esperança e apoio de pessoas comuns para Jonathan Van Ness. Eles recebem pessoas que tiveram ajuda para que elas compartilhem suas histórias sem imagens gráficas.

O Centro de Valorização da Vida realiza no Brasil apoio emocional e prevenção do suicídio, atendendo voluntária e gratuitamente todas as pessoas que querem e precisam conversar, sob total sigilo por telefone, email, chat e Skype 24 horas todos os dias. Clique aqui para saber mais.