Falha no Messenger Kids, do Facebook, permite que crianças conversem com estranhos em chat em grupo
Para surpresa de ninguém, acontece que deixar a empresa com muitos escândalos de privacidade em seu histórico executar um serviço de mensagens para crianças pode ter sido uma má ideia. Agora, há vários relatos de que uma falha no design do aplicativo Messenger Kids do Facebook permite que as crianças conversem com usuários não autorizados no chat em grupo – também conhecido como exatamente aquilo que o aplicativo foi criado para não fazer.
O aplicativo funciona assim: uma vez que um responsável tenha aprovado um contato, crianças de até seis anos estão livres para conversar com essa pessoa por meio de vídeo, textos, gifs bobos, etc. Isso funciona se a conversa for com uma única pessoa, mas o Messenger Kids permite conversas em grupo e é aí que a questão das permissões se torna complicada.
Graças a um erro no aplicativo, uma criança pode ser convidada para um bate-papo em grupo por um amigo autorizado a fazê-lo, mas os outros usuários participantes não precisam de tal autorização. O Messenger Kids não verifica se todos os participantes do chat foram pré-aprovados para conversar entre si, resultando em milhares de crianças conversando com estranhos na internet através de um aplicativo projetado para impedir que isso aconteça, disse um representante do Facebook ao Gizmodo.
O The Verge confirmou com a empresa que ela estava alertando os usuários e fechando silenciosamente esses grupos durante a semana passada. “Recentemente notificamos alguns pais de usuários da conta do Messenger Kids sobre um erro técnico que detectamos que afetou um pequeno número de conversas em grupo”, explicou um representante do Facebook em um comunicado fornecido ao Gizmodo e outros veículos de notícias. “Nós desativamos as conversas afetadas e fornecemos aos pais recursos adicionais sobre o Messenger Kids e segurança online”.
Quanto tempo essa brecha grave e ostensivamente óbvia durou no Messenger Kids, ninguém sabe. Mas polêmicas em relação ao aplicativo existem desde o início.
Desde que o Facebook lançou o serviço em 2017, muitos defensores da saúde e proteção infantil expressaram sua desaprovação. Quase 100 deles assinaram uma carta pedindo ao CEO do Facebook, Mark Zuckerberg, para excluir o aplicativo por preocupações de que o aumento do tempo de tela tenha provocado estresse, imagens corporais negativas e privação de sono, de acordo com vários estudos citados pela carta. O Facebook depois abordou algumas dessas preocupações adicionando um “Sleep Mode” para que os pais pudessem controlar quanto tempo seus filhos gastaram no aplicativo, mas outros permaneceram.
Ou seja, moderação e privacidade, e se o Facebook é capaz de aplicar com êxito qualquer um deles. Nos últimos anos, a empresa não identificou corretamente discurso de ódio em sua plataforma, vazou acidentalmente a identidade de moderadores para suspeitos de terrorismo e revelou uma enorme violação de segurança. E eu não acho que as notícias sobre este último incidente em relação à privacidade dos usuários mais vulneráveis do Facebook contribuirão muito para impulsionar as pesquisas sobre confiança do usuário que já está em declínio. Não que você pudesse ver isso pelo valor crescente das ações da companhia.