_Facebook

Facebook expande seu programa de prevenção ao suicídio usando inteligência artificial

O Facebook está expandindo seus esforços de prevenção de suicídio baseados em inteligência artificial. A empresa disse nesta segunda-feira (27) que tem planos para, um dia, monitorar e responder a intenções suicidas no Facebook “mundialmente”, exceto pela União Europeia. Nesta segunda-feira, o vice-presidente de Gerenciamento de Produto do Facebook, Guy Rosen, publicou um post de […]

O Facebook está expandindo seus esforços de prevenção de suicídio baseados em inteligência artificial. A empresa disse nesta segunda-feira (27) que tem planos para, um dia, monitorar e responder a intenções suicidas no Facebook “mundialmente”, exceto pela União Europeia.

Nesta segunda-feira, o vice-presidente de Gerenciamento de Produto do Facebook, Guy Rosen, publicou um post de blog falando dos esforços da empresa para detectar e relatar usuários que expressassem “pensamentos suicidas”. A publicação declara que o Facebook está usando o reconhecimento de padrões “para detectar sinais em posts ou transmissões ao vivo que possam ter pensamentos suicidas, e para ajudar a responder a denúncias de conteúdos de suicídio ou automutilação mais rapidamente”. Mas Rosen disse que a empresa também está contando com mais revisores humanos que investigam posts relacionados a suicídio e automutilação. Essa “equipe de operações de comunidade” é composta por milhares de funcionários, incluindo “um grupo dedicado de especialistas que tem treinamento específico em suicídio e automutilação”. Os revisores usam softwares que lhes mostram pedaços de vídeos que têm um pico em comentários e reações.

Esses funcionários também usam o software de reconhecimento de padrões para determinar em que ordem eles precisam revisar publicações e vídeos sinalizados, além de determinar quais autoridades locais eles devem alertar sobre potenciais tentativas de suicídio. O software de sinalização procura por certos comentários, como “você está bem?” ou “posso ajudar?”, que “podem ser sinais de que uma pessoa está enfrentando dificuldade emocional”.

O Facebook não respondeu ao pedido do Gizmodo por mais informações sobre como o software de aprendizado de máquina sinaliza posts que podem incluir pensamentos suicidas, o que poderia levar as pessoas a serem reportadas a suas autoridades locais.

O Facebook anunciou em maio, inicialmente, que contrataria três mil pessoas para ajudar a monitorar a rede social em busca de comentários, publicações e vídeos sobre assassinato e suicídio. Ryan Calo, professor da Universidade de Washington especializado em lei e privacidade cibernéticas, em entrevista à Reuters, demonstrou preocupação com a ideia de o Facebook examinar comentários e publicações em busca de atividades nocivas. “Uma vez que você abre (essa) porta, pode se perguntar que tipos de outras coisas estaríamos procurando”, contou Calo à agência de notícias.

Rosen escreveu que, no mês passado, o Facebook trabalhou com serviços de emergência em mais de cem ocasiões em que a tecnologia ajudou o site a identificar sinais de comportamento suicida ou de automutilação.

O vice-presidente de Gerenciamento de Produto disse que o Facebook está expandindo seu uso de inteligência artificial para prevenção de suicídio para além dos Estados Unidos e que a empresa planeja um dia aplicar o sistema em todo o mundo, exceto pela União Europeia. O Facebook também não respondeu a pedidos por comentários sobre quais países seriam incluídos nessa empreitada.

[Facebook Newsroom]

Imagem do topo: Getty Images

Sair da versão mobile