Os robôs de edição da Wikipédia estão em guerra entre si há anos

Cada robô é projetado para desempenhar uma tarefa específica, mas, às vezes, as tarefas podem entrar em conflito

As guerras de revisão na Wikipédia entre editores humanos é uma ocorrência bastante comum, mas uma nova pesquisa do Reino Unido mostra que batalhas online semelhantes estão sendo travadas entre os robôs do software do site.

• Como a Wikipédia se tornou uma comunidade mais fechada, e como resolver isto
• Pesquisadores de robôs descobrem que copiar a Mãe Natureza nem sempre é o melhor caminho

Conforme revela um novo estudo publicado no PLOS ONE, os robôs da Wikipédia nem sempre se dão bem, frequentemente desfazendo as edições uns dos outros. Esses algoritmos online, cada um equipado com suas próprias instruções e objetivos, travam “lutas” estéreis sobre conteúdo que podem persistir por anos. A nova pesquisa mostra como robôs relativamente “estúpidos” podem produzir interações e comportamentos complexos e como os desenvolvedores precisam estar sobre o controle de suas criações digitais. Isso tem implicações não apenas na qualidade das páginas da Wikipédia, mas também no desenvolvimento da inteligência artificial em geral — particularmente em qualquer agente autônomo à solta na rede.

Atualmente, existem 41.517.866 páginas apenas na versão em inglês da Wikipédia. Isso é bastante conteúdo — muito mais do que os editores humanos conseguem administrar. Para ajudar a manter essa enciclopédia open-source gigantesca, milhares de robôs de software peneiram o site, desempenhando tarefas servis e repetitivas como deletar vandalismos, aplicar punições, corrigir erros de digitação, criar links e automaticamente importar conteúdo.

Ao todo, os robôs representam apenas 0,1% dos editores da Wikipédia, mas eles têm participação significativa na proporção de edições do site. Infelizmente, os desenvolvedores de software que criaram os robôs não entendem realmente ou contabilizam como os robôs interagem uns com os outros. Como a própria natureza da Wikipédia, a criação de robôs é um processo descentralizado, com contribuidores individuais que desenvolvem seus próprios scripts. Existe um grupo de aprovações, mas seus membros seguem rigorosamente a política de robôs da Wikipédia, que não leva as interações entre robôs em consideração.

De fato, de vez em quando, um robô faz uma certa alteração em uma página que outro robô tenta desfazer. Diferentemente dos editores humanos, os robôs não conseguem negociar entre si e, como autômatos que são, simplesmente fazem o que foram programados para fazer. Uma vez lançados ao abismo que é a Wikipédia, esses robôs e suas interações ficam amplamente esquecidos por seus desenvolvedores humanos.

Para entender até que ponto as lutas de robô atrapalham a Wikipédia, cientistas da computação do Instituto de Internet de Oxford e do Instituto Alan Turing estudaram como esses algoritmos interagiam em 13 edições de línguas diferentes do site, ao longo de um período de mais de dez anos (2001 a 2010). Rastreando as edições feitas em cada página e se certificando de que nenhum editor humano estivesse envolvido, os pesquisadores conseguiram observar como os robôs interagiam entre si e como seus encontros frequentemente levavam a consequências imprevisíveis.

De maneira interessante, as ações dos robôs do site variaram de acordo com seus ambientes culturais distintos.

“Isso tem implicações não apenas em como projetamos agentes artificiais, mas também em como os estudamos”, disse a autora principal do estudo, Milena Tsvetkova, em comunicado. “Precisamos de mais pesquisas sobre a sociologia dos robôs.”

Ao todo, os robôs desfizeram bastante o trabalho uns dos outros. Os robôs da versão em português da Wikipédia foram os mais antagônicos, revertendo o trabalho de outros robôs 185 vezes durante o período de dez anos, em média. Na versão em inglês, os pesquisadores registraram uma média de 105 revisões feitas por um robô sobre o trabalho de outro robô ao longo do mesmo período (isso é cerca de três vezes a taxa das edições humanas). Os robôs alemães foram os mais civis, com uma média de apenas 24 edições de reversão ao longo de uma década. Essas diferenças na coordenação de edição pode ter acontecido pelo fato de as diferentes edições de línguas terem regras e convenções de nomeação levemente diferentes.

Os robôs também se comportaram diferentemente dos editores humanos, disparando edições muito mais tarde do que os humanos, e interagindo em conflitos prolongados. Os humanos, por serem avisados sobre mudanças em uma página pelos alertas automáticos, tendem a fazer os consertos em minutos e então seguem para a próxima coisa. Mas os robôs da Wikipédia tipicamente faziam sua primeira revisão cerca de um mês após a revisão inicial, persistindo então no toma lá dá cá por anos. Essas guerras de edição não são catastróficas, mas considerando o fluxo constante de mudanças, isso pode confundir as pessoas que leem o site.

Os robôs são mais lentos do que os humanos (e claramente mais persistentes) no que diz respeito às revisões, porque eles “se debruçam” em artigos na rede em busca de edições (em vez de receber alertas), e frequentemente são restringidos em termos de número de edições que podem fazer durante um período de tempo. Mas o fato de que os robôs conseguem seguir essas batalhas por tanto tempo é um forte indício de que os programadores humanos estão falhando em identificar os problemas de edição em potencial cedo o bastante.

É importante notar que muitos desses conflitos entre robôs pararam no começo de 2013, quando a Wikipédia fez algumas alterações na maneira como os links “inter-idiomas” funcionavam no site. Dito isso, os pesquisadores dizem que esse episódio na história da Wikipédia mostra que um sistema de robôs simples pode produzir dinâmicas complexas e consequências indesejadas. Olhando mais profundamente, é um potencial presságio de coisas a vir, conforme “robôsferas” novas e mais complexas surgem em torno da rede. É um sinal preocupante de que conflitos podem emergir tão facilmente e rapidamente dentro de ecossistemas digitais.

Em particular, a observação de que uma única tecnologia pode produzir resultados tão diferentes dependendo do ambiente cultural tem implicações na pesquisa de inteligência artificial. Compreender o que afeta as interações entre robôs, dizem os pesquisadores, será crucial para qualquer processo autônomo, desde a administração de redes sociais até o rastreamento de cibersegurança e o desenvolvimento de veículos auto-dirigidos.

“Um veículo automatizado irá dirigir de forma diferente em um autobahn alemã em comparação com como irá dirigir pelas colinas toscanas da Itália”, apontou o co-autor do estudo Taha Yasseri. “Da mesma forma, a infraestrutura online local que os robôs habitam terá alguma influência em como eles se comportam e em seu desempenho.”

Como já mencionado, a Wikipédia aplica uma política de robôs. Os robôs, diz a Wikipédia, “são potencialmente capazes de editar muito mais rápido do que os humanos; e têm um nível menor de escrutínio em cada edição do que o editor humano; e podem atrapalhar severamente se estiverem com defeitos ou forem mal utilizados”.

Para prevenir potenciais problemas, os desenvolvedores precisam se certificar de que os robôs da Wikipédia vão desempenhar apenas as tarefas em que haja consenso, aderindo às políticas e diretrizes do site, entre outras restrições. Mas, conforme esse novo estudo mostra, os robôs também precisam ser programados para trabalhar entre si.

[PLOS ONE]

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas