Sombra de inteligência artificial mortífera paira sobre conferência em Asilomar
Ficção científica é divertido, todo mundo gosta; mas será que a gente deveria ficar preocupado mesmo com alguma inteligência artificial perigosa a curto prazo? Um número cada vez maior de cientistas afirma que sim, e os resultados da sua conferência de fevereiro em Asilomar estão finalmente se tornando públicos.
Na conferência, os cientistas debateram limitações para a pesquisa de inteligência artificial, da mesma forma que os seus colegas da genética e biotecnologia já fizeram a respeito das células-tronco. Os seus pensamentos foram publicados neste fim de semana, sob a sombria manchete do New York Times: "Cientistas preocupam-se com máquinas superando a inteligência dos homens".
O local da conferência é interessante do ponto de vista de curiosidades, já que a mesma Asilomar foi palco de uma revolucionária conferência de genética e biologia em 1975. Naquela conferência, os cientistas se encontraram para debater a recém descoberta habilidade de moldar vida em nível celular. Como o Times observa, a conferência levou a diretrizes para a "pesquisa de DNA recombinante" e um Prêmio Nobel para o organizador, Paul Berg.
Os cientistas de hoje esperam estabelecer diretrizes similares para a inteligência artificial, embora muitos declararam abertamente estarem preocupados com robôs-autônomos-matadores-de-pessoas que já estão por aqui.
Mas para cada conto apavorante de Asilomar, há um detrator pronto para contra-atacar os avisos com um pouco do que eles chamam de bom senso. Chris Dixon, investidor e guru de start-ups, diz: "O NY Times está falando sério? Os pesquisadores de inteligência artificial que eu conheço estão envergonhados pela falta de progresso na área, não preocupados com excesso dele".
Quando conversamos com PW Singer, autor de Wired For War, durante a nossa série sobre máquinas mortíferas, ele disse que o surgimento de Terminators é extremamente improvável a médio prazo, já que as "precondições" simplesmente não existem — ainda.
"O Global Hawk pode ser capaz de decolar e voar sozinho, mas ainda precisa que alguém coloque gasolina no tanque", disse ele. Ainda assim, como o nosso Mark Wilson acrescentou a este comentário, "não é difícil enxergar essas precondições eventualmente acontecendo". Não mesmo.
Muitos dos detalhes desta conferência ainda estão sendo divulgados, mas pelo que lemos hoje, dá pra se dizer com certeza que houve um forte tom de preocupação presente durante os procedimentos. "Eu entrei bastante otimista quanto ao futuro da inteligência artificial, pensando que Bill Joy e Ray Kurzweil estavam errados em suas previsões", disse Tom Mitchell, um professor de IA e aprendizado por máquinas na Carneggie Mellon University. "[Mas] o encontro me fez desejar estar errado sobre estes problemas, e em particular sobre a vasta quantidade de dados coletados sobre as nossas vidas pessoais".
E aí, quem está com medo de uma IA do mal agora? [New York Times]