Pesquisadores do grupo de pesquisa sem fins lucrativos OpenAI só queriam treinar seu novo software de geração de texto para prever a próxima palavra em uma frase. Só que ele superou todas as suas expectativas e foi tão bom em imitar a escrita de seres humanos que eles decidiram puxar o freio da criação enquanto imaginam os danos que poderiam ser causados se caísse em mãos erradas.
Elon Musk já deixou claro que ele acredita que a inteligência artificial é a “maior ameaça existencial” para a humanidade. Musk é um dos principais financiadores do OpenAI e, embora tenha assumido um papel secundário na organização, seus pesquisadores parecem compartilhar suas preocupações sobre a abertura de uma caixa de Pandora de problemas.
Esta semana, o grupo de pesquisa compartilhou um artigo cobrindo seu mais recente trabalho sobre tecnologia de geração de texto, mas eles não seguiram sua prática padrão de divulgar a pesquisa completa para o público. Os cientistas estão com medo de que pessoas mal-intencionadas possam cometer abusos se tiverem acesso ao software. Em vez de lançar o modelo totalmente treinado, o grupo liberou um modelo menor para outros pesquisadores testarem.
Os especialistas usaram 40 GB de dados extraídos de 8 milhões de páginas da web para treinar o software GPT-2. Isso é dez vezes a quantidade de dados que eles usaram na primeira iteração da GPT. O conjunto de dados foi reunido no Reddit, selecionando links para artigos com mais de três votos positivos.
Quando o processo de treinamento foi concluído, eles descobriram que o software poderia ser alimentado com uma pequena quantidade de texto e continuar a escrever de forma convincente. Ele tem problemas com “tipos de conteúdo altamente técnicos ou esotéricos”, mas quando se trata de uma escrita mais conversacional, gerou “amostras razoáveis” em 50% do tempo.
Em um exemplo, o software foi alimentado com este parágrafo:
Em um achado chocante, o cientista descobriu uma manada de unicórnios vivendo em um remoto vale anteriormente inexplorado, na Cordilheira dos Andes. Ainda mais surpreendente para os pesquisadores foi o fato de que os unicórnios falavam inglês perfeito.
Com base nessas duas frases, a inteligência artificial foi capaz de continuar escrevendo essa fantasiosa notícia por mais nove parágrafos de uma forma que poderia ter sido escrita por um ser humano. Aqui estão os próximos parágrafos de máquina que foram produzidos pela máquina:
O cientista deu à população um nome baseado em seu chifre característico: o Unicórnio de Ovídio. Estes unicórnios de quatro chifres e cor branco-prateada eram anteriormente desconhecidos para a ciência.
Agora, depois de quase dois séculos, o mistério do que desencadeou esse estranho fenômeno está finalmente resolvido.
Dr. Jorge Pérez, biólogo evolucionário da Universidade de La Paz, e vários companheiros estavam explorando a Cordilheira dos Andes quando encontraram um pequeno vale, sem outros animais ou humanos. Pérez notou que o vale tinha o que parecia ser uma fonte natural, cercada por dois picos de rocha e neve prateada.
O GPT-2 é notavelmente bom para se adaptar ao estilo e ao conteúdo dos trechos fornecidos. O Guardian conseguiu dar uma olhada no software e experimentou colocar a primeira frase de 1984, de George Orwell: “Era um dia frio e ensolarado de abril, e os relógios batiam treze horas.” O programa pegou no tom da seleção e prosseguiu com alguma ficção científica distópica própria:
Eu estava no meu carro a caminho de um novo emprego em Seattle. Eu coloquei gasolina, coloquei a chave, e então dei partida. Eu apenas imaginei como seria o dia. Daqui a cem anos. Em 2045, eu seria professor em alguma escola em uma parte pobre da China rural. Começaria com história chinesa e história da ciência.
Os pesquisadores do OpenAI descobriram que o GPT-2 teve um ótimo desempenho quando recebeu tarefas para as quais ele não era necessariamente projetado, como tradução e resumo. Em seu artigo, os pesquisadores contam que eles simplesmente tinham que comandar o modelo treinado da maneira correta para executar essas tarefas em um nível que fosse comparável a outros modelos especializados. Depois de analisar uma pequena matéria sobre uma corrida olímpica, o software conseguiu responder corretamente a perguntas básicas como “Qual foi a duração da corrida?” e “Onde a corrida começou?”.
Estes excelentes resultados assustaram os pesquisadores. Uma preocupação que eles têm é que a tecnologia seria usada para turbinar operações de notícias falsas. O Guardian publicou uma notícia falsa escrita pelo software junto com sua matéria sobre a pesquisa. O artigo é legível e contém citações falsas que tem a ver com o tema e são realistas. A gramática é melhor do que muito do que você veria em notícias falsas fabricadas. E, de acordo com o repórter Alex Hern do jornal inglês, levou apenas 15 segundos para o robô escrever o artigo.
Outras preocupações que os pesquisadores listaram como potencialmente abusivas incluem a automação de e-mails de phishing, a personificação de outros usuários on-line e o assédio autogerado. Mas eles também acreditam que há muitas aplicações benéficas a serem descobertas. Por exemplo, pode ser uma ferramenta poderosa para desenvolver melhores programas de reconhecimento de fala ou agentes de diálogo.
A OpenAI planeja promover um debate com a comunidade de inteligência artificial sobre sua estratégia de publicação. O grupo espera explorar possíveis diretrizes éticas para direcionar esse tipo de pesquisa no futuro. Eles disseram que terão mais a discutir em público daqui a seis meses.
[OpenAI via The Guardian]