_Tecnologia

OpenAI fez descoberta considerada “ameaça à humanidade”; entenda

O polêmico CEO Sam Altman mencionou a descoberta em reunião realizada no dia anterior à sua demissão. Confira os bastidores desse caso, apurados pela Reuters

ChatGPT opina sobre si mesmo e diz por que deveria ser regulamentado

Nos últimos dias, a OpenAI tem aparecido no noticiário de tecnologia em todo o mundo em razão da polêmica demissão — e posterior recontratação — do CEO Sam Altman, o garoto propaganda da inteligência artificial generativa. Mesmo após o anúncio de seu retorno ao cargo muitas dúvidas a respeito de sua demissão ficaram no ar.

Os bastidores

Uma reportagem da Reuters começa a dar uma luz sobre bastidores e eventos que antecederam a destituição do chefão da empresa-mãe do ChatGPT. De acordo com o material divulgado, pesquisadores enviaram uma carta ao conselho de administração alertando sobre uma descoberta que poderia “ameaçar a humanidade”.

As informações revelam que Altman mencionou o avanço em uma conferência no dia anterior ao de sua demissão inesperada.

A carta é considerada um dos fatores chave para a demissão de Altman no último final de semana. Entre as preocupações mencionadas no documento estava a cultura de priorizar o lucro antes de compreender as consequências dos avanços tecnológicos em inteligência artificial na vida das pessoas.

A grande preocupação da carta seria um avanço considerável no chamado “Q*” (lê-se Q-Star), um modelo que pode ter atingido o que a OpenAI chama de inteligência artificial geral (AGI, na sigla em inglês). A OpenAI define AGI como “sistemas autônomos que superam humanos em atividades economicamente mais valiosas”.

As informações indicam que o modelo é capaz de resolver problemas matemáticos, o que significa um progresso considerável na pesquisa de IA. Atualmente a matemática é considerada um fator limitante no desenvolvimento de inteligência artificial.

A IA generativa trabalha bem com textos e traduções, no entanto, quando o assunto são problemas matemáticos, onde há apenas uma resposta exata, o resultado não é muito satisfatório. Romper essa barreira na pesquisa de IA significa que o modelo tem potencial para chegar próximo à capacidade de raciocínio humano.

Por fim, ainda segundo a Reuters, na carta foram destacados benefícios e os potenciais prejuízos que o avanço obtido pela empresa poderia causar. No entanto, as fontes ouvidas pela agência de notícias britânica não deram detalhes de quais eram os potenciais riscos citados no documento.

 

Sair da versão mobile