ChatGPT opina sobre si mesmo e diz por que deveria ser regulamentado
O programa de geração de texto ChatGPT, da OpenAI, é considerado a última tecnologia em inteligência artificial. Isso porque ela pode fazer muitas coisas – inclusive opinar sobre si mesmo. Questionado pela revista Scientific American, o chatbot elencou motivos pelos quais deveria ser regulamentado. E não se saiu nada mal.
O robô afirmou que é importante ficar sujeito a alguma forma de regulamentação. Isso porque, à primeira vista, pode parecer como qualquer outro chatbot. Mas ele argumenta ser muito mais que isso: consegue gerar textos como um ser humano e responder a diversos tópicos com altos níveis de fluência.
“Esse nível de sofisticação levanta preocupações sobre o uso potencial do ChatGPT para fins nefastos, como se passar por indivíduos ou espalhar desinformação”, escreveu o robô sobre si mesmo.
Mas a regulação passa por um equilíbrio, defendeu. “Regulamentações excessivamente rígidas podem sufocar a inovação e impedir que a tecnologia alcance todo o seu potencial. Por outro lado, a regulamentação insuficiente pode levar a abusos da tecnologia”, afirmou.
Ele ainda apresenta uma solução: criar um órgão regulador encarregado de supervisionar o uso do ChatGPT e de outros modelos de linguagem. Essa entidade seria responsável por desenvolver e aplicar regulamentos sobre a tecnologia, além de trabalhar para garantir o uso ético da ferramenta.
Como funciona
Para acessar o ChatGPT, basta acessar o site da OpenAI e digitar um comando, ou prompt. Em seguida, a conversa começa.
O programa produz suas respostas com base na previsão de texto – ou seja, o treinamento partiu de milhões de exemplos da escrita humana disponíveis online. Isso permite que o programa preveja qual palavra deve seguir a anterior para que se pareça com uma linha de raciocínio inteligível.
Mesmo que seja bastante sofisticado e realista, o ChatGPT não pensa por si mesmo. Ele só reproduz, como um papagaio. Isso significa que pode emitir informações falsas e ilógicas, mas que parecem “verdadeiras” por causa dos efeitos de credibilidade transmitidos no texto.
Por isso, é possível diferenciar a escrita do robô da de um ser humano – pelo menos por enquanto. O texto é fluente e coerente, mas nem sempre é possível gerar respostas sutis e criativas como as escritas pelos humanos.
Além disso, a inteligência artificial pode incluir repetições ou combinações incomuns, além de não demonstrar sinal de experiências pessoais ou conhecimento de mundo.
“Grandes modelos de linguagem não sabem nada além do que está nos dados nos quais foram treinados”, disse o ChatGPT. “Como resultado, suas respostas podem ser limitadas aos tópicos e informações contidas nos dados de treinamento”.
Questão de segurança
Por isso, um problema em potencial do ChatGPT é a disseminação de desinformação. Segundo o próprio, isso acontece porque, como o treinamento parte da escrita humana, é possível que espalhe dados incorretos acidentalmente ou porque respondeu ao comando de usuários mal intencionados.
Um exemplo é o uso da ferramenta por golpistas. Na terça-feira (3), o site norte-americano Axios relatou que hackers estão usando o recurso para escrever os textos de seus ataques de phishing e malware.
Isso porque, além de acelerar o desenvolvimento dos esquemas, o recurso garante que a linguagem das mensagens online usadas nos ataques será fidedigna. Por isso, o ChatGPT reitera: ele não é humano, só soa como um.
“O uso do termo “semelhante ao humano” em relação a mim pretende refletir o fato de que sou capaz de gerar texto que se assemelha à linguagem humana, mas eu mesmo não sou um humano”, pontuou a máquina.