_Tecnologia

Hackers criam FraudGPT com IA maliciosa para gerar golpes com um clique

Oferecidos em fóruns da dark web, modelos de IA maliciosa permitem criar malwares, emails de phishing e até vídeos de deep fake

Monitor de computador de tela plana preta

Hackers que frequentam a dark web criaram dois modelos que, por meio de IA generativa, criam malwares, campanhas de desinformação e até chamadas de vídeo falsas com apenas um comando.

Os “gêmeos do mal” do ChatGPT são conhecidos como FraudGPT e WormGPT. Segundo um relatório publicado pelo Departamento de Cibersegurança da Academia de Defesa da Nigéria, as ferramentas “representam um ponto de virada nos ataques cibernéticos maliciosos”.

Como funcionam o FraudGPT e o WormGPT

Ambos os modelos funcionam de forma parecida com o ChatGPT. Os usuários acessam a plataforma e fornecem um prompt. Em seguida, o comando é executado pela inteligência artificial em alguns segundos.

Porém, em vez de produzirem conteúdos em texto inofensivos, o FraudGPT e o WormGPT permitem a criação de emails de phishing e até mesmo sites inteiros para roubar informações de usuários.

Os primeiros relatos de fraudes envolvendo os modelos de IA surgiram em canais do Telegram e fóruns da dark web, como verificado pelo site Netenrich, em julho de 2023.

Segundo especialistas, as IAs criminosas se baseiam no modelo GPT-J. Esse modelo foi desenvolvido em código aberto pela EleutherAI, em 2023, com base em diversos parâmetros semelhantes ao GPT-3, da OpenAI.

Assim como a versão completa do ChatGPT, tanto o FraudGPT e o WormGPT são serviços pagos. De acordo com o Trustwave, hackers pagam de US$ 65 (R$ 321) até US$ 200 (R$ 988) por mês para acessar as plataformas.

Alguns cibercriminosos chegam a gastar mais de US$ 5,4 mil (R$ 26,6 mil) para adquirir a versão mais completa do WormGPT.

IA gera emails de phishing convincentes e sem erros

O uso de IA por hackers faz com que as tentativas de golpe se tornem cada vez mais convincentes e comuns. Aliás, aqui no Giz Brasil, noticiamos o crescimento no número desses casos, em outubro do ano passado.

Até pouco tempo atrás, a principal recomendação para evitar cair em golpes era checar erros gramaticais, contextuais e de sintaxe nos textos de emails ou sites suspeitos. O problema é que conteúdos gerados por máquinas não têm erros ortográficos.

Além disso, o FraudGPT permite aos cibercriminsos criarem emails maliciosos em qualquer idioma, com linguagem praticamente perfeita. Por isso, vale cada vez mais investir em segurança digital.

Sair da versão mobile