Tecnologia

Hackers criam FraudGPT com IA maliciosa para gerar golpes com um clique

Oferecidos em fóruns da dark web, modelos de IA maliciosa permitem criar malwares, emails de phishing e até vídeos de deep fake
Imagem: Mohammad Rahmani/Unsplash/Reprodução

Hackers que frequentam a dark web criaram dois modelos que, por meio de IA generativa, criam malwares, campanhas de desinformação e até chamadas de vídeo falsas com apenas um comando.

Os “gêmeos do mal” do ChatGPT são conhecidos como FraudGPT e WormGPT. Segundo um relatório publicado pelo Departamento de Cibersegurança da Academia de Defesa da Nigéria, as ferramentas “representam um ponto de virada nos ataques cibernéticos maliciosos”.

Como funcionam o FraudGPT e o WormGPT

Ambos os modelos funcionam de forma parecida com o ChatGPT. Os usuários acessam a plataforma e fornecem um prompt. Em seguida, o comando é executado pela inteligência artificial em alguns segundos.

Porém, em vez de produzirem conteúdos em texto inofensivos, o FraudGPT e o WormGPT permitem a criação de emails de phishing e até mesmo sites inteiros para roubar informações de usuários.

Os primeiros relatos de fraudes envolvendo os modelos de IA surgiram em canais do Telegram e fóruns da dark web, como verificado pelo site Netenrich, em julho de 2023.

Segundo especialistas, as IAs criminosas se baseiam no modelo GPT-J. Esse modelo foi desenvolvido em código aberto pela EleutherAI, em 2023, com base em diversos parâmetros semelhantes ao GPT-3, da OpenAI.

Assim como a versão completa do ChatGPT, tanto o FraudGPT e o WormGPT são serviços pagos. De acordo com o Trustwave, hackers pagam de US$ 65 (R$ 321) até US$ 200 (R$ 988) por mês para acessar as plataformas.

Alguns cibercriminosos chegam a gastar mais de US$ 5,4 mil (R$ 26,6 mil) para adquirir a versão mais completa do WormGPT.

IA gera emails de phishing convincentes e sem erros

O uso de IA por hackers faz com que as tentativas de golpe se tornem cada vez mais convincentes e comuns. Aliás, aqui no Giz Brasil, noticiamos o crescimento no número desses casos, em outubro do ano passado.

Até pouco tempo atrás, a principal recomendação para evitar cair em golpes era checar erros gramaticais, contextuais e de sintaxe nos textos de emails ou sites suspeitos. O problema é que conteúdos gerados por máquinas não têm erros ortográficos.

Além disso, o FraudGPT permite aos cibercriminsos criarem emails maliciosos em qualquer idioma, com linguagem praticamente perfeita. Por isso, vale cada vez mais investir em segurança digital.

Murilo Tunholi

Murilo Tunholi

Jornalista especializado em tecnologia, jogos, entretenimento e ciência. Já passou por grandes redações do Brasil (TechTudo, Tecnoblog, Terra e Olhar Digital) e trabalhou com relações públicas e assessoria de imprensa na Theogames, atendendo à Blizzard Entertainment e mais clientes do mercado de videogames. É apaixonado pela cultura geek, música e produção de conteúdo. Nas horas vagas, é aspirante a artista marcial e cozinheiro.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas