Como a IA generativa está facilitando os golpes por e-mail
A IA generativa pode facilitar golpes e phishing por e-mail. É o que diz um relatório da Darktrace, uma empresa anglo-americana de cibersegurança.
A empresa, que atende mais de 3.000 clientes, viu um aumento nos ataques de engenharia social por e-mail desde o começo de 2023.
De acordo com a empresa, essa nova onda de ataque conta com uma diferença linguística em relação aos ataques antigos. Isso pode indicar o maior uso de ferramentas de IA generativa, como o ChatGPT da OpenAI.
“Os e-mails têm menos erros, frases mais longas e bem pontuadas, tópicos mais interessantes e persuasivos. Eles tentam induzir as pessoas a fazer algo”, disse Max Heinemeyer, diretor de produto da Darktrace, falou ao IT Brew
A Darktrace compara os ataques de phishing aos anteriores em centenas de métricas. Os dados recentes “apontam para uma mudança nas técnicas, ferramentas e procedimentos, pelo menos no cenário de ameaças por e-mail”, disse Heinemeyer. Ou seja, a IA generativa pode ajudar os ataques a se adaptarem aos alvos específicos.
Já há evidências de que a IA generativa está sendo usada em golpes e fraudes. Por exemplo, o Washington Post relatou que criminosos cibernéticos usam clonagem de voz para enganar familiares de vítimas nos EUA a transferir dinheiro para emergências.
A Darktrace também fez uma pesquisa com 6.711 funcionários nos EUA, Europa e Austrália em março de 2023. A pesquisa descobriu que cerca de 70% dos entrevistados viram um aumento nos e-mails e mensagens de texto fraudulentas nos últimos seis meses.