Influencer relata ação de golpistas que usaram IA para clonar sua voz

Dario Centurione, do "Manual SOS", detalhou golpe em que inteligência artificial (IA) foi usada para enganar o seu pai
Conheça VALL-E, IA que imita qualquer voz com fidelidade espantosa
Imagem: Pixabay/Reprodução

O produtor de conteúdo Dario Centurione, do canal “Almanaque SOS”, descreveu em suas redes sociais a ação de golpistas que usaram IA para clonar a sua voz.

whatsapp invite banner

Dario publicou um vídeo TikTok afirmando que seu pai foi o alvo do golpe. No vídeo, ele relata que estranhou ao receber uma mensagem de seu pai informando que o emprestou R$ 600. Após questionar o motivo, recebeu um comprovante de Pix com o nome do destinatário diferente. Seu pai havia transferido o dinheiro para alguém de nome “Raphael” — que, certamente, não era Dario.

O produtor de conteúdo contou que seu pai recebeu uma ligação com uma imitação de sua usando IA, solicitando um empréstimo para pagar uma conta.

Golpistas utilizaram tecnologias para criação de deepfakes para fazer essa cópia. Esse tipo de tecnologia permite manipular áudios e simular vozes específicas, dificultando distinguir entre a voz real e a voz clonada.

Tais ferramentas usam um vídeo ou áudio com a voz original da vítima. Como Dario é produtor de conteúdo, há opções aos montes de sua voz na internet. Após a ferramenta “aprender” a voz usando os vídeos, basta digitar um texto para que seja reproduzido com uma voz muito semelhante à da vítima.

@almanaquesos

Cuidado com o golpe que imita voz (Inteligência Artificial), crie agora uma PALAVRA CHAVE #AprendaNoTikTok #EuTeEnsino AgoraVoceSabe

♬ som original – Almanaque SOS

Nos comentários, seguidores compartilham experiências de golpes semelhantes, incluindo casos de adulteração de imagens. Outros mencionam ter adotado a estratégia da palavra-chave para todas as ligações de rotina, como uma medida de proteção.

Como a IA consegue clonar a voz

Como destacou o UOL, especialistas afirmam que o avanço tecnológico popularizou o uso IA para copiar a voz e os traços de fala de uma pessoa. Mas que, ainda assim, ferramentas sofisticadas não estão disponíveis para o grande público. Isso sugere que os golpistas envolvidos no caso de Dario provavelmente têm certa organização e expertise na área.

Euclides Lourenço Chuma, do Instituto dos Engenheiros Elétricos e Eletrônicos (IEEE), expliciy  que a qualidade e a duração do áudio influenciam no resultado e no risco envolvido. A inteligência artificial serve para aprender com o áudio original e gerar novos arquivos com a voz clonada.

Assine a newsletter do Giz Brasil

Pablo Nogueira

Pablo Nogueira

Jornalista e mineiro. Já escreveu sobre tecnologia, games e ciência no site Hardware.com.br e outros sites especializados, mas gosta mesmo de falar sobre os Beatles.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas