
Golpistas têm utilizado inteligência artificial para clonagem de voz para aplicar fraudes por telefone e aplicativos de mensagens. A técnica permite imitar o timbre de voz de uma pessoa e, com isso, convencer familiares ou amigos da vítima a realizar transferências de dinheiro acreditando que estão ajudando alguém conhecido.
Uma das estratégias começa com a chamada ligação silenciosa. O telefone toca, mas ao atender não há ninguém falando ou a conversa dura apenas alguns segundos. Nesse momento, os criminosos podem tentar registrar palavras ou pequenas frases da pessoa que atendeu para usar posteriormente na criação de uma cópia digital da voz.
Com esses trechos, softwares de inteligência artificial conseguem reproduzir o timbre da vítima. Em seguida, os golpistas enviam mensagens ou áudios, principalmente por aplicativos como o WhatsApp, relatando supostas situações urgentes e pedindo ajuda financeira. O objetivo é pressionar a pessoa a enviar dinheiro rapidamente, sem confirmar a veracidade da história.
As transferências geralmente são solicitadas por Pix, QR Code ou depósito bancário, e também podem vir acompanhadas de links falsos por SMS ou e-mail. Especialistas recomendam desconfiar de números desconhecidos, pesquisar o telefone na internet, nunca informar senhas ou dados bancários e, em caso de dúvida, pedir uma videochamada para confirmar a identidade de quem fez o contato.






