Impostores artificiais: novo golpe de clonagem de voz por IA

Três segundos de áudio foram suficientes. Os cibercriminosos utilizaram ferramentas de clonagem de voz de inteligência artificial (IA) recém-desenvolvidas para criar um novo tipo de golpe. Com uma pequena amostra de áudio, eles podem clonar a voz de praticamente qualquer pessoa e enviar mensagens de voz falsas. O objetivo, na maioria das vezes, é enganar as pessoas para roubar delas uma grande quantidade de dinheiro.

O aumento dos golpes de clonagem de voz por IA

Nosso recente estudo global constatou que, das 7.000 pessoas pesquisadas, uma em cada quatro afirmou ter sofrido um golpe de clonagem de voz por IA ou conhecer alguém que tenha passado por isso. Além do mais, nossa equipe de pesquisa do McAfee Labs descobriu a facilidade com que os cibercriminosos podem aplicar esses golpes. Com uma pequena amostra da voz de uma pessoa e um roteiro elaborado por um cibercriminoso, essas mensagens clonadas parecem convincentes.

No entanto, em nossa pesquisa mundial, 70% das pessoas disseram que não estavam seguras de poder distinguir uma voz clonada de uma real. Os cibercriminosos criam o tipo de mensagem que você pode esperar. Angustiantes e cheios de urgência.

Eles usarão a ferramenta de clonagem para se passar por um amigo ou familiar da vítima com uma mensagem de voz dizendo que sofreram um acidente de carro, foram roubados ou estão machucados. De qualquer forma, a mensagem falsa geralmente diz que você precisa de dinheiro imediatamente.

Resumindo, a abordagem tem se mostrado bastante eficaz até agora. Uma em cada dez pessoas pesquisadas em nosso estudo disse que recebeu uma mensagem de um clone de voz de IA, e 77% dessas vítimas disseram que perderam dinheiro como resultado.

O custo dos golpes de clonagem de voz por IA

Das pessoas que relataram ter perdido dinheiro, 36% disseram que perderam entre US$ 500 e US$ 3.000, enquanto 7% tiveram entre US$ 5.000 e US$ 15.000 roubados. É claro que um clone precisa de um original. Os cibercriminosos não têm dificuldade em obter arquivos de voz originais para criar seus clones.

Nosso estudo constatou que 53% dos adultos disseram que compartilham seus dados de voz on-line ou em anotações gravadas pelo menos uma vez por semana, e 49% o fazem até dez vezes por semana.

Toda essa atividade gera gravações de voz que podem ser hackeadas, roubadas ou compartilhadas (seja acidental ou maliciosamente intencional).

Considere que as pessoas postam vídeos de si mesmas no YouTube, compartilham vídeos nas redes sociais e talvez até participem de podcasts. Mesmo acessando fontes relativamente públicas, os cibercriminosos podem estocar seus arsenais com um poderoso material de origem.

Quase a metade (45%) dos entrevistados da nossa pesquisa afirmou que responderia a uma mensagem de voz que dissesse ser de um amigo ou ente querido precisando de dinheiro, principalmente se eles achassem que a solicitação tivesse vindo de seu companheiro sentimental ou cônjuge (40%), mãe (24%) ou filho (20%).

Além disso, eles informaram que provavelmente responderiam a uma dessas mensagens se o remetente da mesma dissesse que:

  • Sofreu um acidente de carro (48%).
  • Foi roubado (47%).
  • Perdeu o celular ou a carteira (43%).
  • Precisou de ajuda enquanto viajava ao exterior (41%).

Essas mensagens são os exemplos mais recentes de ataques de “spear phishing” direcionados, que têm como alvo determinadas pessoas com informações específicas que parecem suficientemente confiáveis para agir em conformidade.

Os cibercriminosos geralmente obtêm essas informações de perfis públicos em redes sociais e outros locais on-line onde as pessoas publicam informações sobre si mesmas, suas famílias, suas viagens e assim por diante. O objetivo é tentar lucrar com o uso desses dados.

Os métodos de pagamento variam, mas os cibercriminosos geralmente pedem formas que são difíceis de rastrear ou recuperar, como cartões-presente, transferências bancárias, cartões pré-pago recarregáveis e até mesmo criptomoedas. Como sempre, solicitações desse tipo de pagamento são um grande sinal de alerta. Pode muito bem ser um golpe.

Ferramentas de clonagem de voz por IA: totalmente disponíveis para os cibercriminosos

Os pesquisadores do McAfee Labs também passaram duas semanas investigando a acessibilidade, a facilidade de uso e a eficácia das ferramentas de clonagem de voz com IA. Eles encontraram rapidamente mais de uma dezena de vídeos disponíveis gratuitamente na Internet. Essas ferramentas exigiam apenas um nível básico de experiência e conhecimento para serem usadas.

Em um caso, apenas três segundos de áudio foram suficientes para produzir um clone com 85% de correspondência de voz com o original (com base no benchmarking e na avaliação dos pesquisadores de segurança da McAfee).

Um esforço adicional pode aumentar ainda mais a precisão. Ao treinar os modelos de dados, os pesquisadores da McAfee conseguiram uma correspondência de voz de 95% com base em apenas um pequeno número de arquivos de áudio. Os pesquisadores da McAfee também descobriram que podiam replicar facilmente os sotaques de todo o mundo, fossem eles dos EUA, do Reino Unido, da Índia ou da Austrália.

No entanto, vozes mais distintas foram mais difíceis de copiar, como as de pessoas que falam com um ritmo, uma cadência ou um estilo incomum. Pense no ator Christopher Walken… Essas vozes exigem mais esforço para serem clonadas com precisão e as pessoas com essas vozes têm menos probabilidade de serem clonadas, pelo menos com a tecnologia de IA atual e deixando de lado as imitações cômicas.

A equipe de pesquisa afirmou que essa é mais uma maneira pela qual a IA reduziu a barreira de entrada para os cibercriminosos. Seja usando a IA para criar malware, escrever mensagens enganosas em golpes do namoro ou agora com ataques de spear phishing com tecnologia de clonagem de voz, nunca foi tão fácil cometer crimes cibernéticos com aparência e som sofisticados.

Da mesma forma, o estudo também descobriu que o aumento de deepfakes e outras desinformações criadas com ferramentas de IA tornou as pessoas mais céticas em relação ao que veem on-line. Agora, 32% dos adultos disseram que sua confiança nas redes sociais é menor do que nunca. 

Proteja-se do ataque dos clones de voz por IA

  1. Defina um código verbal com seus filhos, familiares ou amigos íntimos de confiança. Certifique-se de que somente você e as pessoas mais próximas o conheçam. (Os bancos e as empresas de segurança geralmente criam contas com uma palavra-código para garantir que realmente seja você quem entra em contato com eles). Certifique-se de que todos a conheçam e a usem nas mensagens quando pedirem ajuda.
  2. Sempre questione a fonte. Além das ferramentas de clonagem de voz, os cibercriminosos têm outras ferramentas que podem falsificar números de telefone para que pareçam legítimos. Mesmo que seja uma mensagem de voz ou de texto de um número que você reconhece, não deixe de parar para pensar. Realmente se parece com a pessoa que você acha que é? Desligue e ligue diretamente para a pessoa ou tente verificar as informações antes de responder.
  3. Pense antes de clicar e compartilhar. Quais são os seus contatos nas redes sociais? Até que ponto você realmente os conhece e confia neles? Quanto mais pessoas pertencerem à sua rede de contatos, mais riscos você corre ao compartilhar conteúdo sobre si mesmo. Seja cuidadoso com os amigos e conexões que você tem on-line e configure seus perfis apenas para “amigos e familiares”, assim seu conteúdo não está disponível para o público em geral.
  4. Proteja sua identidade. Os serviços de monitoramento de identidade podem notificá-lo se suas informações pessoais forem parar na dark web e orientá-lo sobre medidas de proteção. Isso pode reduzir as maneiras pelas quais um golpista tente se passar por você.
  5. Retire seu nome dos sites de corretores de dados. Como esse golpista conseguiu seu número de telefone? É provável que tenha obtido essas informações em um site de corretor de dados. Os corretores de dados compram, coletam e vendem informações pessoais detalhadas, que depois compilam de várias fontes públicas e privadas, como registros locais, estaduais e federais, além de terceiros. Com nossa limpeza de contas on-line você descobre quais empresas têm acesso à sua informação e pode removê-la antes de que ocorram violações de dados.

Veja a história completa em

Você pode encontrar muita coisa num áudio de três segundos. Com o surgimento das ferramentas de clonagem de voz orientadas por IA, os cibercriminosos criaram uma nova forma de golpe. Com uma precisão indiscutivelmente impressionante, essas ferramentas podem permitir que os cibercriminosos imitem a praticamente qualquer pessoa. Tudo o que precisam é de um clipe de áudio curto para iniciar o processo de clonagem.

No entanto, como em qualquer golpe, você tem maneiras de se proteger. Um bom senso do que parece certo e errado, juntamente como alguns simples passos de segurança, podem ajudar você e seus entes queridos a não caírem nesses golpes de clonagem de voz com IA. Para uma análise mais detalhada dos dados da pesquisa, além de um detalhamento por país, baixe uma cópia do nosso relatório aqui.

Metodologia da pesquisa

A pesquisa foi realizada entre 27 de janeiro e 1º de fevereiro de 2023 pela empresa de pesquisa de mercado MSI-ACI, com pessoas com 18 anos ou mais convidadas a responder a um questionário on-line. No total, 7.000 pessoas responderam à pesquisa em nove países, incluindo Estados Unidos, Reino Unido, França, Alemanha, Austrália, Índia, Japão, Brasil e México. 

FacebookLinkedInTwitterEmailCopy Link

Mantenha-se atualizado

Siga-nos para se manter atualizado sobre a McAfee e ficar por dentro das mais recentes ameaças à segurança móvel e do consumidor.

FacebookTwitterInstagramLinkedINYouTubeRSS

Mais De Privacidade e Proteção de identidade

Back to top