Imagine que seu telefone toca. É o seu chefe, instruindo você exaltadamente a transferir milhões de dólares para um novo fornecedor para fechar um negócio importante. A solicitação é incomum, mas a voz é inconfundivelmente a dele, então você faz a transferência. Horas depois, você descobre que o negócio era falso, que o fornecedor era um golpista e que a voz ao telefone era uma réplica digital perfeita.

Essa não é uma cena de um thriller de ficção científica. É a realidade assustadora de golpes sofisticados e de rápido crescimento de deepfakes e falsificações de voz por IA. À medida que a tecnologia para falsificação de voz por IA e geração de vídeo deepfake se torna mais acessível, esses golpes não estão mais limitados a alvos corporativos de alto valor. Eles são cada vez mais usados para se passar por membros da família, criar desinformação política e perpetrar novas formas de roubo de identidade.

Somente em 2024, as ocorrências de fraude deepfake aumentaram em impressionantes 3.000%, impulsionadas pela democratização de poderosas ferramentas de IA e pela enorme quantidade de nossos dados pessoais que estão disponíveis online. Os golpistas não precisam mais de recursos de nível hollywoodiano. Tudo o que eles precisam é de um software cada vez mais acessível para clonar uma voz a partir de um vídeo curto de mídia social ou criar um vídeo falso e convincente a partir de fotos públicas.

Este guia foi elaborado para que você tenha o conhecimento necessário para navegar nesse novo campo minado digital, aprender como essa tecnologia funciona, explorar exemplos do mundo real e seu impacto devastador e fornecer estratégias práticas para detectar esses golpes e proteger você, sua família e sua empresa contra fraudes.

O que são golpes de voz com IA e deepfake?

Os golpes de voz com IA utilizam tecnologia sofisticada para imitar a voz de uma pessoa, geralmente obtida de áudio disponível publicamente ou de violações de dados, acompanhada de narrativas urgentes ou desesperadas para enganar as vítimas e fazê-las enviar dinheiro ou divulgar informações confidenciais. Eles podem se passar por um membro da família em uma emergência ou por um colega que precisa de fundos imediatos, explorando laços emocionais e criando um senso de urgência para enganar a vítima.

Já os deepfakes são vídeos feitos com IA—ou autoaprendizagem sintéticos, mas hiper-realistas que trocam rostos perfeitamente, alteram expressões ou até mesmo geram cenários inteiramente novos. Eles fazem parecer que alguém disse ou fez algo que nunca fez, removendo as barreiras entre a ficção e a realidade.

A ciência por trás da clonagem de voz por IA e dos golpes de deepfake

A principal tecnologia por trás da falsificação de voz por IA é a síntese de voz, geralmente alimentada por redes adversárias generativas (GANs). Aqui está um resumo simplificado de como isso funciona:

  • Coleta de dados: um golpista precisa de uma amostra da voz do alvo. Isso pode ser surpreendentemente fácil de obter. Alguns segundos de uma mensagem de voz, um vídeo de mídia social, uma entrevista de podcast ou até mesmo uma chamada de atendimento ao cliente geralmente são suficientes.
  • Treinamento do modelo: o modelo de IA analisa a amostra de voz, dividindo-a em características exclusivas – tom, timbre, sotaque, ritmo e até mesmo padrões de respiração – e aprende a imitar esses biomarcadores vocais.
  • Geração e refinamento: o golpista digita o script que deseja que a IA “fale”. A parte geradora do GAN cria o áudio, enquanto a parte discriminadora verifica sua autenticidade em relação à amostra de voz original. Em poucos segundos, esse processo se repete milhares de vezes até que a voz gerada se torne mais realista a cada ciclo.

O resultado é um arquivo de áudio altamente convincente que é usado durante uma chamada telefônica de vishing ou phishing por voz ou incorporado a um vídeo.

A tecnologia por trás dos vídeos deepfake é bastante semelhante à clonagem de voz, exceto pelo fato de que os golpistas coletam imagens e vídeos da pessoa-alvo de fontes públicas, como mídia social, relatórios de notícias ou sites de empresas. Quanto mais dados visuais você tiver, mostrando diferentes ângulos, expressões, iluminação, características faciais, maneirismos e movimentos, mais realista será o deepfake final.

Depois de treinada, a IA pode sobrepor o rosto sintetizado a um vídeo originalmente de outra pessoa, combinando o rosto do alvo com as expressões e os movimentos do rosto do ator. O áudio, que pode ser uma voz clonada, é então sincronizado com o vídeo e usado para golpes visando obter ganhos financeiros, causar danos à reputação ou manipulação política.

Impacto no mundo real dos golpes de deepfake

Fraude de CEO

Nos golpes envolvendo CEOs, também conhecidos como comprometimento de e-mail comercial, os golpistas enviam e-mails fingindo ser executivos para enganar os funcionários e levá-los a fazer transferências eletrônicas não autorizadas. Em 2019, o CEO de uma empresa de energia sediada no Reino Unido foi enganado e transferiu € 220.000 para um fornecedor húngaro depois de receber uma ligação de alguém que imitava perfeitamente a voz do diretor executivo de sua principal empresa alemã. O CEO relatou que reconheceu o “leve sotaque alemão e o falar característico” de seu chefe, fazendo com que a solicitação parecesse completamente legítima.

Golpe dos avós

O golpe clássico dos avós envolve um golpista que liga para uma pessoa idosa, fingindo ser seu neto que está com problemas e precisa de dinheiro imediatamente. Nesse caso, os golpistas extraem um pequeno clipe de áudio da voz do neto, seja de um vídeo do TikTok ou do Instagram para criar um pedido de ajuda convincente. Uma mãe no Arizona recebeu uma ligação de um número desconhecido, mas ouviu a voz de sua filha de 15 anos chorando e dizendo que havia sido sequestrada. Enquanto a mulher estava ao telefone, seu marido ligou para a filha, que estava em segurança em um treino de esqui. A voz no telefone era totalmente falsificada. → Relacionado: Como um parente próximo perdeu US$ 100.000 em um golpe envolvendo idosos

Desinformação política

A ameaça da IA se estende aos processos democráticos e espalha confusão em massa. No início de 2024, os residentes de New Hampshire receberam uma chamada automática com um áudio criado com IA do President Joe Biden, falso, pedindo para que não votassem nas primárias do estado. Pessoas mal-intencionadas podem usar a tecnologia deepfake para criar vídeos ou áudios comprometedores para chantagear indivíduos ou causar danos à reputação.

Golpes de namoro virtual

Agora, os golpistas usam imagens, vídeos e vozes clonadas do tipo deepfake para criar pessoas fictícias, mas muito convincentes em plataformas de namoro. As vítimas, geralmente pessoas solitárias em busca de companhia, são manipuladas emocional e financeiramente enquanto as chamadas de vídeo deepfake reduzem as suspeitas desses golpes românticos. Muitas mulheres perderam suas economias, acreditando que estavam romanticamente envolvidas com uma pessoa confiável ou com celebridades populares. Somente depois de enviar o dinheiro, as mulheres perceberam que haviam sido enganadas.

→ Relacionado: Os chatbots de IA estão se tornando golpistas de romance – e 1 em cada 3 pessoas admite que poderia cair em um deles

Golpes de endosso de celebridades

Os fraudadores sobrepõem o rosto e a voz de uma celebridade em vídeos promocionais de golpes de investimento e produtos milagrosos. Assim, é mais provável que os fãs e seguidores das mídias sociais sejam induzidos a gastar dinheiro, acreditando que o endosso é genuíno. Um exemplo recente é um vídeo deepfake da Taylor Swift oferecendo utensílios de cozinha, enganando os fãs para que comprem o produto.

Contornar a segurança biométrica

O áudio ou vídeo deepfake pode ser usado para imitar os recursos biométricos de um alvo para obter acesso não autorizado a contas bancárias, telefones celulares e sistemas corporativos confidenciais. Os titulares de contas financeiras e aqueles que usam reconhecimento facial ou de voz para transações confidenciais são especialmente vulneráveis.

Falsificação de identidade de autoridades governamentais e policiais

Os criminosos usam deepfakes para se passar por autoridades – polícia, agentes do IRS ou funcionários da imigração – em telefonemas ou videochamadas, exigindo dinheiro ou informações pessoais. Os imigrantes, os idosos e aqueles que não estão familiarizados com as normas de procedimento enfrentam o maior risco.

Como identificar um golpe

Seja uma ligação telefônica que soa exatamente como a de um ente querido ou um vídeo de uma figura pública dizendo algo que nunca disse, esses golpes são criados para se aproveitar da sua confiança. Com o conhecimento correto, você pode aprender a reconhecer os sinais sutis de que algo não está certo. Aqui está uma lista de sinais de alerta para ajudar você a identificar uma voz de IA ou um golpe de vídeo deepfake antes que seja tarde demais.

Clonagem de voz por IA

Os modelos de IA têm dificuldade para reproduzir perfeitamente as nuances da emoção e da fala humanas. Para reconhecer os sinais reveladores de um golpe de voz quando você receber uma chamada suspeita, preste atenção às imperfeições sutis listadas abaixo, mesmo que a voz pareça familiar.

  • Falar monótono e sem entonação: a fala pode não ter as variações emocionais normais. Ela pode soar estranhamente distante ou robótica, mesmo que a voz esteja correta.
  • Anomalias digitais perceptíveis: ocasionalmente, você pode ouvir um leve zumbido eletrônico, eco ou “anomalias” sonoras, ausentes especialmente em chamadas mais longas.
  • Ritmo ou cadência incomuns: preste atenção a pausas estranhas no meio das frases ou a um ritmo que pareça um pouco estranho. Às vezes, as palavras se juntam de forma não natural ou as pausas ficam estranhas, diferentemente de uma conversa orgânica.
  • Falta de sons humanos: você pode não ouvir os pequenos sons subconscientes que as pessoas fazem, como limpar a garganta, suspirar ou outros ruídos. Por outro lado, você pode ouvir sons respiratórios inseridos digitalmente que são muito regulares. O riso e a surpresa muitas vezes soam especialmente antinaturais no áudio criado com IA.
  • Qualidade de áudio ruim ou ruído de fundo estranho: embora não seja um sinal definitivo, os golpistas geralmente usam um fundo de estática ou sons de call center para mascarar imperfeições na clonagem de voz. Se os sons de fundo forem genéricos ou tiverem um loop estranho, isso é um possível sinal de manipulação.
  • Frases repetitivas: a IA pode estar operando com um script limitado. Se você fizer uma pergunta e receber uma versão ligeiramente reformulada de uma declaração anterior, desconfie.

→  Relacionado: Impostores artificiais – Os cibercriminosos recorrem à clonagem de voz com IA para uma nova espécie de golpe

Vídeos deepfake

Em uma videochamada ou em um vídeo pré-gravado, algumas pistas visuais podem revelar a enganação. Procure falhas nas quais a IA não consegue criar uma realidade perfeita.

  • Tremulação visual: observe se há tremulações repentinas e breves em que o rosto ou a cabeça parecem vibrar ou se deslocar de forma não natural, especialmente quando a pessoa se move rapidamente.
  • Movimento não natural dos olhos: os deepfakes geralmente têm dificuldade em piscar de forma realista. A suposta pessoa pode não piscar o suficiente ou o piscar pode parecer não natural. Se o olhar da pessoa não acompanhar o seu movimento ou a câmera, isso pode indicar uma falsificação.
  • Sincronização labial incompatível: as palavras que você ouve podem não se alinhar perfeitamente com os movimentos dos lábios da pessoa. Isso geralmente é mais óbvio no início ou no final das frases ou durante a fala rápida.
  • Expressões faciais estranhas: os movimentos faciais podem não corresponder à emoção que está sendo transmitida pela voz. Sorrisos e risadas frequentemente revelam falhas em vídeos deepfake.
  • Bordas desfocadas ou distorcidas: observe atentamente as transições entre o rosto e o pescoço, o cabelo ou o fundo. Você talvez observe um efeito estranho de desfocagem, distorção ou inconsistências nas cores. Chapéus e óculos são pontos problemáticos frequentes em vídeos deepfake.
  • Iluminação, sombras e texturas inconsistentes: a iluminação no rosto da pessoa pode não corresponder à iluminação no restante do ambiente. Por exemplo, as sombras podem estar na direção errada. A pele também pode parecer muito lisa, plástica ou ter uma textura incomum.

→ Relacionado: McAfee e Intel colaboram para combater deepfakes com detecção de deepfake com IA

Estratégia psicológica em um golpe: urgência, sigilo e emoção

Além da tecnologia, os golpes de deepfake se baseiam nas mesmas táticas de engenharia social das fraudes tradicionais. O objetivo é causar um curto-circuito no seu pensamento crítico, colocando você sob pressão.

  • Extrema urgência: o golpista insistirá que você deve agir imediatamente para evitar que tenha tempo de pensar, consultar outras pessoas ou verificar a solicitação.
  • Manipulação emocional: a comunicação é cuidadosamente projetada para provocar medo, ansiedade ou excitação, a fim de obscurecer o julgamento e evitar seus protocolos de segurança normais.
  • Exigência de sigilo: muitas vezes, eles dirão a você para não falar com mais ninguém sobre a solicitação, fingindo confidencialidade ou preocupação com o bem-estar de outras pessoas.
  • Métodos de pagamento incomuns: os golpistas quase sempre exigem dinheiro por meio de métodos não convencionais, como transferências eletrônicas, criptomoedas ou cartões-presente, porque esses métodos não podem ser rastreados ou revertidos.
  • Gancho emocional: a solicitação será projetada para provocar uma forte resposta emocional, como medo durante um falso sequestro, ganância envolvendo um negócio secreto ou compaixão por um ente querido em apuros.

Proteja-se e também proteja sua empresa contra fraudes de IA

Para se manter protegido, a conscientização e a defesa proativa são essenciais. Protocolos simples, mas eficazes, em sua vida pessoal e profissional ajudam a construir uma forte defesa contra esses ataques. Embora nenhuma tecnologia seja infalível, adicionar camadas de segurança pode impedir os invasores.

Para pessoas físicas: fortaleça sua segurança pessoal

  1. Estabeleça um código: combine uma palavra ou pergunta secreta com seus familiares mais próximos e peça para que te digam qual o código, caso você receba uma ligação com tom de urgência pedindo dinheiro. Um golpista que usa clonagem de voz com IA não saberá a resposta.
  2. Verifique, verifique, verifique: se você receber uma solicitação urgente de dinheiro ou de informações confidenciais, desligue. Entre em contato com a pessoa por um canal diferente e conhecido, seja por meio de um número de telefone confiável, mensagem de texto ou outro aplicativo de mensagens para confirmar que a solicitação é de verdade.
  3. Tenha consciência de sua pegada digital: tenha cuidado com a quantidade de conteúdo de áudio e vídeo que você posta publicamente nas mídias sociais. Quanto mais amostras de voz um golpista tiver, melhor será a falsificação. Considere a possibilidade de tornar suas contas privadas.
  4. Questione contatos inesperados: se você receber uma ligação ou um bate-papo por vídeo de um número desconhecido que alega ser alguém que você conhece, desconfie. Faça perguntas pessoais que somente a pessoa em questão saberia responder.

Para empresas: implemente uma defesa em várias camadas

  1. Treinamento obrigatório dos funcionários: a maior vulnerabilidade em qualquer organização é um funcionário não treinado. Realize sessões de treinamento regulares para instruir sua equipe sobre golpes de deepfake, vishing e táticas de engenharia social. Use exemplos do mundo real para destacar a ameaça.
  2. Implemente protocolos de verificação rigorosos: crie um processo de verificação em várias etapas para qualquer transação financeira ou solicitação de transferência de dados, especialmente se for incomum ou urgente. Isso inclui a verificação obrigatória de retorno de chamada para um número pré-aprovado ou um check-in presencial para grandes quantias. Nunca dependa de um único dado de contato por telefone ou e-mail.
  3. Restrinja as informações públicas: sempre que possível, limite a quantidade de informações disponíveis publicamente sobre seus principais executivos, como vídeos e gravações de áudio no site da empresa ou em fóruns públicos.
  4. Use a tecnologia como uma defesa: considere soluções de segurança avançadas que usem biometria, como “impressão de voz”, para autenticar os usuários.

O que você deve fazer após uma tentativa de golpe por voz de IA ou por vídeo deepfake?

Descobrir que você foi alvo de um golpe de voz de IA ou de vídeo deepfake pode ser perturbador, mas sua resposta pode ajudar a proteger sua identidade, suas finanças e outras pessoas de serem vítimas. Veja o que você deve fazer imediatamente após se deparar com uma tentativa de golpe com tecnologia de IA:

  • Não dê prosseguimento: desligue o telefone ou encerre a chamada de vídeo imediatamente. Quanto mais tempo você permanecer na linha, mais oportunidades o golpista terá para manipulá-lo. Não forneça nenhuma informação pessoal.
  • Não envie dinheiro: não importa o quanto a história seja convincente ou comovente, não faça nenhum pagamento ou transferência.
  • Faça uma pausa e pense: respire fundo. O golpe foi criado para fazer você entrar em pânico. Dar a si mesmo um momento para pensar com clareza é sua melhor defesa.
  • Verifique de forma independente: entre em contato com a pessoa real por meio de um canal de comunicação diferente e confiável para confirmar seu bem-estar e a legitimidade da solicitação.

Relatar o incidente

Denunciar essas tentativas é fundamental, mesmo que você não tenha caído no golpe. Isso ajuda as autoridades policiais a identificar, rastrear e acabar com essas redes criminosas.

  • Entre em contato com a polícia: denuncie o golpe ao departamento de polícia local e às agências federais. Nos EUA, você deve registrar uma denúncia no Internet Crime Complaint Center do FBI.
  • Informe a Comissão Federal de Comércio (FTC): a FTC rastreia padrões de golpes para emitir avisos públicos e tomar medidas contra empresas fraudulentas. Você pode denunciar fraudes em ReportFraud.ftc.gov.
  • Notifique as plataformas relevantes: se o golpe tiver sido originado de uma plataforma de mídia social, denuncie a conta responsável por violar as políticas da plataforma sobre falsificação de identidade e mídia sintética.

Consequências de você cair em golpes de voz com IA ou de vídeo deepfake

Se você for vítima de golpes de falsificação de voz por IA e deepfake, isso trará consequências devastadoras que podem afetar sua vida financeira, pessoal e até mesmo jurídica. Abaixo estão alguns deles:

  • Repercussões imediatas: o impacto mais imediato é a perda financeira, pois os golpistas vão esvaziar suas contas bancárias ou vão convencer você a transferir grandes quantias irrecuperáveis.
  • Roubo de identidade e danos ao crédito: se você compartilhar informações confidenciais, os fraudadores poderão abrir novas contas, fazer empréstimos ou cometer outras fraudes em seu nome, resultando em danos de longo prazo ao crédito e na demorada tarefa de recuperar sua identidade.
  • Sofrimento emocional: o choque, o constrangimento e o estresse podem ser avassaladores, provocando ansiedade, perda de confiança e até depressão. Muitas vítimas se culpam, apesar de terem sido alvo de um criminoso sofisticado.
  • Consequências legais e de reputação: as empresas podem enfrentar processos judiciais de clientes ou autoridades reguladoras, enquanto as pessoas físicas podem sofrer investigações prolongadas, especialmente se os golpistas usarem suas identidades para atividades nefastas.

Perguntas frequentes: deepfake e golpe com IA

É possível fazer um deepfake com apenas uma foto?

Embora mais dados – várias fotos e vídeos – produzam um deepfake mais convincente, os deepfakes básicos podem ser criados a partir de uma única fotografia. Por exemplo, a IA pode animar uma foto estática para fazer com que pareça que a pessoa está falando ou olhando ao redor. Mas esse tipo de deepfake é muito mais fácil de ser identificado do que um que foi feito tendo como base vários vídeos.

Golpes deepfake são ilegais?

Sim. O uso de deepfakes para fraude, assédio ou falsificação de identidade é ilegal. Em 2024, os órgãos federais dos EUA tomaram medidas significativas para combater essa ameaça. A FCC ( Federal Communications Commission, Comissão Federal de Comunicações ) proibiu vozes geradas por IA em ligações telefônicas automáticas, enquanto a FTC ( Federal Trade Commission, Comissão Federal de Comércio ) introduziu regras que proíbem especificamente a personificação de indivíduos, empresas ou órgãos governamentais para cometer fraudes.

Qual é o tipo mais comum de golpe de deepfake?

Atualmente, a fraude financeira é o tipo mais comum e prejudicial de golpe deepfake. Isso inclui fraudes de CEO ou golpes de comprometimento de e-mail comercial, em que os criminosos usam vozes ou vídeos de executivos clonados por IA para induzir os funcionários a fazer transferências eletrônicas não autorizadas. Os golpes que se fazem passar por membros da família em dificuldades para solicitar dinheiro também são cada vez mais comuns e eficazes.

Principais conclusões

O aumento dos golpes de deepfake e da falsificação de voz por IA representa uma mudança fundamental na segurança digital, pois os golpistas forjam digitalmente nossas vozes e imagens com facilidade. No entanto, você pode combater essas atividades criminosas com uma estratégia de defesa central que permanece notavelmente humana – melhor instrução digital, vigilância mais forte, pensamento crítico mais profundo, uma dose saudável de desconfiança e um comprometimento com a verificação.

Entender como funciona a clonagem de voz com IA, aprender a reconhecer os sinais de alerta técnicos e psicológicos e implementar protocolos de segurança robustos em sua vida pessoal e profissional ajudará você a criar uma defesa formidável. Recursos de IA da McAfee e ferramentas de segurança cibernética podem apoiá-lo nessa tarefa.

O futuro, sem dúvida, trará formas ainda mais sofisticadas de mídia sintética. Manter-se informado e proativo é sua melhor estratégia. Compartilhe essas informações com sua família, amigos e colegas. Quanto mais pessoas estiverem cientes das táticas de golpe, menos eficazes elas se tornarão.