Celebridades que os golpistas mais imitam: McAfee revela quem é alvo de deepfakes

Você já viu os vídeos: uma Taylor Swift perfeita demais promovendo utensílios de cozinha gratuitos. Um falso Tom Hanks oferecendo seguro odontológico.
Eles parecem reais, mas não são.
Nova pesquisa do McAfee Labs mostra como esses golpes se tornaram comuns.
Nossa Lista das celebridades mais perigosas: lista de Deepfakes de 2025 classifica as celebridades e influenciadores cujas imagens são mais utilizadas indevidamente por golpistas e revela um mercado crescente de recomendações falsas geradas por inteligência artificial.
No topo da lista? Taylor Swift, seguida por Scarlett Johansson, Jenna Ortega e Sydney Sweeney. Globalmente, nomes como Brad Pitt, Billie Eilish e Emma Watson também aparecem entre os mais explorados.
A McAfee também divulgou sua primeira lista de deepfakes de influenciadores, liderada pela gamer e streamer Pokimane, mostrando que os golpistas agora estão visando as plataformas sociais de forma tão agressiva quanto visam as celebridades de Hollywood.

As 10 celebridades mais perigosas (2025): EUA 

Lista das 10 celebridades mais exploradas por golpistas em 2025, de acordo com a McAfee, liderada por Taylor Swift.
O relatório de 2025 da McAfee revela as celebridades mais exploradas em golpes online, com Taylor Swift em primeiro lugar nos EUA

.

As 10 celebridades mais perigosas (2025): Global

Classificação global de 2025 da McAfee dos nomes de celebridades mais explorados e usados em golpes online.
Taylor Swift está no topo da lista global da McAfee de celebridades que tiveram suas imagens mais utilizadas por golpistas em 2025, seguida por Scarlett Johansson e Jenna Ortega

.

Os 10 influenciadores mais perigosos  (2025): Global 

 

Os 10 principais influenciadores mais imitados por golpistas online em 2025, de acordo com a McAfee, com Pokimane em primeiro lugar.
De Pokimane a MrBeast, a lista de 2025 da McAfee mostra quais influenciadores são mais explorados em golpes.

Por que os golpistas adoram rostos famosos

A fórmula é simples: usar alguém em quem as pessoas confiam para vender algo que não existe.

Criminosos clonam vozes e rostos de celebridades com IA para promover sorteios falsos, produtos de cuidados com a pele, investimentos em criptomoedas ou ofertas “exclusivas” que levam diretamente a malware ou fraudes de pagamento.

De acordo com a pesquisa da McAfee com 8.600 pessoas em todo o mundo:

  • 72% dos americanos já viram recomendações falsas de celebridades ou influenciadores.
  • 39% já clicaram em uma recomendação falsa.
  • 1 em cada 10 perdeu dinheiro ou dados pessoais, com uma média de US$ 525 por vítima.

Os golpistas exploram a confiança. Quando você vê um rosto conhecido, seu cérebro automaticamente baixa a guarda. E é exatamente com isso que eles contam.

Como os deepfakes estão aparecendo cada vez mais nas manchetes

A IA fez com que esses golpes parecessem assustadoramente reais.

Geradores de deepfake modernos conseguem imitar vozes, movimentos faciais e até microexpressões com uma precisão impressionante. Apenas 29% das pessoas se sentem confiantes em identificar uma falsificação, e 21% admitem ter insegurança em identificar deepfakes.

Foi assim que as recomendações falsas e os golpes de romance com IA explodiram na Internet.

  • Uma mulher na França perdeu quase US$ 900.000 para um golpista que se fez passar por Brad Pitt, com imagens e mensagens de voz geradas por IA.
  • O apresentador de TV Al Roker foi recentemente alvo de um vídeo deepfake falso dizendo que ele havia sofrido ataques cardíacos.
  • Tom Hanks, Oprah e Scarlett Johansson também já apareceram em anúncios fraudulentos de produtos com os quais nunca tiveram nenhuma relação.

A frase “ver para crer” já não vale mais — e os golpistas sabem disso.

A psicologia do golpe

Golpes com deepfakes não dependem só da tecnologia; eles se aproveitam das relações parassociais, aqueles vínculos emocionais de mão única que fãs criam com figuras públicas.

Quando uma “celebridade” te manda mensagem, nem sempre soa estranho. Parece pessoal. Essa sensação de intimidade faz as pessoas agirem antes de pensar.

É a mesma estratégia psicológica por trás dos golpes românticos, agora potencializada por ferramentas de IA que fazem com que vídeos e mensagens de voz falsos soem assustadoramente reais.

Como você pode se proteger

  1. Pense antes de clicar. Se um anúncio ou post parecer estranho ou “bom demais para ser verdade”, provavelmente é.
  2. Verifique na fonte. Confira o perfil verificado da celebridade nas redes sociais. Os golpistas geralmente copiam fotos de perfil e a bio, mas deixam passar detalhes sutis, como estilo de postagem ou padrões de engajamento.
  3. Procure sinais de manipulação de IA. Fique atento a movimentos labiais fora de sincronia, tom de voz robótico ou iluminação estranha.
  4. Nunca compartilhe dados pessoais ou de pagamento por meio de mensagens, mesmo que o remetente pareça ser verificado.

Principais conclusões

O estilo de vida das celebridades e influenciadores sempre direcionou o que compramos, mas agora está mudando a forma como os golpistas nos enganam. Esses deepfake não apenas roubam dinheiro, mas também minam nossa confiança no que vemos, ouvimos e compartilhamos online.

As celebridades no centro desses golpes não são cúmplices, elas também são vítimas, pois os criminosos se apropriam de suas imagens para explorar o vínculo entre os fãs e as pessoas que eles admiram. E à medida que as ferramentas de deepfake se tornam mais fáceis de usar, a linha entre o real e o falso está desaparecendo rapidamente.

O próximo “sorteio” viral pode nem ser um anúncio de verdade… pode ser apenas uma armadilha.

Você não pode impedir que os golpistas clonem rostos famosos, mas pode impedir que eles te enganem.

FacebookLinkedInTwitterEmailCopy Link

Mantenha-se atualizado

Siga-nos para se manter atualizado sobre a McAfee e ficar por dentro das mais recentes ameaças à segurança móvel e do consumidor.

FacebookTwitterInstagramLinkedINYouTubeRSS

Mais de Segurança na Internet

Back to top