Guide sur les escroqueries de type hypertrucage et l’usurpation vocale par l’IA
Imaginez que votre téléphone sonne. C’est votre patron qui vous demande frénétiquement de virer des millions de dollars à un nouveau fournisseur pour conclure un marché important. La demande est inhabituelle, mais la voix est indubitablement la sienne. Vous effectuez donc le virement. Quelques heures plus tard, vous découvrez que le marché était faux, que le fournisseur était un escroc et que la voix au téléphone était une réplique numérique parfaite.
Il ne s’agit pas d’une scène d’un thriller de science-fiction. C’est la réalité terrifiante des escroqueries sophistiquées de type hypertrucage, qui connaissent une croissance fulgurante, et de l’usurpation vocale par l’IA. À mesure que la technologie d’usurpation vocale par l’IA et de génération d’hypertrucages vidéo devient plus accessible, ces escroqueries ne ciblent plus seulement les entreprises de grande valeur. Elles sont de plus en plus utilisées pour usurper l’identité de membres de la famille, créer de la désinformation politique et perpétrer de nouvelles formes de vol d’identité.
Rien qu’en 2024, les cas de fraude par hypertrucage ont bondi de 3 000 %, alimentés par la démocratisation d’outils d’IA puissants et le vaste océan de nos renseignements personnels en ligne. Les escrocs n’ont plus besoin de ressources dignes d’Hollywood. Des logiciels de plus en plus accessibles leur permettent de cloner une voix à partir d’un court extrait issu des médias sociaux ou de créer une fausse vidéo convaincante à partir de photos publiques.
Ce guide vous donne les connaissances nécessaires pour naviguer dans ce nouveau champ de mines numérique, explique comment cette technologie fonctionne, fournit des exemples concrets et démontre leur impact dévastateur, et offre des stratégies exploitables pour détecter ces escroqueries et vous protéger, vous, votre famille et votre entreprise, contre la fraude.
En quoi consistent les fraudes vocales générées par l’IA et les escroqueries de type hypertrucage?
Les fraudes vocales générées par l’IA s’appuient sur une technologie sophistiquée pour imiter la voix d’une personne, généralement obtenue à partir d’enregistrements audio publics ou de violations de données, accompagnée de messages urgents ou bouleversés pour inciter les victimes à envoyer de l’argent ou à divulguer des renseignements sensibles. Les escrocs peuvent se faire passer pour un membre de la famille en situation d’urgence ou un collègue ayant besoin de fonds immédiats, en exploitant les liens affectifs et en créant un sentiment d’urgence pour arnaquer la cible.
Quant aux hypertrucages, ce sont des vidéos synthétiques hyperréalistes basées sur l’IA ou l’apprentissage automatique qui échangent les visages, modifient les expressions, voire génèrent des scénarios entièrement inédits. Ils font croire que quelqu’un a dit ou fait quelque chose qu’il n’a jamais dit ou fait, brouillant ainsi les frontières entre la réalité et la création artificielle.
La science derrière le clonage vocal par l’IA et les escroqueries par hypertrucage
La technologie de base derrière l’usurpation vocale par l’IA est la synthèse vocale, qui repose souvent sur des réseaux antagonistes génératifs (GAN). Voici une description simplifiée de son fonctionnement :
- Collecte de données : un escroc a besoin d’un échantillon de la voix de la cible. Cela peut être étonnamment facile à obtenir. Quelques secondes d’un message vocal, d’une vidéo sur les médias sociaux, d’une interview en podcast ou même d’un appel à un service client suffisent souvent.
- Entraînement du modèle : le modèle d’IA analyse l’échantillon vocal, le décompose en caractéristiques uniques (hauteur, ton, accent, rythme et même schémas respiratoires) et apprend à imiter ces biomarqueurs vocaux.
- Génération et perfectionnement : l’escroc tape le texte qu’il veut que l’IA « prononce ». La partie générateur du GAN crée l’audio, tandis que la partie discriminateur vérifie son authenticité par rapport à l’échantillon vocal d’origine. En quelques secondes, ce processus se répète des milliers de fois jusqu’à ce que la voix générée devienne plus réaliste à chaque cycle.
En résulte un fichier audio très convaincant qui est utilisé lors d’un appel téléphonique d’hameçonnage vocal ou intégré à une vidéo.
La technologie derrière les hypertrucages vidéo est assez similaire au clonage vocal, sauf que les escrocs recueillent des images et des vidéos de la personne cible à partir de sources publiques telles que les médias sociaux, des reportages et les sites Web d’entreprises. Plus ils possèdent de données visuelles (montrant différents angles, expressions, éclairages, traits du visage, maniérismes et mouvements), plus l’hypertrucage final sera réaliste.
Une fois entraînée, l’IA peut superposer le visage synthétisé à une vidéo source d’une autre personne, en faisant correspondre le visage de la cible avec les expressions et les mouvements de tête de l’acteur source. Le son, qui peut être une voix clonée, est ensuite synchronisé avec la vidéo, puis utilisé pour tromper des cibles à des fins lucratives, d’atteinte à la réputation ou de manipulation politique.
L’impact réel des escroqueries par hypertrucage
Fraude au PDG
Dans les fraudes au PDG, également connues sous le nom de piratage de la messagerie en entreprise, les escrocs envoient des courriels en se faisant passer pour des dirigeants afin d’inciter les membres du personnel à effectuer des virements non autorisés. En 2019, le PDG d’une entreprise d’énergie basée au Royaume-Uni a été incité à transférer 220 000 euros à un fournisseur hongrois après avoir reçu un appel d’une personne qui imitait parfaitement la voix du directeur général de sa société mère allemande. Le PDG a déclaré avoir reconnu le « léger accent allemand et sa mélodie » de son patron, ce qui rendait la demande tout à fait légitime en apparence.
Fraude aux grands-parents
La fraude classique aux grands-parents consiste pour un escroc à appeler une personne âgée en se faisant passer pour son petit-enfant en difficulté et ayant besoin de fonds d’urgence. Dans ce cas, les escrocs récupèrent un court extrait audio de la voix du petit-enfant dans une vidéo TikTok ou Instagram pour créer un appel à l’aide convaincant. Une mère de l’Arizona a reçu un appel d’un numéro inconnu, mais a entendu la voix de sa fille de 15 ans qui pleurait et affirmait avoir été enlevée. Pendant que la femme était au téléphone, son mari a appelé leur fille, qui était en sécurité à un entraînement de ski. La voix au téléphone était fabriquée de toutes pièces.
→ Article connexe : How a Close Relative Lost $100,000 to an Elder Scam (Comment un proche a perdu 100 000 dollars à cause d’une fraude aux personnes âgées)
Désinformation politique
La menace de l’IA s’étend aux processus démocratiques et sème la confusion dans les esprits. Au début de l’année 2024, des habitants du New Hampshire ont reçu un robocall comportant un faux audio généré par l’IA du président Joe Biden, les incitant à ne pas voter lors des élections primaires de l’État. Les criminels peuvent utiliser la technologie d’hypertrucage pour créer des vidéos ou des sons compromettants afin de faire chanter des personnes ou de porter atteinte à leur réputation.
Escroqueries sentimentales
Les escrocs utilisent désormais des images et des vidéos hypertruqués ainsi que des voix clonées pour créer de faux profils crédibles sur les plateformes de rencontre. Les victimes, souvent des personnes seules en quête de compagnie, sont manipulées émotionnellement et financièrement, les appels vidéo hypertruqués diminuant les soupçons sur ces escroqueries sentimentales. De nombreuses femmes ont perdu leurs économies en croyant qu’elles avaient une relation amoureuse avec une personne digne de confiance ou une célébrité populaire. Ce n’est qu’après lui avoir envoyé de l’argent que les femmes se sont rendu compte qu’elles avaient été escroquées.
Fausses recommandations de célébrités
Les escrocs superposent le visage et la voix d’une célébrité sur des vidéos promotionnelles pour des fraudes à l’investissement et des produits miracles. Ses fans et ses abonnés sur les médias sociaux sont donc plus susceptibles d’être dupés et de dépenser de l’argent en croyant que la recommandation est authentique. Récemment, un hypertrucage vidéo de Taylor Swift offrait des ustensiles de cuisine, incitant ses fans à acheter les produits.
Contournement de la sécurité biométrique
Des hypertrucages audio ou vidéo peuvent être utilisés pour imiter les caractéristiques biométriques d’une cible afin d’obtenir un accès non autorisé à des comptes bancaires, des téléphones portables et des systèmes d’entreprise confidentiels. Les titulaires de comptes financiers et les personnes utilisant la reconnaissance vocale ou faciale pour des transactions sensibles sont particulièrement vulnérables.
Usurpation de l’identité de fonctionnaires ou d’agents des forces de l’ordre
Les criminels utilisent des hypertrucages pour se faire passer pour des autorités (police, agents du fisc ou de l’immigration) lors d’appels ou de chats vidéo, et demander de l’argent ou des renseignements personnels. Les immigrés, les personnes âgées et celles qui ne sont pas familiarisées avec les normes procédurales courent le plus grand risque.
Comment repérer une escroquerie
Qu’il s’agisse d’un appel téléphonique semblant provenir d’un proche ou d’une vidéo d’une personnalité publique disant quelque chose qu’elle n’a jamais dit, ces escroqueries sont conçues pour abuser de votre confiance. Avec les bonnes connaissances, vous pouvez apprendre à reconnaître les signes subtils que quelque chose ne va pas. Voici une liste de signaux d’alerte pour vous aider à repérer une fraude vocale générée par l’IA ou un hypertrucage vidéo avant qu’il ne soit trop tard.
Clonage vocal par l’IA
Les modèles d’IA peinent à reproduire parfaitement les nuances des émotions et de la parole humaines. Pour reconnaître les signes révélateurs d’une fraude vocale lorsque vous recevez un appel suspect, écoutez attentivement les imperfections subtiles énumérées ci-dessous, même si la voix vous semble généralement familière.
- Affect monotone ou plat : le discours peut être dépourvu des hauts et des bas émotionnels normaux. Il peut sembler étrangement détaché ou robotique, même si la voix elle-même est correcte.
- Artefacts numériques perceptibles : vous pouvez parfois entendre un léger bourdonnement électronique, un écho ou des « artefacts » audio absents chez les interlocuteurs humains, en particulier lors d’appels de longue durée.
- Cadence ou rythme inhabituel : soyez attentif aux pauses bizarres au milieu des phrases ou à un rythme qui semble légèrement décalé. Parfois, les mots s’enchaînent de manière peu naturelle, ou des pauses sont marquées à des moments étranges, contrairement aux conversations organiques.
- Absence de sons humains : vous pouvez ne pas entendre les petits sons inconscients émis par les gens, comme les raclements de gorge, les soupirs ou d’autres bruits de remplissage. À l’inverse, vous pouvez entendre des sons respiratoires insérés numériquement qui sont trop réguliers. Le rire et la surprise semblent souvent particulièrement peu naturels dans les audios générés par l’IA.
- Mauvaise qualité audio ou bruits de fond étranges : bien qu’il ne s’agisse pas d’un signe irréfutable, les escrocs utilisent souvent un fond sonore statique ou des bruits de centre d’appel pour masquer les imperfections du clone vocal. Si les bruits de fond sont génériques ou tournent en boucle de manière étrange, il s’agit d’un signe potentiel de manipulation.
- Phrases répétitives : l’IA peut fonctionner à partir d’un script limité. Si vous posez une question et que vous obtenez une version légèrement reformulée d’une déclaration précédente, méfiez-vous.
Hypertrucages vidéo
Lors d’un appel vidéo ou dans une vidéo préenregistrée, des indices visuels peuvent révéler la supercherie. Restez à l’affût des bugs qui se produisent lorsque l’IA ne parvient pas à créer une réalité homogène.
- Secousses visuelles : surveillez les scintillements soudains et brefs où le visage ou la tête semble vibrer ou se déplacer de manière peu naturelle, en particulier lorsque la personne bouge rapidement.
- Mouvements oculaires peu naturels : les hypertrucages ont souvent du mal à cligner des yeux de manière réaliste. Il se peut que le sujet ne cligne pas suffisamment des yeux ou que ses clignements ne semblent pas naturels. Si son regard ne suit pas vos mouvements ou la caméra, cela peut être le signe d’une manipulation.
- Synchronisation labiale mal adaptée : les mots que vous entendez peuvent ne pas correspondre parfaitement aux mouvements de la bouche de la personne. Ce phénomène est souvent plus évident au début ou à la fin des phrases, ou lors d’une élocution rapide.
- Expressions faciales maladroites : les mouvements du visage peuvent ne pas correspondre à l’émotion transmise par la voix. Les sourires et les rires sont des « points de rupture » fréquents dans les hypertrucages vidéo.
- Bords flous ou déformés : examinez attentivement les bords où le visage rencontre le cou, les cheveux ou l’arrière-plan. Vous pouvez observer des flous étranges, des distorsions ou des incohérences de couleur. Les chapeaux et les lunettes sont des sources de problèmes fréquentes dans les hypertrucages vidéo.
- Éclairage, ombres et textures incohérents : l’éclairage du visage de la personne peut ne pas correspondre à celui du reste de la scène. Par exemple, les ombres peuvent tomber dans la mauvaise direction. La peau peut également sembler trop lisse, cireuse ou avoir une texture inhabituelle.
Stratégie psychologique des escroqueries : urgence, secret et émotion
La technologie mise à part, les escroqueries par hypertrucage reposent sur les mêmes tactiques d’ingénierie sociale que la fraude traditionnelle. L’objectif est de court-circuiter votre esprit critique en vous mettant sous pression.
- Extrême urgence : l’escroc insistera pour que vous agissiez immédiatement afin que vous n’ayez pas le temps de réfléchir, de consulter d’autres personnes ou de vérifier la légitimité de la demande.
- Manipulation émotionnelle : la communication est soigneusement conçue pour susciter un sentiment de peur, d’anxiété ou d’excitation afin d’obscurcir le jugement et de court-circuiter vos protocoles de sécurité habituels.
- Demande de discrétion : les criminels vous demanderont souvent de ne parler de la demande à personne d’autre, feignant la confidentialité ou le souci du bien-être d’autrui.
- Méthodes de paiement inhabituelles : les escrocs demanderont presque toujours de l’argent via des méthodes non conventionnelles, telles que des virements électroniques, des cryptomonnaies ou des cartes cadeaux, car ces méthodes ne peuvent pas être tracées ou inversées.
- Accroche émotionnelle : la demande sera conçue pour susciter une réaction émotionnelle forte, comme la peur lors d’un faux enlèvement, l’appât du gain dans le cadre d’un marché secret ou la compassion pour un proche en difficulté.
Protégez-vous et votre entreprise contre les fraudes générées par l’IA
Pour préserver votre sécurité, une sensibilisation et une défense proactive sont essentielles. Des protocoles simples mais efficaces dans votre vie personnelle et professionnelle vous aideront à ériger une défense solide contre ces attaques. Bien qu’aucune technologie ne soit infaillible, l’ajout de couches de sécurité peut dissuader les criminels.
Pour les particuliers : renforcez votre sécurité personnelle
- Mettez en place un code secret : convenez d’une question ou d’un mot secret avec les membres de votre famille proche, et invoquez cette question ou ce mot si jamais vous recevez un appel frénétique vous demandant de l’argent. Un escroc ayant recours au clonage vocal par l’IA ne connaîtra pas la réponse.
- Vérifiez, vérifiez, vérifiez : si vous recevez une demande urgente d’argent ou de renseignements sensibles, raccrochez. Contactez la personne via un autre canal connu (numéro de téléphone de confiance, texto ou autre application de messagerie) afin de vérifier que la demande est légitime.
- Soyez attentif à votre empreinte numérique : soyez prudent quant à la quantité de contenu audio et vidéo que vous publiez sur les médias sociaux. Plus l’escroc dispose d’échantillons vocaux, plus son clone est convaincant. Envisagez de rendre vos comptes privés.
- Méfiez-vous des contacts inattendus : si vous recevez un appel ou un chat vidéo d’un numéro inconnu prétendant être une personne que vous connaissez, soyez immédiatement sceptique. Posez une question personnelle à laquelle seule la personne réelle connaît la réponse.
Pour les entreprises : mettez en place une défense multicouche
- Formation obligatoire du personnel : les collaborateurs non formés représentent la plus grande vulnérabilité de toute entreprise. Organisez régulièrement des sessions de formation pour sensibiliser votre équipe aux escroqueries par hypertrucage, à l’hameçonnage vocal et aux tactiques d’ingénierie sociale. Utilisez des exemples concrets pour mettre en évidence la menace.
- Mettez en place des protocoles de vérification stricts : créez un processus de vérification en plusieurs étapes pour toute transaction financière ou demande de transfert de données, surtout si elle est inhabituelle ou urgente. Il peut notamment s’agir d’une vérification obligatoire par rappel d’un numéro préapprouvé ou d’une vérification en personne pour les sommes importantes. Ne vous fiez jamais à un seul point de contact par téléphone ou par courriel.
- Limitez les renseignements publics : dans la mesure du possible, limitez la quantité de renseignements publics sur vos dirigeants, tels que les vidéos et les enregistrements audio sur le site Web de l’entreprise ou sur des forums publics.
- Utilisez la technologie comme moyen de défense : envisagez d’adopter des solutions de sécurité avancées qui utilisent la biométrie, notamment les empreintes vocales, pour authentifier les utilisateurs.
Que faire après une tentative de fraude vocale générée par l’IA ou d’escroquerie via un hypertrucage vidéo?
Découvrir que vous avez été la cible d’une fraude vocale générée par l’IA ou d’une escroquerie via un hypertrucage vidéo peut être déstabilisant, mais votre réaction peut contribuer à protéger votre identité et vos finances et à empêcher d’autres personnes de tomber dans le piège. Voici ce que vous devez faire immédiatement après avoir été confronté à une tentative de fraude générée par l’IA :
- N’interagissez pas : raccrochez ou mettez fin à l’appel vidéo immédiatement. Plus vous restez en ligne, plus l’escroc a d’occasions de vous manipuler. Ne fournissez aucun renseignement personnel.
- N’envoyez pas d’argent : aussi convaincante ou déchirante que soit l’histoire, n’effectuez aucun paiement ni virement.
- Faites une pause et réfléchissez : respirez profondément. L’escroquerie est conçue pour vous faire paniquer. S’accorder un moment pour réfléchir clairement est votre meilleure défense.
- Effectuez des vérifications indépendantes : contactez la personne concernée par le biais d’un canal de communication distinct et fiable afin de vérifier son bien-être et la légitimité de la demande.
Signalez l’incident
Il est essentiel de signaler ces tentatives de fraude, même si vous n’êtes pas tombé dans le piège. Cela aide les forces de l’ordre à identifier, à suivre et à démanteler ces réseaux criminels.
- Contactez les forces de l’ordre : signalez la fraude à votre service de police local et aux autorités nationales. Aux États-Unis, vous devez déposer une plainte auprès de l’Internet Crime Complaint Center du FBI.
- Informez la Federal Trade Commission (FTC) : la FTC suit les modèles d’escroquerie afin de mettre en garde le public et de prendre des mesures contre les entreprises frauduleuses. Au Canada, vous pouvez signaler les fraudes sur antifraudcentre-centreantifraude.ca.
- Informez les plateformes concernées : si la fraude provient d’une plateforme de média social, signalez le compte responsable de la violation des politiques de la plateforme en matière d’usurpation d’identité et de médias synthétiques.
Conséquences des fraudes vocales générées par l’IA et des escroqueries via des hypertrucages vidéo
Être victime d’une usurpation vocale par l’IA ou d’une escroquerie de type hypertrucage entraîne des séquelles dévastatrices qui peuvent se répercuter sur votre vie financière, personnelle et même juridique. Par exemple :
- Répercussions immédiates : les pertes financières constituent l’impact le plus immédiat, car les escrocs vident vos comptes bancaires ou vous convainquent de virer des sommes importantes irrécupérables.
- Vol d’identité et détérioration du crédit : si vous communiquez des renseignements sensibles, les escrocs peuvent ouvrir de nouveaux comptes, contracter des prêts ou commettre d’autres fraudes en votre nom, ce qui entraîne un préjudice à long terme pour votre crédit et la tâche fastidieuse de recouvrer votre identité.
- Détresse émotionnelle : le choc, l’embarras et le stress peuvent être accablants et provoquer de l’anxiété, une perte de confiance, voire une dépression. De nombreuses victimes se sentent coupables, alors qu’elles sont la cible d’un criminel sophistiqué.
- Retombées juridiques et sur la réputation : les entreprises peuvent faire l’objet de poursuites de la part de leurs clients ou des organismes de réglementation, tandis que les particuliers peuvent faire l’objet d’enquêtes prolongées, en particulier si les escrocs utilisent leur identité pour des activités répréhensibles.
FAQ : hypertrucages et escroqueries générées par l’IA
Peut-on créer un hypertrucage à partir d’une seule photo?
Bien qu’un plus grand nombre de données (plusieurs photos et vidéos) permette de créer un hypertrucage plus convaincant, les hypertrucages de base peuvent être créés à partir d’une seule photo. Par exemple, l’IA peut animer une photo fixe pour donner l’impression que la personne parle ou regarde autour d’elle. Toutefois, ces hypertrucages sont souvent plus faciles à repérer que les hypertrucages basés sur de longues séquences vidéo.
Les escroqueries par hypertrucage sont-elles illégales?
Oui. L’utilisation d’hypertrucages à des fins de fraude, de harcèlement ou d’usurpation d’identité est illégale. En 2024, les agences fédérales américaines ont pris des mesures importantes pour lutter contre cette menace. La Federal Communications Commission (FCC) a interdit les voix générées par l’IA dans les appels automatisés, tandis que la Federal Trade Commission (FTC) a introduit des règles qui interdisent spécifiquement l’usurpation de l’identité de personnes, d’entreprises ou d’agences gouvernementales pour commettre des fraudes.
Quel est le type d’escroquerie par hypertrucage le plus courant?
La fraude financière est actuellement le type d’escroquerie par hypertrucage le plus répandu et le plus préjudiciable. Cela inclut la fraude au PDG et le piratage de la messagerie en entreprise, où les criminels utilisent des voix ou des vidéos de dirigeants clonées par l’IA pour inciter des membres du personnel à effectuer des virements non autorisés. Les escroqueries consistant à se faire passer pour un membre de la famille en détresse pour demander des fonds d’urgence sont également de plus en plus courantes et efficaces.
Principaux points à retenir
L’essor des escroqueries de type hypertrucage et de l’usurpation vocale par l’IA représente un changement fondamental dans la sécurité numérique, car les escrocs falsifient numériquement nos voix et nos apparences en toute simplicité. Cependant, vous pouvez lutter contre ces activités malveillantes grâce à une stratégie de défense de base qui reste remarquablement humaine : une meilleure culture numérique, une vigilance accrue, une pensée critique plus profonde, une bonne dose de scepticisme et un engagement en faveur de la vérification.
Comprendre comment fonctionne le clonage vocal par l’IA, apprendre à reconnaître les signaux d’alerte techniques et psychologiques, et mettre en œuvre des protocoles de sécurité solides dans votre vie personnelle et professionnelle vous aidera à ériger une défense redoutable. Les ressources sur l’IA et les outils de cybersécurité de McAfee peuvent vous aider dans cette démarche.
L’avenir nous réserve sans doute des formes encore plus sophistiquées de médias synthétiques. Rester informé et proactif est votre meilleure stratégie. Partagez ces renseignements avec votre famille, vos amis et vos collègues. Plus il y a de gens au courant des tactiques d’escroquerie, moins elles sont efficaces.