L’IA au quotidien : utilisations malveillantes des outils d’IA grand public

L’utilisation des outils d’IA ne se limite pas à des poèmes humoristiques, des portraits bizarres et des parodies virales hilarantes. ChatGPT, Bard, DALL-E, Craiyon, Voice.ai et autres outils d’intelligence artificielle grand public sont parfaits pour passer une après-midi de détente ou vous aider à faire un devoir pour l’école ou un travail dans le cadre de votre vie professionnelle. Toutefois, les cybercriminels ne sont pas en reste et utilisent eux aussi les outils d’IA pour mettre au point leurs stratagèmes, ajoutant ainsi une toute nouvelle dimension à l’hameçonnage, à l’hameçonnage vocal, aux logiciels malveillants et à l’ingénierie sociale.

Voici quelques signalements récents concernant l’utilisation de l’IA à des fins d’escroquerie, ainsi que quelques conseils qui pourraient vous mettre la puce à l’oreille si l’un de ces cas se présentait à vous. 

1. Escroqueries vocales générées par l’IA

L’hameçonnage vocal – ou hameçonnage par téléphone – n’est pas une nouveauté, mais les imitateurs vocaux basés sur l’IA rendent ces appels téléphoniques frauduleux plus crédibles que jamais. En Arizona, un faux appel téléphonique concernant un enlèvement a semé la panique pendant plusieurs minutes au sein d’une famille, après qu’une mère a reçu une demande de rançon pour libérer sa fille prétendument kidnappée. Au téléphone, la mère a entendu une voix qui ressemblait en tous points à celle de son enfant, mais il s’est avéré qu’il s’agissait d’une reproduction à l’identique générée par l’IA.

En réalité, la fille n’avait pas été enlevée et était en parfaite sécurité. La famille n’a pas perdu d’argent parce qu’elle a fait ce qu’il fallait : elle a contacté les forces de l’ordre et a gardé l’escroc au téléphone pendant que la police localisait l’enfant1.

Les pertes dues à des escroqueries se sont élevées à 2,6 milliards de dollars aux États-Unis en 2022. Mais les nouvelles escroqueries basées sur l’IA pourraient faire grimper ce montant ahurissant. Selon le rapport Beware the Artificial Imposter de McAfee, environ 25 % des personnes interrogées dans le monde ont été victimes d’une escroquerie vocale basée sur l’IA ou connaissent quelqu’un qui est tombé dans le piège. En outre, l’étude a révélé que 77 % des victimes d’escroquerie vocale ont perdu de l’argent.  

Comment entendre la différence?

Il est clair qu’entendre un proche en détresse est toujours effrayant, mais essayez de rester aussi calme que possible si vous recevez un appel téléphonique d’une personne affirmant être en difficulté. Écoutez attentivement la « voix » de la personne. La technologie vocale de l’IA est incroyable, mais elle présente encore quelques défauts. Par exemple, la voix a-t-elle des accents peu naturels? Les mots sont-ils coupés un peu trop tôt? Certains mots sont-ils prononcés avec un timbre différent de l’accent de votre proche? Repérer ces petits détails nécessite de garder son sang-froid.

Ce que vous pouvez faire en famille dès à présent pour éviter de tomber dans le piège d’une arnaque de type hameçonnage vocal par l’IA, c’est vous mettre d’accord sur un mot de passe familial. Il peut s’agir d’une expression ou d’un mot obscur qui a du sens pour vous. Gardez ce mot de passe pour vous et ne le publiez jamais sur les réseaux sociaux. Ainsi, si un escroc vous appelle en prétendant être ou détenir un membre de votre famille, ce mot de passe vous permettra de distinguer une fausse urgence d’une vraie. 

2. Demandes de rançons pour des hypertrucages et fausses publicités

Les hypertrucages, qui consistent à manipuler numériquement une image, une vidéo ou un extrait audio authentique, sont une fonctionnalité de l’IA qui perturbe beaucoup de gens. Ils remettent en question l’axiome bien connu selon lequel « voir, c’est croire ». Si vous ne pouvez pas croire ce que vous voyez, alors qu’est-ce qui est réel? Et qu’est-ce qui ne l’est pas?

Le FBI met aujourd’hui en garde le grand public contre un nouveau stratagème consistant, pour les cybercriminels, à monter des séquences explicites et à faire ensuite chanter des personnes innocentes pour qu’elles envoient de l’argent ou des cartes-cadeaux en échange de la non-diffusion du contenu compromettant2.

La technologie d’hypertrucage s’est également retrouvée au centre d’un incident impliquant une fausse publicité. Un escroc a créé une fausse publicité montrant Martin Lewis, un expert financier de confiance, en train de soutenir un projet d’investissement. L’inclusion d’une fausse vidéo de Martin Lewis dans la publicité Facebook avait pour but de renforcer la légitimité de l’activité malveillante3.

Comment réagir face à des demandes de rançon et des publicités en ligne douteuses?

L’absence de réponse est la meilleure réponse à une demande de rançon. Vous avez affaire à un criminel. Qui vous dit qu’il ne divulguera pas les faux documents même si vous acceptez de payer la rançon? Contactez les forces de l’ordre dès qu’un escroc vous aborde; elles pourront vous aider à résoudre le problème.

Ce n’est pas parce qu’une plateforme de réseaux sociaux réputée héberge une publicité que l’annonceur est une entreprise légitime. Avant d’acheter quoi que ce soit ou d’investir de l’argent dans une activité que vous avez trouvée par le biais d’une publicité, effectuez vos propres recherches sur l’entreprise. Cinq minutes suffisent pour consulter la notation du Better Business Bureau et d’autres avis en ligne afin de déterminer si l’entreprise est digne de confiance.

Pour déterminer si une vidéo ou une image est un hypertrucage, vérifiez s’il y a des incohérences entre les ombres et l’éclairage ou si des distorsions du visage sont présentes. Examinez également les mains des personnes. C’est là que vous avez le plus de chances de repérer des petits détails qui ne sont pas tout à fait corrects. De même que pour les voix générées par l’IA, la technologie d’hypertrucage est souvent précise, mais elle n’est pas parfaite. Vous pouvez également essayer la fonctionnalité Deepfake Detector de McAfee, qui signale en quelques secondes les contenus audio générés par l’IA. 

3. Logiciels malveillants et courriels d’hameçonnage générés par l’IA

Les outils de génération de contenu intègrent certaines fonctions de protection qui les empêchent de créer des textes susceptibles d’être utilisés de manière illégale. Toutefois, certains cybercriminels ont trouvé le moyen de contourner ces règles et utilisent ChatGPT et Bard pour lancer plus facilement des attaques d’hameçonnage et de logiciels malveillants. Par exemple, si un cybercriminel demande à ChatGPT de créer un logiciel malveillant enregistreur de frappe, ChatGPT refusera. En revanche, s’il reformule sa demande et lui demande de créer un code permettant de capturer les frappes au clavier, il est possible que ChatGPT s’exécute. Un chercheur a démontré que même une personne ayant des connaissances très limitées en codage pouvait utiliser ChatGPT, de sorte que la création de logiciels malveillants n’a jamais été aussi simple et accessible4. De même, les outils de génération de texte par l’IA peuvent créer des courriels d’hameçonnage convaincants, et ce très rapidement. En théorie, cela pourrait accélérer les opérations des auteurs d’attaques d’hameçonnage et élargir leur champ d’action. 

Comment éviter les logiciels malveillants et les tentatives d’hameçonnage créés par l’IA?

Vous pouvez éviter les logiciels malveillants et les courriels d’hameçonnage générés par l’IA de la même manière que vous le faites avec les messages rédigés par des humains : soyez prudent et méfiez-vous de tout ce qui vous semble suspect. Pour éviter les logiciels malveillants, tenez-vous-en aux sites Web dignes de confiance. Un outil de navigation sécurisée tel que la protection Web McAfee – qui est incluse dans McAfee+ – peut vérifier que vous restez à l’écart des sites Web douteux.

Pour ce qui est de l’hameçonnage, si vous recevez des courriels ou des textos qui exigent une réponse rapide ou qui semblent sortir de l’ordinaire, soyez vigilant. Si les messages d’hameçonnage sont généralement truffés de fautes de frappe, d’orthographe et de grammaire, les leurres rédigés par l’IA sont en revanche souvent bien écrits et contiennent rarement des erreurs. Cela signifie que vous devez faire preuve de zèle et vérifier tout message arrivant dans votre boîte de réception. 

Levez le pied, gardez votre calme et faites-vous confiance

Alors que le débat sur la réglementation de l’IA s’intensifie, la meilleure chose à faire est d’utiliser l’IA de manière responsable. Faites preuve de transparence lorsque vous l’utilisez. Et si vous pensez être confronté à une utilisation malveillante de l’IA, levez le pied et faites de votre mieux pour évaluer la situation en toute lucidité. L’IA peut créer des contenus convaincants, mais en vous fiant à votre instinct et en appliquant les bonnes pratiques ci-dessus, vous éviterez que votre argent et vos renseignements personnels ne tombent entre les mains de cybercriminels.

1 CNN, «‘Mom, these bad men have me’: She believes scammers cloned her daughter’s voice in a fake kidnapping »

2 NBC News, « FBI warns about deepfake porn scams »

3 BBC, « Martin Lewis felt ‘sick’ seeing deepfake scam ad on Facebook »

4 Dark Reading, « Researcher Tricks ChatGPT Into Building Undetectable Steganoraphy Malware »

Découvrez McAfee+

Protection contre le vol d’identité et de votre vie privée en ligne

FacebookLinkedInTwitterEmailCopy Link

Restez à jour

Suivez-nous pour rester à jour sur tout ce qui concerne McAfee et pour être au courant des dernières menaces de sécurité pour les consommateurs et les mobiles.

FacebookTwitterInstagramLinkedINYouTubeRSS

Autres articles de Sécurité Internet

Back to top