Dans l’incessant jeu du chat et de la souris de la cybersécurité, un nouvel acteur a fait son entrée et change la donne : l’intelligence artificielle (IA). Pendant des années, nous avons présenté l’IA comme un outil de défense révolutionnaire, capable d’identifier les menaces à la vitesse d’une machine. L’IA rendra-t-elle les pirates informatiques plus intelligents? La réponse est catégorique et perturbante — c’est possible. Mais elle ne les rend pas uniquement plus intelligents, mais aussi plus rapides, plus efficaces et dangereusement évolutifs.

Cet article se penche sur le monde inquiétant du piratage de l’intelligence artificielle, et explore en détail la manière dont les cybercriminels exploitent l’IA, la nouvelle génération de cyberattaques qui se profilent à l’horizon, et ce que nous devons faire pour nous préparer à ce bouleversement de la sécurité numérique.

En quoi une attaque basée sur l’IA consiste-t-elle?

La cybercriminalité basée sur l’IA désigne toute activité criminelle dans l’espace numérique dans le cadre de laquelle les attaquants utilisent l’intelligence artificielle, y compris l’apprentissage automatique, les grands modèles de langage et l’automatisation, pour planifier, exécuter ou améliorer leurs opérations.

Les menaces rendues possibles par le piratage de l’IA ne constituent pas un danger unique, mais plutôt un large éventail de défis. D’un côté, nous avons les attaques automatisées de grande envergure qui ont été améliorées par l’IA, comme les campagnes d’hameçonnage hyperréalistes qui peuvent tromper même les plus perspicaces d’entre nous. De l’autre, nous observons des opérations plus sophistiquées et extrêmement ciblées. Il ne s’agit plus de concepts lointains tirés d’un film de science-fiction; ces méthodes sont développées et déployées en ce moment même. Il est essentiel de garder à l’esprit ce spectre complet d’activités de piratage induites par l’IA pour mettre en place une protection stratifiée, intelligente et véritablement complète de nos vies numériques.

L’IA au service des attaquants

L’intelligence artificielle agit comme un puissant multiplicateur de force, en permettant aux cybercriminels de lancer des attaques, quel que soit leur niveau de compétence. Pour les attaquants novices, l’IA abaisse considérablement la barrière à l’entrée, dans la mesure où des outils d’IA malveillants conviviaux issus du Dark Web, tels que WormGPT, leur permettent de disposer de capacités sophistiquées. Grâce à ces outils, ils peuvent créer des logiciels malveillants ou concevoir des courriels d’hameçonnage convaincants, des tâches qui nécessitaient autrefois une grande expertise technique.

Pour les groupes cybercriminels d’élite à la solde d’États, l’IA automatise les phases laborieuses et fastidieuses d’une attaque, telles que la reconnaissance et l’analyse des vulnérabilités. Les experts humains peuvent ainsi se concentrer sur ce qu’ils font le mieux : élaborer des stratégies d’infiltration créatives et s’attaquer à des cibles complexes et de grande valeur.

L’impact de l’IA sur la cybersécurité

Les statistiques parlent d’elles-mêmes :

Ces chiffres brossent un tableau clair : l’IA transforme rapidement le paysage des cybermenaces. Le coût moyen ahurissant d’une violation de données, à savoir 4,88 millions de dollars, souligne les graves conséquences financières d’une attaque fructueuse. L’augmentation de 200 % des discussions sur le Dark Web concernant les outils d’IA malveillants montre que les criminels adoptent et perfectionnent activement ces technologies.

En outre, nous assistons à la montée en puissance de plateformes de logiciels malveillants en tant que service et de fraude en tant que service, sur lesquelles des développeurs du Dark Web créent, compilent et vendent des outils optimisés par l’IA, tels que WormGPT et FraudGPT. Ces grands modèles de langage entraînés à partir de données illicites, et dépourvus de garanties éthiques afin d’aider les criminels en herbe à écrire du code malveillant, rédigent des courriels frauduleux convaincants et localisent des vulnérabilités exploitables.

Ces tendances confirment que la course à l’armement de l’IA bat son plein, rendant une protection robuste et optimisée par l’IA plus critique que jamais.

L’IA rend-elle les pirates informatiques plus intelligents?

En réalité, si l’IA permet aux pirates informatiques d’élargir leur public cible, de produire en masse des messages frauduleux ou d’en accélérer la diffusion, elle n’augmente pas nécessairement leur intelligence brute ou leur créativité. L’IA agit cependant comme un multiplicateur de force sans précédent, en amplifiant leurs compétences existantes essentiellement de trois manières.

Une échelle et une vitesse accrues

Aussi brillant soit-il, un pirate informatique humain sera toujours limité par le temps. Il ne peut analyser qu’un seul système, écrire un seul morceau de code ou rédiger un seul courriel à la fois. L’IA supprime ces limitations en permettant aux cybercriminels d’analyser des milliers de réseaux simultanément, de générer un million de courriels d’hameçonnage uniques en une heure et de tester des milliards de combinaisons de mots de passe en une nuit. Tout le génie de l’attaque réside dans la capacité de l’IA à traiter les informations et à exécuter des tâches à une échelle et à une vitesse qui dépassent tout simplement les capacités humaines.

Une barrière à l’entrée abaissée

Par le passé, le lancement d’une cyberattaque sophistiquée nécessitait des compétences techniques approfondies en programmation et en mise en réseau, ainsi que des systèmes de sécurité. L’IA supprime cette barrière naturelle. Avec des outils comme WormGPT, un escroc amateur ayant très peu de connaissances en codage peut désormais générer un logiciel malveillant fonctionnel ou créer un clone vocal hypertruqué à l’aide d’une application simple d’utilisation. En ce sens, l’IA rend les attaquants potentiels beaucoup plus compétents et dangereux.

L’automatisation libère la créativité

L’automatisation constitue le principal avantage de l’IA, en ce sens qu’elle libère les pirates informatiques des tâches fastidieuses et chronophages de la reconnaissance et de l’accès initial. L’époque où les pirates passaient des semaines à chercher un moyen d’entrer est désormais révolue. L’IA se charge du travail de fond en identifiant les points faibles d’un système et en exploitant le code existant pour ériger une structure fonctionnelle et malveillante sans intervention humaine directe. Les pirates humains peuvent ainsi se concentrer sur la navigation au sein de réseaux internes complexes, la désactivation des systèmes de sécurité haut de gamme et l’élaboration de nouveaux stratagèmes pour atteindre leur objectif final.

Principales caractéristiques des attaques optimisées par l’IA

Les cyberattaques optimisées par l’IA présentent plusieurs caractéristiques qui les distinguent des méthodes humaines traditionnelles. Voici quelques-unes de ces caractéristiques :

  • Hyper-automatisation. Contrairement à la cybercriminalité traditionnelle, qui s’appuie généralement sur des codes écrits manuellement et des stratagèmes humains, la cybercriminalité basée sur l’IA utilise l’apprentissage automatique, les grands modèles de langage et l’automatisation pour planifier, exécuter et/ou améliorer ses opérations. Ces outils exécutent des tâches 24 h/24, 7 j/j, et à une vitesse qu’aucun humain ne peut atteindre.
  • Volumes considérables. Dans les attaques traditionnelles, un cybercriminel peut passer des heures à élaborer un courriel d’hameçonnage ou des jours à rechercher des vulnérabilités. Dans le cas des attaques basées sur l’IA, un modèle d’apprentissage automatique peut générer des milliers, voire des millions, de courriels d’hameçonnage réalistes et personnalisés en quelques secondes ou balayer un nombre infini de réseaux à la recherche de failles de sécurité à une vitesse sans précédent.
  • Capacité d’adaptation. Contrairement aux logiciels malveillants traditionnels qui suivent un script établi, les menaces optimisées par l’IA peuvent apprendre et s’adapter. Une attaque basée sur l’IA peut analyser la sécurité d’un système, puis modifier son propre code ou comportement en temps réel pour trouver un moyen de la contourner.
  • Furtivité. En automatisant les tâches et en imitant le comportement humain avec une précision incroyable, ces attaques échappent souvent aux systèmes de sécurité traditionnels, qui recherchent des menaces statiques connues. Elles sont donc extrêmement difficiles à détecter et à bloquer à l’aide des méthodes classiques.
  • Personnalisation poussée. L’IA a transformé l’ingénierie sociale grâce à l’extraction de données depuis les médias sociaux et d’autres sources publiques, puis à la création de courriels et de textos d’hameçonnage hautement personnalisés, ou encore d’hypertrucages audio incroyablement convaincants. Ces messages font référence à des détails spécifiques de la vie privée ou professionnelle d’une personne afin d’instaurer une relation de confiance.

L’IA amplifie les cyberattaques

Grâce à ces caractéristiques, l’IA renforce chaque étape du cycle de vie des attaques, de la reconnaissance à l’exécution et à l’évasion. Pour bien comprendre l’impact de l’IA sur la cybercriminalité, voyons comment les pirates informatiques utilisent l’IA à des fins malveillantes.

Découverte et exploitation automatisées des vulnérabilités

Grâce à certaines techniques, l’IA accélère considérablement la tâche fastidieuse consistant à trouver une faille dans l’armure d’une cible. Voici quelques-unes de ces méthodes :

  • Fuzzing optimisé par l’IA : des données aléatoires ou semi-aléatoires sont injectées dans un programme pour voir s’il plante ou se comporte de manière inattendue, révélant ainsi des vulnérabilités potentielles. Étant donné que l’IA génère des entrées plus efficaces, elle identifie les bogues dissimulés plus rapidement que les méthodes traditionnelles.
  • Analyse du code à grande échelle : un pirate informatique peut utiliser l’IA pour analyser le code source d’une application entière en quelques minutes, mettant en évidence des points faibles qu’un analyste humain mettrait des jours ou des semaines à identifier.

Ingénierie sociale hyper-personnalisée

Le danger le plus immédiat de l’IA en ce qui concerne le piratage informatique réside dans sa capacité à exploiter la confiance humaine. Cette ingénierie sociale optimisée par l’IA a atteint un nouveau degré d’hyperpersonnalisation et de tromperie en analysant les publications d’une cible sur les médias sociaux, son historique professionnel et son activité en ligne, puis en rédigeant des courriels d’hameçonnage qu’il est contextuellement impossible de distinguer d’une communication légitime.

Logiciels malveillants basés sur l’IA et code évasif

Les logiciels antivirus et les systèmes de sécurité fonctionnent essentiellement en identifiant des modèles de codes malveillants ou de logiciels malveillants appelés signatures. L’IA permet aux logiciels malveillants de devenir polymorphes, ce qui signifie qu’ils peuvent modifier leur code à chaque nouvelle infection grâce à une clé de chiffrement variable afin d’échapper à la détection basée sur les signatures. Les logiciels malveillants métamorphiques sont encore plus évolués : ils réécrivent complètement leur logique sous-jacente tout en conservant leur fonction malveillante. Des solutions telles que McAfee se concentrent sur l’identification des comportements suspects plutôt que sur la recherche d’une signature connue, offrant ainsi une contre-mesure nécessaire à ces menaces en constante évolution.

Piratage de l’IA à des fins de création d’hypertrucages

Le piratage de l’IA à des fins de création d’hypertrucages désigne l’utilisation malveillante de l’intelligence artificielle pour créer des contenus audio et vidéo extrêmement réalistes, mais fabriqués de toutes pièces. Ces supports multimédias de synthèse peuvent se faire passer pour des personnes de manière tout à fait convaincante, en manipulant les voix et les apparences à des fins de mésinformation, d’usurpation d’identité ou de fraude, ou encore pour éroder la confiance.

Article connexe : How to Spot a Deepfake on Social Media (Comment repérer un hypertrucage sur les médias sociaux?)

Clonage de voix pour des escroqueries par hameçonnage vocal et par usurpation d’identité

L’une des utilisations les plus inquiétantes de l’IA est le clonage vocal ou l’hameçonnage vocal. Avec un extrait de seulement quelques secondes de la voix d’une personne, souvent récupéré à partir de vidéos publiées sur les médias sociaux ou de messages vocaux publics, l’IA peut créer un clone vocal extrêmement réaliste. Dans le monde professionnel, un escroc peut utiliser ne serait-ce qu’un court extrait sonore d’une interview publique d’un PDG pour cloner sa voix, puis exploiter le faux contenu audio pour demander au service financier d’effectuer un virement frauduleux.

Craquage des mots de passe à une vitesse inégalée

En analysant de vastes ensembles de mots de passe compromis, les modèles d’IA peuvent apprendre les schémas, les substitutions et les structures que les humains utilisent couramment lorsqu’ils créent des mots de passe. Au lieu d’essayer les combinaisons aaaa et aaab, un pirate informatique pourra commencer par Motdepasse2024! ou Hiver!23 en s’appuyant sur le contexte et la psychologie humaine. Cela réduit considérablement le temps nécessaire pour compromettre un compte.

Article connexe : Créer des mots de passe forts à l’aide d’un générateur de mots de passe

Attaques par force brute

Dans le cadre d’une attaque par force brute traditionnelle, le cybercriminel essaie de multiples combinaisons de noms d’utilisateur et de mots de passe jusqu’à trouver la bonne. L’IA met à profit l’apprentissage automatique pour deviner les identifiants de connexion à un rythme sans précédent, en testant systématiquement des millions, voire des milliards, de combinaisons de noms d’utilisateur et de mots de passe par seconde jusqu’à obtenir l’accès à un système.

Craquage des CAPTCHA

Le craquage des CAPTCHA par l’IA recourt à une solution automatisée basée sur l’apprentissage profond ou un algorithme pour contourner les CAPTCHA, qui sont conçus pour distinguer les humains des robots. Cela pose un problème de sécurité croissant, car les modèles d’IA résolvent les CAPTCHA visuels ou audio, même complexes, de manière de plus en plus efficace.

Attaques adverses contre l’IA

Ici, les pirates informatiques s’attaquent aux systèmes d’IA sur lesquels les entreprises s’appuient pour leur sécurité. Les deux méthodes les plus courantes utilisées à cette fin sont les suivantes :

  • Empoisonnement des modèles : cette technique consiste à corrompre subtilement les données utilisées pour entraîner le modèle d’IA d’une entreprise. Un pirate informatique peut par exemple injecter des milliers d’images mal étiquetées du visage d’une personne dans un système de sécurité par reconnaissance faciale. Cette personne pourra alors passer devant les caméras sans se faire repérer. De même, le pirate informatique peut empoisonner les données d’entraînement d’un filtre anti-spam pour s’assurer que ses courriels d’hameçonnage sont toujours marqués comme sûrs.
  • Attaque par évasion : les pirates informatiques tentent de manipuler un modèle d’IA en apportant des modifications infimes, presque imperceptibles, à une image afin que l’IA identifie incorrectement, par exemple, un panneau stop comme étant un panneau de limitation de vitesse — une perspective terrifiante pour les véhicules autonomes. Dans le domaine de la cybersécurité, cela peut constituer à modifier un logiciel malveillant afin de le rendre invisible pour un système de détection des menaces basé sur l’IA.

Essaims d’attaques autonomes

Les agents de piratage autonomes, parfois appelés essaims d’IA, sont des systèmes intelligents capables de mener une campagne de cyberattaque complète sans intervention humaine directe. Un agent est programmé avec un objectif bien précis — par exemple, voler les données clients de l’entreprise X — et exécute la chaîne de frappe, ou « kill chain », en toute indépendance en quelques minutes, 24 h/24, 7 j/7, en commençant par la reconnaissance, puis identifie les vulnérabilités, compromet la cible et extrait les données. Le système n’alerte le pirate informatique humain qu’une fois l’objectif atteint.

Article connexe : ChatGPT : le nouvel outil des escrocs

Naviguer dans le nouveau paysage des menaces

Le conflit entre IA malveillante et IA défensive a déclenché une nouvelle course à l’armement technologique dans le domaine de la cybersécurité. Tandis que les pirates informatiques exploitent l’IA pour créer des attaques plus évasives et plus évolutives, les professionnels de la sécurité au niveau mondial l’utilisent pour créer des systèmes de sécurité plus intelligents, plus rapides et plus prédictifs.

L’évolution rapide du piratage de l’intelligence artificielle peut sembler décourageante, mais vous n’êtes pas sans défense. Vous êtes un acteur actif et essentiel de votre propre sécurité numérique. Cela nécessite simplement que vous adoptiez une approche plus intelligente et plus moderne de la sécurité. Avoir une vue d’ensemble et connaître les techniques de piratage basées sur l’IA vous permettra d’élaborer des stratégies défensives à même d’assurer votre sécurité en toute confiance.

Considérez votre sensibilisation comme un outil de détection puissant que l’IA ne peut pas reproduire. Chaque fois que vous prenez un instant pour remettre en cause un courriel suspect ou vérifier une demande urgente, vous jouez un rôle essentiel. En tant que partenaire, McAfee vous fournit les outils et les informations dont vous avez besoin. En combinant votre intuition éclairée et notre technologie intelligente, nous pouvons ériger un système de défense redoutable qui vous permettra de naviguer en toute confiance dans le monde numérique.

Mesures pratiques pour atténuer les cyberattaques basées sur l’IA

  • Renforcez vos identifiants : utilisez un gestionnaire de mots passe pour créer et stocker des mots de passe longs, uniques et complexes pour chaque compte. Plus important encore, activez l’authentification multifacteur (MFA) chaque fois que possible, car elle constitue une barrière extrêmement efficace contre les compromissions.
  • Examinez attentivement les communications : soyez particulièrement vigilant en cas de courriels, de textos et d’appels vocaux suscitant un sentiment d’urgence. Vérifiez toute demande inattendue par le biais d’un canal distinct et fiable avant d’agir.
  • Effectuez toutes les mises à jour requises : mettez régulièrement à jour votre système d’exploitation, votre navigateur Web et vos applications. Ces mises à jour contiennent souvent des correctifs de sécurité critiques conçus pour remédier à des vulnérabilités exploitées par les pirates informatiques.
  • Déployez des défenses optimisées par l’IA : le moyen le plus efficace de lutter contre des menaces basées sur l’IA consiste à mettre en place une défense fondée sur l’IA. Utilisez une solution de sécurité complète telle que McAfee, qui s’appuie sur l’intelligence artificielle pour détecter et bloquer les attaques sophistiquées en temps réel.

La dualité de l’IA : épée et bouclier

L’intelligence artificielle est véritablement une arme à double tranchant dans l’univers de la cybersécurité. Les capacités mêmes qui font de cette technologie une arme puissante aux mains des pirates informatiques — vitesse inégalée, reconnaissance des formes et automatisation — font également qu’elle est notre bouclier le plus fondamental. Un modèle d’IA capable de rédiger un courriel d’hameçonnage convaincant peut également être entraîné à reconnaître les caractéristiques linguistiques subtiles d’un tel courriel. Une IA à même d’identifier et d’exploiter une vulnérabilité peut également être utilisée pour la corriger et la protéger.

L’avenir de l’IA dans le domaine de la cybercriminalité s’oriente vers une autonomie et une accessibilité accrues. Il faut s’attendre à voir se multiplier les essaims d’attaques autonomes, dans lesquels plusieurs agents d’IA collaborent pour percer une brèche sans assistance humaine. En outre, la commercialisation d’outils de piratage de l’IA sur le Dark Web devrait se poursuivre, de sorte que des capacités d’attaque sophistiquées seront mises à la disposition d’un nombre accru de criminels.

L’avenir n’est cependant pas si sombre. L’IA défensive évolue tout aussi rapidement. Les attaquants deviennent plus intelligents, tout comme nos protections, et des entreprises comme McAfee sont à l’avant-garde du développement de la prochaine génération d’outils de sécurité optimisés par l’IA pour neutraliser ces futures menaces.

Conclusion

L’ère du piratage basé sur l’intelligence artificielle n’est pas à l’horizon, elle est là. L’IA a conféré aux pirates une vitesse surhumaine, automatisé des tâches complexes et abaissé la barrière à l’entrée. Nous en constatons l’impact dans la montée de l’hameçonnage hyperréaliste, des logiciels malveillants adaptatifs et de la commercialisation d’outils d’IA malveillants.

La même IA qui peut être utilisée pour les attaques offre la voie la plus prometteuse pour la défense. La technologie d’IA avancée McAfee repose sur une base d’apprentissage profond, d’analyse contextuelle et de modélisation comportementale. Elle traite en continu des billions de signaux de menaces pour offrir une protection en temps réel, telle que la détection des escroqueries et des hypertrucages, ainsi que des solutions antivirus. Grâce à une visibilité sur les appareils, les applications et le Web, elle identifie et bloque de manière proactive les activités malveillantes avant qu’elles ne causent des dommages. Qu’il s’agisse de stopper les tentatives d’hameçonnage, de détecter les logiciels malveillants jour zéro ou d’identifier des comportements inhabituels, l’IA avancée McAfee est conçue pour devancer les cybercriminels et assurer votre sécurité à chaque point de contact numérique.

En restant informé, en favorisant une culture de sensibilisation à la cybersécurité et en investissant dans des outils de sécurité de nouvelle génération, alimentés par l’IA, vous avez le pouvoir de contrer les risques potentiels et la désinformation.