In het eindeloze kat-en-muisspel tussen cyberbeveiliging en cybercriminaliteit is een nieuwe grensverleggende ontwikkeling op het toneel verschenen: kunstmatige intelligentie (AI). Jarenlang hebben we AI gepresenteerd als een revolutionaire tool die bedreigingen in een razendsnel tempo kan identificeren. Maar worden hackers ook slimmer met AI? Het korte en verontrustende antwoord is: dat zou kunnen. Maar het gaat er niet alleen om of hackers slimmer worden; het gaat erom dat ze hun activiteiten sneller, efficiënter en op zorgwekkend grote schaal kunnen uitvoeren.

In dit artikel gaan we in op de onthutsende realiteit van hacken met kunstmatige intelligentie. We onderzoeken hoe aanvallers misbruik maken van AI, welke nieuwe soorten cyberaanvallen eraan komen en wat we moeten doen om ons voor te bereiden op deze omwenteling in de digitale beveiliging.

Wat zijn AI-aanvallen?

AI-cybercriminaliteit is elke criminele activiteit in de digitale ruimte waarbij aanvallers gebruikmaken van kunstmatige intelligentie (zoals machine learning, grote taalmodellen en automatisering) om hun activiteiten te plannen, uit te voeren en te verbeteren.

De bedreigingen die met AI-hacks worden ontketend, vormen niet één gevaar, maar een brede waaier aan uitdagingen. Zo zien we aan de ene kant massale, geautomatiseerde aanvallen die met AI zijn verbeterd, zoals hyperrealistische phishingcampagnes waarmee zelfs de meest oplettende persoon om de tuin kan worden geleid. En aan de andere kant zien we meer geraffineerde, zeer gerichte activiteiten. Het gaat hierbij niet langer om futuristische concepten uit een sciencefictionfilm, maar om methoden die nu al worden ontwikkeld en toegepast. Daarom is het van essentieel belang dat we ons bewust zijn van het volledige scala aan AI-gestuurde hacks, om een gelaagde, intelligente en allesomvattende verdediging voor ons digitale leven op te bouwen.

Hoe AI aanvallers meer mogelijkheden biedt

Kunstmatige intelligentie werkt als een krachtige katalysator en biedt zowel beginnende als ervaren cybercriminelen een heel arsenaal aan mogelijkheden. Voor beginnende aanvallers is de toegangsdrempel drastisch verlaagd. Op het dark web zijn gebruiksvriendelijke, kwaadaardige AI-tools (zoals WormGPT) te vinden die allerlei geavanceerde functies bieden. Met deze tools kunnen ze heel eenvoudig malware creëren of overtuigende phishing-e-mails opstellen, terwijl voor deze taken voorheen aanzienlijke technische expertise nodig was.

De “hogere”, staatsgesteunde hackersgroepen kunnen met AI de arbeidsintensieve en tijdrovende onderdelen van een aanval automatiseren, zoals het verkennen van systemen en het scannen op kwetsbaarheden. Zo kunnen de menselijke experts zich concentreren op datgene waar ze goed in zijn: het ontwikkelen van creatieve infiltratiestrategieën en het navigeren door complexe, waardevolle doelwitten.

De impact van AI op cyberbeveiliging

Enkele statische gegevens:

  • Thomson Reuters rapporteerde in 2024 dat de gemiddelde kosten van een datalek $ 4,88 miljoen per organisatie bedroegen. Sommige bedrijven vechten terug met behulp van AI-ondersteunde beveiliging.
  • Volgens KELA’s 2025 AI Threat Report is het aantal vermeldingen van kwaadaardige AI-tools op forums voor cybercriminaliteit met 200% gestegen.

Deze cijfers schetsen een duidelijk beeld: AI zit achter de snelle transformatie die de wereld van cyberbedreigingen doormaakt. De duizelingwekkende gemiddelde kosten van een datalek ($ 4,88 miljoen) onderstrepen nog eens de ernstige financiële gevolgen van een geslaagde aanval. En uit de 200% stijging van het aantal discussies op het dark web over kwaadaardige AI-tools blijkt dat criminelen deze technologieën actief inzetten en verfijnen.

Daarnaast zien we de opkomst van platforms voor malware-as-a-service en fraude-as-a-service waar dark web-ontwikkelaars AI-gestuurde tools zoals WormGPT en FraudGPT maken, verpakken en verkopen. Deze grote taalmodellen zijn getraind op illegale gegevens en ontdaan van ethische waarborgen om beginnende criminelen te helpen kwaadaardige code te schrijven, overtuigende oplichtings-e-mails op te stellen en veelbelovende kwetsbaarheden te vinden.

Deze trends bevestigen dat de AI-wapenwedloop in volle gang is en dat robuuste, AI-gestuurde bescherming belangrijker is dan ooit tevoren.

Worden hackers slimmer met AI?

De waarheid is dat hackers dankzij AI weliswaar in staat zijn om hun doelgroep uit te breiden, grote aantallen oplichtingsberichten te produceren en de verspreiding ervan te versnellen, maar dat AI niet per se hun intelligentie of creativiteit verder ontwikkelt. AI werkt echter wel als een ongekende katalysator die de bestaande vaardigheden van criminelen op drie belangrijke manieren versterkt.

Grotere schaal en hogere snelheid

Ook briljante menselijke hackers worden nog steeds beperkt door de tijd die tot hun beschikking staat. Ze kunnen maar één systeem analyseren, één stukje code schrijven of één e-mail per keer opstellen. AI neemt deze beperking weg door hackers de mogelijkheid te bieden om duizenden netwerken tegelijk te scannen, in één uur een miljoen unieke phishing-e-mails te genereren en in één nacht miljarden wachtwoordcombinaties te testen. De genialiteit van deze aanvallen berust op het vermogen van AI om informatie te verwerken en taken uit te voeren op een schaal en met een snelheid die de menselijke capaciteit gewoon te boven gaan.

Lagere toegangsdrempel

Voorheen was voor het lanceren van een geavanceerde cyberaanval diepgaande technische kennis nodig op het gebied van programmeren, netwerken en beveiligingssystemen. AI maakt korte metten met deze natuurlijke barrière. Met tools als WormGPT en een gebruiksvriendelijke app is een beginnende oplichter met zeer weinig kennis van programmeren nu in staat om functionele malware te genereren of een gekloond stemgeluid te maken. In die zin maakt AI het totale aantal potentiële aanvallers veel bekwamer en gevaarlijker.

Meer creativiteit door automatisering

Het grootste voordeel van AI is de automatisering. Hackers hoeven dankzij AI de saaie, tijdrovende taken van het verkennen van systemen en het verkrijgen van initiële toegang niet meer zelf uit te voeren. In plaats van dat hackers wekenlang op zoek gaan naar een manier om binnen te komen, doet AI het zware werk door zelfstandig de zwakke punten van een systeem te vinden en de bestaande code te misbruiken om een functionele, kwaadaardige structuur op te bouwen. Allemaal zonder directe menselijke tussenkomst. Hierdoor kunnen de hackers zich concentreren op het navigeren door complexe interne netwerken, het uitschakelen van geavanceerde beveiligingssystemen en het bedenken van nieuwe manieren om hun uiteindelijke doel te bereiken.

Belangrijkste kenmerken van AI-aanvallen

AI-gestuurde cyberaanvallen hebben verschillende kenmerken die ze onderscheiden van traditionele, door mensen aangestuurde methoden. Hier volgen enkele van deze kenmerken:

  • Hypergeautomatiseerd: In tegenstelling tot traditionele cybercriminaliteit, die meestal is gebaseerd op handmatig geschreven code en door mensen bedachte tactieken, maakt AI-gestuurde cybercriminaliteit gebruik van machine learning, grote taalmodellen en automatisering om de activiteiten te plannen, uit te voeren en/of te verbeteren. Deze tools voeren 24/7 taken uit met een snelheid die voor mensen onmogelijk is.
  • Hoog volume: Bij traditionele aanvallen is een cybercrimineel vaak uren kwijt aan het opstellen van een phishing-e-mail of dagen bezig met het scannen op kwetsbaarheden. Bij AI-aanvallen kan een machine learning-model in enkele seconden duizenden of miljoenen realistische, gepersonaliseerde phishing-e-mails genereren of met ongekende snelheid een enorm aantal netwerken doorzoeken op zwakke plekken in de beveiliging.
  • Adaptief: In tegenstelling tot traditionele malware die een vast script volgt, zijn AI-bedreigingen in staat om te leren en zich aan te passen. Een AI-aanval kan de beveiliging van een systeem analyseren en vervolgens de eigen code of het eigen gedrag in real time aanpassen om een manier te vinden om de beveiliging te omzeilen.
  • Onopvallend: Door taken te automatiseren en menselijk gedrag ongelooflijk nauwkeurig na te bootsen, blijven deze aanvallen vaak onopgemerkt door conventionele beveiligingssystemen die zoeken naar bekende, statische bedreigingen. Dit maakt het buitengewoon moeilijk om aanvallen te detecteren en te blokkeren met behulp van conventionele methoden.
  • Zeer gepersonaliseerd: AI heeft een omwenteling in social engineering teweeggebracht door gegevens van social media en andere openbare bronnen te verzamelen en daarmee phishing-e-mails en -sms’jes te maken die zeer gepersonaliseerd zijn of deepfake-audio te genereren die buitengewoon overtuigend is. In deze berichten wordt vaak verwezen naar specifieke details over iemands leven of werksituatie om op die manier vertrouwen te wekken.

AI versterkt cyberaanvallen

Dankzij deze eigenschappen is AI in staat om elke fase in de levenscyclus van een aanval een enorme boost te geven, van verkenning tot uitvoering en ontwijking. Om de impact van AI op cybercriminaliteit goed te begrijpen, moeten we eens kijken naar de manieren waarop hackers AI inzetten voor kwaadaardige doeleinden.

Geautomatiseerde opsporing en uitbuiting van kwetsbaarheden

AI kan met bepaalde technieken de tijdrovende taak van een hacker om een zwakke plek in het pantser van een doelwit te vinden, aanzienlijk versnellen. Enkele van deze methoden zijn:

  • AI-gestuurde fuzzing: Hierbij worden willekeurige of semi-willekeurige gegevens in een programma ingevoerd om te zien of het crasht of onverwacht gedrag vertoont, waardoor mogelijke kwetsbaarheden aan het licht komen. AI genereert vervolgens effectievere ingangen om onbekende bugs sneller te vinden dan traditionele methoden.
  • Codeanalyse op grote schaal: Een hacker kan AI gebruiken om de broncode van een hele app in enkele minuten te scannen en zwakke punten te identificeren die een menselijke analist pas na dagen of weken zou vinden.

Hypergepersonaliseerde social engineering

Het grootste gevaar van hacken met AI ligt in het vermogen om misbruik te maken van het vertrouwen van mensen. Deze AI-gestuurde social engineering-trucs hebben hyperpersonalisatie en misleiding een geheel nieuwe dimensie gegeven door openbare socialmediaposts, werkervaringen en online activiteiten van een doelwit te analyseren en vervolgens phishing-e-mails op te stellen die qua context niet van legitieme communicatie te onderscheiden zijn.

AI-gestuurde malware en ontwijkende code

Antivirussoftware en beveiligingssystemen werken voornamelijk via het identificeren van patronen van kwaadaardige code of malware, die signaturen worden genoemd. Met AI kan malware polymorf worden. Dit betekent dat de malware bij elke nieuwe infectie de eigen code met behulp van een variabele encryptiesleutel kan veranderen om detectie op basis van signaturen te omzeilen. Metamorfe malware werkt zelfs nog geavanceerder, door de onderliggende code volledig te herschrijven terwijl de kwaadaardige functie behouden blijft. Oplossingen zoals McAfee richten zich op het identificeren van verdacht gedrag in plaats van alleen maar te zoeken naar een bekende signatuur, en bieden zo een noodzakelijk tegenwicht voor deze almaar veranderende bedreigingen.

AI-hacking met deepfakes

AI-hacking met deepfakes verwijst naar het kwaadaardige gebruik van kunstmatige intelligentie om zeer realistische, maar vervalste audio- en videocontent te maken. Deze synthetische media kunnen op zeer overtuigende wijze personen nabootsen en de stem en het uiterlijk manipuleren om onjuiste informatie te verspreiden, identiteitsdiefstal of fraude te plegen of het vertrouwen te ondermijnen.

Gerelateerd: How to Spot a Deepfake on Social Media

Stemgeluid klonen voor vishing en nabootsing van personen

Een van de meest verontrustende toepassingen van AI is het klonen van stemgeluid of voice-phishing, ook wel vishing genoemd. Met slechts een paar seconden van iemands stemgeluid – vaak afkomstig van video’s op social media of openbare voicemails – kan AI een zeer realistische kloon maken van de stem van die persoon. In de zakenwereld kan een oplichter zelfs een kort geluidsfragment uit een openbaar interview van een CEO gebruiken om diens stem te klonen, en vervolgens via vervalste audio de financiële afdeling van het bedrijf opdracht geven om een frauduleuze overboeking uit te voeren.

Wachtwoorden kraken met ongekende snelheid

Door enorme datasets van gehackte wachtwoorden te analyseren, kunnen AI-modellen de veelvoorkomende patronen, verwisselingen en structuren leren die mensen gebruiken bij het maken van wachtwoorden. In plaats van aaaa en aaab te proberen, zou een AI-gestuurde kraker kunnen beginnen met Password2024! of Winter!23 en zo leren op basis van context en menselijke psychologie. Dit verkort de tijd die nodig is om een account te hacken aanzienlijk.

Gerelateerd: Sterke wachtwoorden maken met een wachtwoordgenerator

Brute force-aanvallen

Bij traditionele brute force-aanvallen probeert de aanvaller meerdere combinaties van gebruikersnamen en wachtwoorden uit totdat de juiste combinatie is gevonden. AI gebruikt machine learning om het raden van aanmeldingsgegevens aanzienlijk te optimaliseren. Hierbij worden miljoenen, zo niet miljarden combinaties per seconde bedacht om gebruikersnamen en wachtwoorden systematisch in te voeren totdat er toegang tot een systeem wordt verkregen.

CAPTCHA’s kraken

CAPTCHA’s zijn bedoeld om onderscheid tussen mensen en bots te kunnen maken. Bij het kraken van een CAPTCHA gebruikt AI een geautomatiseerde oplossing die op deep learning of op een algoritme is gebaseerd om CAPTCHA-testen te omzeilen. Dit vormt een groeiend beveiligingsprobleem, aangezien AI-modellen zeer effectief worden in het oplossen van zelfs complexe visuele of audio-CAPTCHA’s.

Aanvallen op AI-systemen

Bij deze methode vallen hackers de AI-systemen aan die organisaties gebruiken voor hun beveiliging. Twee veelvoorkomende manieren om dit te doen:

  • Modelvergiftiging: Hierbij worden de gegevens die worden gebruikt om het AI-model van een bedrijf te trainen, subtiel beschadigd. Een hacker kan bijvoorbeeld een veiligheidssysteem voor gezichtsherkenning voeden met duizenden verkeerd gelabelde afbeeldingen van iemands gezicht. Die persoon kan dan later volledig onopgemerkt langs de camera’s lopen. Op dezelfde manier kunnen de trainingsgegevens van een spamfilter worden vergiftigd om ervoor te zorgen dat de phishing-e-mails altijd als veilig worden gemarkeerd.
  • Ontwijkingsaanvallen: Hackers proberen een AI-model te manipuleren door minuscule, bijna onmerkbare wijzigingen in een afbeelding aan te brengen, zodat een AI-systeem bijvoorbeeld een stopbord ten onrechte herkent als een snelheidsbord. Een angstaanjagend vooruitzicht voor zelfrijdende voertuigen. In de cyberbeveiliging kan dit betekenen dat een malware-item wordt aangepast om het onzichtbaar te maken voor een AI-systeem dat bedreigingen detecteert

Autonome aanvalszwermen

Autonome hacking-agents, ook wel AI-zwermen genoemd, zijn intelligente systemen die een hele cyberaanvalcampagne kunnen uitvoeren zonder directe menselijke tussenkomst. Een agent wordt geprogrammeerd met een doel, bijvoorbeeld klantgegevens stelen van bedrijf X, waarna de agent 24/7 zelfstandig aan de slag gaat en in enkele minuten tijd de hele aanvalsketen uitvoert, van het verkennen, het identificeren van kwetsbaarheden, het uitvoeren van de hack tot het buitmaken van de gegevens. Het systeem geeft de menselijke hacker pas een waarschuwing als het doel is bereikt.

Gerelateerd: ChatGPT: het nieuwste hulpje voor oplichters

Navigeren door het nieuwe bedreigingslandschap

De botsing tussen kwaadaardige AI en verdedigende AI heeft een nieuwe technologische wapenwedloop ontketend op het gebied van cyberbeveiliging. Terwijl hackers AI gebruiken om meer ontwijkende en meer schaalbare aanvallen te creëren, gebruiken wereldwijde beveiligingsbedrijven AI om slimmere, snellere en meer voorspellende beveiligingssystemen te bouwen.

De snelle evolutie van hacking met kunstmatige intelligentie lijkt misschien ontmoedigend, maar u bent niet weerloos. U bent een actieve en onmisbare deelnemer aan uw eigen digitale veiligheid. De nieuwe situatie vraagt gewoon om een slimmere, modernere benadering van beveiliging. Als u het volledige plaatje ziet en inzicht hebt in de AI-gestuurde methoden die hackers gebruiken, hebt u de basis gelegd voor verdedigingsstrategieën die u veilig kunnen houden.

Zie uw bewustzijn als een krachtige sensor die niet door AI kan worden gekopieerd. Elke keer dat u pauzeert om een verdachte e-mail in twijfel te trekken of even de tijd neemt om een dringend verzoek te controleren, speelt u een belangrijke rol. Als uw partner biedt McAfee u de tools en inzichten die u nodig hebt. Met uw onderbouwde intuïtie en onze intelligente technologie kunnen we een formidabele verdediging creëren en vol vertrouwen door de digitale wereld navigeren.

Praktische stappen om AI-cyberaanvallen te verhinderen

  • Versterk uw aanmeldingsgegevens: Gebruik een programma voor wachtwoordbeheer om voor elk account een lang, uniek en complex wachtwoord te maken en op te slaan. Belangrijker nog, maak waar mogelijk gebruik van meervoudige verificatie als krachtige barrière tegen hackers en aanvallers.
  • Neem uw communicatie onder de loep: Wees extra op uw hoede met e-mails, sms’jes en telefoontjes die een gevoel van urgentie oproepen. Controleer onverwachte verzoeken via een apart, vertrouwd kanaal voordat u actie onderneemt.
  • Houd alles up-to-date: Werk uw besturingssysteem, webbrowser en apps regelmatig bij. Deze updates bevatten vaak belangrijke beveiligingspatches die kwetsbaarheden verhelpen waar hackers misbruik van kunnen maken.
  • Installeer AI-gestuurde verdediging: De meest effectieve manier om AI-gestuurde bedreigingen te bestrijden, is een AI-gestuurde verdediging in te zetten. Gebruik een uitgebreide beveiligingsoplossing zoals McAfee die kunstmatige intelligentie toepast om geavanceerde aanvallen in real time te detecteren en te blokkeren.

De dualiteit van AI: zwaard en schild

Kunstmatige intelligentie kan met recht een tweesnijdend zwaard worden genoemd in de wereld van cyberbeveiliging. De mogelijkheden die het een krachtig wapen voor hackers maken – ongekende snelheid, patroonherkenning en automatisering – zijn dezelfde mogelijkheden die het ons belangrijkste schild maken. Een AI-model dat getraind kan worden om een overtuigende phishing-e-mail te schrijven, kan ook getraind worden om de subtiele taalkundige patronen van een dergelijke e-mail te herkennen. AI die een kwetsbaarheid kan vinden en misbruiken, kan ook worden gebruikt om die kwetsbaarheden te verhelpen en te beschermen.

Hoe ziet de toekomst van AI in de cybercriminaliteit eruit? Alles wijst op meer autonomie en betere toegankelijkheid. U kunt meer autonome aanvalszwermen verwachten, waarbij meerdere AI-agents samenwerken om zonder menselijke begeleiding een hack uit te voeren. Daarnaast zal de commercialisering van AI-hacktools op het dark web doorgaan, waardoor geavanceerde aanvalsmogelijkheden voor meer criminelen beschikbaar komen.

De toekomst is echter niet alleen maar somber. Defensieve AI ontwikkelt zich net zo snel. Aanvallers worden slimmer, maar onze beveiligingen worden dat ook. Bedrijven als McAfee lopen voorop bij de ontwikkeling van de volgende generatie AI-gestuurde beveiliging om deze toekomstige bedreigingen te neutraliseren.

Tot slot

Het tijdperk van hacken met kunstmatige intelligentie ligt niet in het verschiet, het is al aangebroken. AI heeft hackers bovenmenselijke snelheid gegeven, complexe taken geautomatiseerd en de drempel voor toegang verlaagd. We zien de invloed van AI in de opkomst van hyperrealistische phishingactiviteiten, adaptieve malware en de commercialisering van kwaadaardige AI-tools.

Dezelfde AI die voor aanvallen kan worden gebruikt, biedt ons het meest veelbelovende pad naar de verdediging tegen dit soort aanvallen. McAfee Smart AI-technologie is gebaseerd op deep learning, contextuele analyse en gedragsmodellen, waarbij continu triljoenen bedreigingssignalen worden verwerkt om realtime bescherming te bieden, zoals oplichtingsdetectie, deepfakedetectie en antivirusoplossingen. Deze technologie heeft zicht op wat er op apparaten, in apps en op het web gebeurt, en identificeert en blokkeert proactief schadelijke activiteiten voordat er schade wordt aangericht. Of het nu gaat om het stoppen van phishingpogingen, het detecteren van zero-day malware of het identificeren van ongewoon gedrag, McAfee Smart AI is ontwikkeld om cybercriminelen een stap voor te blijven en u bij elke digitale interactie te beschermen.

Door goed op de hoogte te blijven, bewustzijn van cyberbeveiliging te stimuleren en in de nieuwe generatie AI-beveiligingstools te investeren, kunt u potentiële risico’s en desinformatie het hoofd bieden.