AI in het wild: schadelijke toepassingen van populaire AI-tools

AI wordt niet alleen gebruikt voor grappige gedichten, bizarre afbeeldingen en hilarische filmpjes die viraal gaan op internet. ChatGPT, Bard, DALL-E, Craiyon, Voice.ai en een heleboel andere voor iedereen toegankelijke AI-tools zijn leuk vertier voor een vrije middag en handig bij het maken van een opdracht voor school of het werk. Maar ook cybercriminelen gebruiken deze AI-tools bij hun oplichtingspraktijken en voegen hiermee een geheel nieuwe dimensie toe aan phishing, vishing, malware en social engineering.   

Hier zijn enkele recente voorbeelden van het gebruik van AI bij oplichtingspraktijken, plus een paar tips waar u op moet letten als u hiermee te maken krijgt. 

1. AI-oplichting met spraaknabootsing

Vishing (phishing via de telefoon) is niet nieuw, maar door spraaknabootsing met AI worden deze telefoontjes die bedoeld zijn om u op te lichten, geloofwaardiger dan ooit. In de Amerikaanse staat Arizona leidde een telefoontje over een nepontvoering enkele minuten lang tot paniek bij een gezin, toen een moeder om losgeld werd gevraagd om haar dochter die zogenaamd ontvoerd was, vrij te krijgen. De stem die de moeder aan de telefoon hoorde, klonk precies als die van haar dochter, maar het bleek een door AI gegenereerde spraaknabootsing te zijn.     

De dochter was helemaal niet ontvoerd. Ze was gezond en wel. Het gezin raakte geen geld kwijt omdat ze wisten wat ze moesten doen: ze belden de politie en hielden de oplichter aan de praat terwijl de politie de dochter opspoorde.1 

Oplichting door zich voor te doen als iemand anders was in 2022 alleen al in de VS goed voor een verlies van 2,6 miljard dollar. Door nieuwe vormen van oplichting met behulp van AI zou dat duizelingwekkende bedrag nog veel hoger kunnen worden. Volgens het rapport “Beware the Artificial Imposter” van McAfee zegt 25% van de respondenten wereldwijd dat ze zelf of mensen die ze kennen wel eens te maken hebben gehad met oplichting met spraaknabootsing. Uit dat onderzoek bleek ook dat 77% van de mensen die doelwit waren van oplichting met spraaknabootsing, hierdoor geld is kwijtgeraakt.  

Hoe u het verschil kunt horen

Natuurlijk schrikt u als u de stem van een dierbare in nood hoort, maar probeer zo kalm mogelijk te blijven als u een telefoontje krijgt van een bekende die beweert in moeilijkheden te zitten. Luister heel goed naar de “stem” van uw dierbare. AI-spraaktechnologie is ongelooflijk goed, maar nog lang niet perfect. Hapert de stem bijvoorbeeld op een onnatuurlijke manier? Worden woorden soms net iets te vroeg afgekapt? Komt de toon van bepaalde woorden niet helemaal overeen met het accent van uw dierbare? Om deze kleine details op te merken, moet u proberen het hoofd koel te houden. 

Het is bijvoorbeeld een goed idee om met alle gezinsleden een specifiek wachtwoord af te spreken om te voorkomen dat u in deze vorm van AI-vishing trapt. Dat kan een obscuur woord of zinnetje zijn dat alleen voor u betekenis heeft. Houd dit wachtwoord voor uzelf en post het nooit op socialmedia. Als u ooit wordt gebeld door een oplichter die beweert een familielid te zijn of een familielid ontvoerd te hebben, kan dit wachtwoord worden gebruikt om een echte noodsituatie van een valse te onderscheiden. 

2. Deepfake-losgeldeisen en nepadvertenties

Deepfakes zijn digitale manipulaties van authentieke foto’s, video’s of audioclips. Dit is een van de mogelijkheden van AI die veel mensen zorgen baart. “Zien is geloven” gaat niet meer op. Als u niet meer kunt geloven wat u ziet, wat is dan nog echt? En wat niet? 

De FBI waarschuwt mensen voor een nieuwe tactiek waarbij cybercriminelen expliciete beelden van personen bewerken en hiermee vervolgens onschuldige mensen chanteren. Deze mensen worden dan onder druk gezet om geld of codes van cadeaubonnen te sturen om te voorkomen dat het compromitterende materiaal openbaar wordt gemaakt.2 

Deepfaketechnologie stond ook centraal bij een incident met een nepadvertentie. Een oplichter maakte een nepadvertentie waarin Martin Lewis, een betrouwbare financiële expert, reclame maakt voor een investeringsproject. Door een deepfake van Lewis op te nemen in de Facebook-advertentie werd geprobeerd de oplichting legitiem te laten lijken.3  

Hoe te reageren op losgeldeisen en dubieuze online advertenties?

Geen reactie is de beste reactie als u om losgeld wordt gevraagd. U hebt te maken met een crimineel. Wie zegt dat de valse documenten of materialen niet alsnog worden gepubliceerd als u het losgeld betaalt? Schakel de politie in als u door een oplichter wordt benaderd. Die kan u helpen het probleem op te lossen. 

Het feit dat een advertentie op een gerenommeerd socialmediaplatform staat, betekent nog niet dat de adverteerder een legitiem bedrijf is. Voordat u iets koopt of uw geld investeert in een bedrijf dat u via een advertentie hebt gevonden, moet u altijd zelf de achtergrond van het bedrijf onderzoeken. U kunt in een paar minuten online reviews en online beoordelingen opzoeken en sites als Trustpilot, Fraudehelpdesk, ACM ConsuWijzer checken om te bepalen of een bedrijf een goede reputatie heeft. 

Om te controleren of een foto of video een deepfake is, moet u vooral letten op inconsistente schaduwen en belichting, gezichtsvervormingen en de handen van mensen. Dat zijn met name de gebieden waar u kleine details kunt zien die niet helemaal kloppen. Net als bij AI-stemmen is de deepfaketechnologie vaak goed, maar niet perfect. U kunt ook de Deepfake Detector van McAfee proberen, die door AI gegenereerde audio binnen enkele seconden markeert. 

3. Door AI gegenereerde malware en phishing-e-mails

Tools voor het genereren van content hebben een aantal beveiligingen om te voorkomen dat hiermee tekst wordt gemaakt die illegaal gebruikt kan worden. Sommige cybercriminelen hebben echter een manier gevonden om deze regels te omzeilen en ze gebruiken ChatGPT en Bard als hulpmiddel bij hun malware- en phishingactiviteiten. Als een crimineel bijvoorbeeld aan ChatGPT vraagt keylogging-malware te schrijven, wordt dat door de tool geweigerd. Maar de crimineel kan het verzoek ook anders formuleren en bijvoorbeeld vragen om code te maken die toetsaanslagen vastlegt. En dan kan wel aan het verzoek worden voldaan. Eén onderzoeker liet zien hoe zelfs iemand met weinig kennis van programmeren ChatGPT kan gebruiken, waardoor het maken van malware eenvoudiger en toegankelijker is dan ooit tevoren.4 Op dezelfde manier kunnen AI-tekstgeneratietools snel overtuigende phishing-e-mails maken. In theorie kan dit de activiteiten van een phisher versnellen en hun bereik vergroten. 

Hoe u door AI geschreven malware en phishingpogingen kunt vermijden

Door AI gegenereerde malware en phishingberichten kunt u op dezelfde manier vermijden als de door mensen geschreven variant: wees voorzichtig en wantrouw alles wat verdacht lijkt. Bezoek alleen websites waarvan u weet dat u ze kunt vertrouwen om malware te vermijden. Een tool voor veilig surfen zoals McAfee-webbescherming, die is inbegrepen bij McAfee+, kan u helpen om bij onbetrouwbare websites vandaan te blijven.

Wat phishing betreft, moet u altijd op uw hoede zijn als u e-mails of sms’jes krijgt die om een snelle reactie vragen. Traditionele phishingberichten zitten meestal vol typfouten, spelfouten en andere taalfouten. Door AI-geschreven oplichtingsberichten zijn daarentegen vaak goed geschreven en bevatten zelden fouten. Dit betekent dat u elk bericht in uw inbox zorgvuldig moet controleren. 

Neem de tijd, blijf kalm en vertrouw op uzelf 

Over het reguleren van AI worden verhitte debatten gevoerd. Zolang er nog niets is vastgelegd, raden we u aan AI op een verantwoorde manier te gebruiken. Wees transparant wanneer u het gebruikt. En als u vermoedt dat u te maken hebt met een kwaadaardige toepassing van AI, neem dan voldoende tijd om de situatie naar uw beste vermogen te beoordelen. Met AI kan overtuigende content worden gemaakt, maar vertrouw op uw intuïtie en volg de best practices die hierboven zijn beschreven om uw geld en persoonsgegevens uit handen van cybercriminelen te houden. 

1CNN: “‘Mom, these bad men have me’: She believes scammers cloned her daughter’s voice in a fake kidnapping 

2NBC News: “FBI warns about deepfake porn scams 

3BBC: “Martin Lewis felt ‘sick’ seeing deepfake scam ad on Facebook 

4Dark Reading: “Researcher Tricks ChatGPT Into Building Undetectable Steganoraphy Malware 

Wij presenteren McAfee+

Bescherming tegen identiteitsdiefstal en privacy voor uw digitale leven

FacebookLinkedInTwitterEmailCopy Link

Blijf op de hoogte

Volg ons om op de hoogte te blijven van alles wat met McAfee te maken heeft en op de hoogte te blijven van de nieuwste beveiligingsrisico’s voor consumenten en mobiele apparaten.

FacebookTwitterInstagramLinkedINYouTubeRSS

More from Internetbeveiliging

Back to top