Oplichting met deepfakes en AI-stemklonen
Stel u voor dat de telefoon gaat. Het is uw baas, die u de dringende opdracht geeft om miljoenen dollars over te maken naar een nieuwe leverancier om een belangrijke deal te sluiten. Het verzoek is ongebruikelijk, maar de stem is onmiskenbaar die van uw baas, dus u maakt het geld over. Uren later ontdekt u dat de deal nep was, dat de leverancier een oplichter was en dat de stem aan de telefoon een perfecte digitale kopie was.
Dit is geen scène uit een sciencefictionthriller. Het is de angstaanjagende realiteit van een geavanceerde, snel groeiende vorm van oplichting via deepfakes en spoofing met door AI gekloond stemgeluid. De technologie voor spoofing met AI-stemklonen en het genereren van deepfakevideo’s wordt steeds toegankelijker. Daardoor is dit soort oplichting niet meer alleen gericht op grote bedrijven. Deze technologieën worden nu steeds vaker door oplichters gebruikt om zich voor te doen als familieleden, politieke desinformatie te verspreiden en nieuwe vormen van identiteitsdiefstal te plegen.
Alleen al in 2024 steeg het aantal gevallen van deepfakefraude met maar liefst 3000%, mogelijk gemaakt door de democratisering van krachtige AI-tools en de gigantische hoeveelheid persoonsgegevens die online beschikbaar zijn. Oplichters hebben niet langer geavanceerde technieken uit de filmindustrie nodig. Het enige wat ze nodig hebben, is software om een stem te klonen die ze uit een kort socialmedia-fragment hebben gehaald of een overtuigende nepvideo te maken van openbaar beschikbare foto’s. En deze software wordt steeds toegankelijker.
In dit artikel vindt u de kennis die u nodig hebt om door dit nieuwe digitale mijnenveld te navigeren. U leert hoe deze technologie werkt, krijgt voorbeelden uit de praktijk en de verwoestende gevolgen daarvan, en u leert bruikbare strategieën om deze vorm van oplichting te herkennen en uzelf, uw gezin en uw bedrijf tegen fraude te beschermen.
Wat is oplichting met spraaknabootsing en deepfakes?
Bij oplichting met spraaknabootsing wordt geavanceerde technologie gebruikt om de stem van iemand na te bootsen. Die stem wordt meestal verkregen uit datalekken of openbaar beschikbare audio. De nagebootste stem wordt dan vergezeld van een dringend of paniekerig verhaal om slachtoffers over te halen geld te sturen of gevoelige informatie vrij te geven. De oplichters kunnen zich voordoen als een familielid in nood of een collega die onmiddellijk geld nodig heeft. Hierbij wordt misbruik gemaakt van emotionele banden en een gevoel van urgentie gecreëerd om het doelwit op te lichten.
Deepfakes zijn AI: op machine learning gebaseerde hyperrealistische, kunstmatige video’s waarin naadloos gezichten worden verwisseld, uitdrukkingen worden veranderd of zelfs geheel nieuwe scenario’s worden gegenereerd. In deze video’s lijkt het alsof iemand iets gezegd of gedaan heeft wat diegene nooit gedaan heeft, waardoor de grenzen tussen echt en nep vervagen.
De wetenschap achter door AI gekloond stemgeluid en oplichting met deepfakes
De fundamentele technologie achter spoofing met door AI gekloond stemgeluid is spraaksynthese, vaak aangestuurd door generatieve antagonistennetwerken (GAN’s). In vereenvoudigde vorm werkt dat als volgt:
- Gegevens verzamelen: een oplichter heeft een voorbeeld nodig van de stem van het doelwit. Dit kan verrassend eenvoudig te verkrijgen zijn. Een paar seconden van een voicemail, een video op socialmedia, een podcastinterview of zelfs een telefoontje naar een klantenservice is vaak al genoeg.
- Modeltraining: het AI-model analyseert het stemvoorbeeld, splitst het op in unieke kenmerken, zoals toon, accent, tempo en zelfs ademhalingspatronen, en leert deze vocale biomarkers na te bootsen.
- Genereren en verfijnen: de oplichter typt het script in dat de AI moet “uitspreken”. Het generatordeel van de GAN creëert de audio, terwijl het discriminatordeel aan de hand van het originele stemvoorbeeld controleert of het authentiek klinkt. Dit proces wordt in luttele seconden duizenden keren herhaald, waarbij de gegenereerde stem bij elke cyclus realistischer wordt.
Het resultaat is een zeer overtuigend audiobestand dat wordt gebruikt tijdens een vishing- of voice phishing-telefoongesprek, of dat wordt ingesloten in een video.
De technologie achter deepfakevideo’s is vergelijkbaar met het klonen van stemmen, alleen verzamelen de oplichters hierbij afbeeldingen en video’s van de persoon in kwestie uit openbare bronnen zoals socialmedia, nieuwsberichten of websites van bedrijven. Hoe meer visuele gegevens ze hebben, met verschillende hoeken, uitdrukkingen, belichtingen, gelaatstrekken, manieren en bewegingen, hoe realistischer de uiteindelijke deepfake zal zijn.
Eenmaal getraind kan de AI het kunstmatige gezicht over een bronvideo van iemand anders heen leggen, zodat het gezicht van het doelwit overeenkomt met de uitdrukkingen en hoofdbewegingen van de persoon in de bronvideo. De audio, die een gekloonde stem kan zijn, wordt dan gesynchroniseerd met de video en vervolgens gebruikt in frauduleuze en misleidende praktijken die zijn gericht op financieel gewin, reputatieschade of politieke manipulatie.
Gevolgen van oplichting met deepfakes in de praktijk
CEO-fraude
Bij CEO-fraude, ook bekend als “oplichting via zakelijke e-mail”, sturen oplichters e-mails waarin ze zich voordoen als leidinggevenden om werknemers over te halen geld over te maken. In 2019 werd de CEO van een energiebedrijf in het Verenigd Koninkrijk op die manier misleid om € 220.000 over te maken naar een Hongaarse leverancier nadat hij een telefoontje had gekregen van iemand die de stem van de directeur van het Duitse moederbedrijf perfect had nagebootst. De CEO gaf aan dat hij het “lichte Duitse accent en de melodie” van de stem van zijn baas herkende, waardoor het verzoek volkomen legitiem leek.
Oplichting van grootouders
De klassieke oplichting van grootouders houdt in dat een oplichter een oudere persoon opbelt en doet alsof hij een kleinkind is dat in de problemen zit en snel geld nodig heeft. Oplichters halen hiervoor een kort audiofragment van de stem van het kleinkind uit een TikTok- of Instagram-video om een overtuigend verzoek om hulp te maken. Een moeder in Arizona kreeg een telefoontje van een onbekend nummer, maar hoorde de stem van haar 15-jarige dochter, die huilend beweerde dat ze ontvoerd was. Terwijl de vrouw aan de telefoon was, belde haar man hun dochter, die veilig op skitraining bleek te zijn. De stem aan de telefoon was nep.
→ Gerelateerd: How a Close Relative Lost $100,000 to an Elder Scam (Hoe een naast familielid $ 100.000 kwijtraakte door oplichting van ouderen)
Politieke desinformatie
De AI-dreiging strekt zich inmiddels ook uit tot democratische processen en zorgt voor grootschalige verwarring. Begin 2024 ontvingen inwoners van de Amerikaanse staat New Hampshire een robocall met een door AI gegenereerd nepaudiobericht van president Joe Biden, waarin hij hen opriep om niet te gaan stemmen bij de voorverkiezingen van de staat. Kwaadwillenden kunnen deepfaketechnologie gebruiken om compromitterende video’s of audio te maken om mensen te chanteren of hun reputatie te beschadigen.
Romantische oplichting
Oplichters gebruiken nu ook deepfakefoto’s en -video’s en gekloonde stemmen om geloofwaardige nepprofielen te maken op datingsites. De slachtoffers, vaak eenzame mensen die op zoek zijn naar gezelschap, worden hiermee emotioneel en financieel gemanipuleerd. Deepfakevideogesprekken leiden ertoe dat slachtoffers deze romantische oplichting minder snel als zodanig herkennen. Veel vrouwen zijn zo hun spaargeld kwijtgeraakt, omdat ze dachten dat ze een romantische relatie hadden met een betrouwbaar persoon of een populaire beroemdheid. Pas nadat ze geld hadden gestuurd, realiseerden ze zich dat ze waren opgelicht.
→ Gerelateerd: AI chatbots are becoming romance scammers—and 1 in 3 people admit they could fall for one (AI-chatbots worden liefdesoplichters en 1 op de 3 mensen geeft toe dat ze er weleens in zouden kunnen trappen)
Nepaanbevelingen door beroemdheden
Oplichters gebruiken het gezicht en de stem van een beroemdheid in promotievideo’s voor beleggingsfraude en producten die zogenaamd wonderen verrichten. Fans en volgers op socialmedia zullen dan eerder geneigd zijn om geld uit te geven, omdat ze geloven dat de aanbeveling echt is. Een recent voorbeeld is een deepfakevideo van Taylor Swift die kookgerei weggeeft en fans misleidt om het product te kopen.
Biometrische beveiliging omzeilen
Deepfakeaudio of -video kan worden gebruikt om de biometrische kenmerken van een doelwit na te bootsen om zo ongeoorloofde toegang te krijgen tot bankrekeningen, mobiele telefoons en vertrouwelijke bedrijfssystemen. Vooral houders van financiële rekeningen en mensen die stem- of gezichtsherkenning gebruiken voor gevoelige transacties, zijn kwetsbaar.
Nabootsen van politie- en overheidsfunctionarissen
Criminelen gebruiken deepfakes om zich in een telefoongesprek of videochat voor te doen als medewerker van een officiële instantie, zoals de politie, de belastingdienst of de immigratiedienst, om geld of persoonsgegevens te vragen. Immigranten, ouderen en mensen die niet vertrouwd zijn met de gebruikelijke procedures, lopen het grootste risico.
Hoe u oplichting kunt herkennen
Of het nu een telefoontje is van iemand die precies klinkt als uw dierbare of een video van een publiek figuur die iets zegt wat hij nooit heeft gedaan: deze vorm van oplichting is bedoeld om misbruik te maken van uw vertrouwen. Met de juiste kennis kunt u leren om aan de hand van subtiele signalen te herkennen dat er iets niet klopt. Hier is een lijst met rode vlaggen om u te helpen oplichting met spraaknabootsing of deepfakevideo’s te herkennen voordat het te laat is.
Door AI gekloond stemgeluid
Het is voor AI-modellen nog lastig om de nuances van menselijke emoties en spraak perfect na te bootsen. Wanneer u een verdacht telefoontje krijgt, kunt u oplichting met spraaknabootsing herkennen door goed te luisteren naar de subtiele onvolkomenheden die hieronder staan vermeld, zelfs als de stem over het algemeen vertrouwd klinkt.
- Monotone of vlakke stem: de spraak kan de normale emotionele hoogte- en dieptepunten missen. Deze kan vreemd afstandelijk of robotachtig klinken, ook als de stem zelf klopt.
- Merkbare digitale fouten: vooral bij langere gesprekken kunt u af en toe een vaag elektronisch gezoem, een echo of geluidsfouten horen die zich normaal niet voordoen bij menselijke sprekers.
- Ongebruikelijk tempo of vreemde cadans: let op vreemde pauzes in het midden van zinnen of een ritme dat niet helemaal klopt. Soms lopen woorden onnatuurlijk in elkaar over of vallen er vreemde stiltes, die zich in organische gesprekken niet voordoen.
- Gebrek aan menselijke geluiden: u hoort misschien niet de kleine, onbewuste geluiden die mensen maken, zoals hun keel schrapen, zuchten of andere tussengeluiden. Omgekeerd hoort u wellicht digitaal ingevoegde ademhalingsgeluiden die wat al te regelmatig lijken te zijn. Ook gelach en verraste uitroepen klinken vaak bijzonder onnatuurlijk in audio die door AI is gegenereerd.
- Slechte geluidskwaliteit of vreemde achtergrondgeluiden: hoewel dit geen doorslaggevend bewijs is, gebruiken oplichters vaak ruis of het geluid van een callcenter op de achtergrond om onvolkomenheden in de gekloonde stem te maskeren. Als er sprake is van achtergrondgeluiden die generiek zijn of die op een eigenaardige manier worden herhaald, is dat een mogelijk teken van manipulatie.
- Repetitieve formuleringen: de AI werkt mogelijk met een beperkt script. Als u een vraag stelt en een iets anders geformuleerde versie van een eerdere bewering als antwoord krijgt, wees dan op uw hoede.
→ Gerelateerd: Artificial Imposters—Cybercriminals Turn to AI Voice Cloning for a New Breed of Scam (Kunstmatige bedriegers: cybercriminelen gebruiken AI-stemklonen voor een nieuwe vorm van oplichting)
Deepfakevideo
In een videogesprek of een vooraf opgenomen video kunnen visuele aanwijzingen het bedrog verraden. Let op haperingen waar de AI er niet in slaagt een naadloze realiteit te creëren.
- Visuele trillingen: let op plotselinge, korte flikkeringen waarbij het gezicht of het hoofd onnatuurlijk lijkt te trillen of te verschuiven, vooral wanneer de persoon snel beweegt.
- Onnatuurlijke oogbewegingen: deepfakes hebben vaak moeite om het normale knipperen van een oog realistisch weer te geven. Het kan zijn dat de persoon niet genoeg knippert, of dat het knipperen er onnatuurlijk uitziet. Als de blik uw beweging of de camera niet volgt, kan dit een teken zijn dat u te maken hebt met een deepfake.
- Verkeerde lipsynchronisatie: de woorden die u hoort, komen misschien niet perfect overeen met de bewegingen die de mond van de persoon maakt. Dit is vaak het duidelijkst aan het begin of het einde van een zin, of als er snel gesproken wordt.
- Vreemde gezichtsuitdrukkingen: de bewegingen van het gezicht komen mogelijk niet overeen met de emotie die de stem overbrengt. Lachen en glimlachen zijn veel voorkomende “breekpunten”, dat wil zeggen momenten waarop de deepfakevideo hapert.
- Wazige of vervormde randen: let goed op de randen waar het gezicht de nek, het haar of de achtergrond raakt. U kunt vreemde vervagingen, vervormingen of inconsistenties in de kleuren zien. Hoeden en brillen leveren ook vaak problemen op in deepfakes.
- Inconsistente belichting, schaduwen en texturen: de belichting op het gezicht van de persoon komt mogelijk niet overeen met de belichting in andere delen van het beeld. Schaduwen kunnen bijvoorbeeld in de verkeerde richting vallen. De huid kan er ook te glad of wasachtig uitzien of een ongebruikelijke textuur hebben.
→ Gerelateerd: McAfee and Intel Collaborate to Combat Deepfakes with AI-Powered Deepfake Detection (McAfee en Intel werken samen om deepfakes te bestrijden met AI-gestuurde deepfake-detectie)
Psychologische strategieën bij oplichting: urgentie, geheimhouding en emotie
Als we de technologie buiten beschouwing laten, zien we dat oplichting met deepfakes gebaseerd is op dezelfde social engineering-tactieken als traditionele fraude. Het doel van deze tactieken is om uw vermogen tot kritisch denken te ontregelen door u onder druk te zetten.
- Extreme urgentie: de oplichter dringt erop aan dat u nu moet handelen, zodat u geen tijd hebt om na te denken, anderen te raadplegen of het verzoek te controleren.
- Emotionele manipulatie: de communicatie is zorgvuldig voorbereid om angst, bezorgdheid of opwinding uit te lokken, in de hoop uw beoordelingsvermogen te vertroebelen en uw normale veiligheidsbewustzijn te ontregelen.
- Vereiste geheimhouding: oplichters vertellen u vaak dat u met niemand over het verzoek mag praten. Ze doen alsof het om iets vertrouwelijks gaat of dat ze bezorgd zijn om het welzijn van anderen.
- Ongebruikelijke betalingsmethoden: oplichters zullen bijna altijd vragen om geld te betalen via ongewone methoden, zoals onbekende overboekingsdiensten, cryptovaluta of cadeaukaarten, omdat deze methoden niet getraceerd of teruggedraaid kunnen worden.
- Emotionele trigger: het verzoek is geformuleerd om een sterke emotionele reactie uit te lokken, zoals angst bij een nepontvoering, hebzucht bij een geheime deal of medeleven met een naaste die in de problemen zit.
Uzelf en uw bedrijf beschermen tegen AI-fraude
Oplettendheid en proactieve verdedigingsmiddelen zijn van cruciaal belang om uw veiligheid te beschermen. Eenvoudige maar effectieve veiligheidsmaatregelen in uw persoonlijke en professionele leven leveren een belangrijke bijdrage aan het opbouwen van een sterke verdediging tegen dit soort aanvallen. Geen enkele technologie is onfeilbaar, maar het toevoegen van extra beveiligingslagen kan aanvallers afschrikken.
Voor individuele gebruikers: versterk uw persoonlijke beveiliging
- Stel een veilig woord in: spreek een geheim woord of een geheime vraag af met uw naaste familieleden, en gebruik dit als u ooit een dringend telefoontje krijgt waarin om geld wordt gevraagd. Een oplichter die een door AI gekloond stemgeluid gebruikt, weet het antwoord niet.
- Controleer, controleer, controleer: als u een dringend verzoek om geld of gevoelige gegevens krijgt, hang dan op. Neem via een ander, bekend kanaal contact op met de persoon (via een vertrouwd telefoonnummer, een sms’je of een andere berichtenapp) om te controleren of het verzoek echt is.
- Denk aan uw digitale voetafdruk: wees voorzichtig met de hoeveelheid audio- en videocontent die u openbaar op socialmedia plaatst. Hoe meer stemvoorbeelden een oplichter heeft, hoe beter de stemkloon zal zijn. Overweeg om uw accounts op privé te zetten.
- Stel vragen bij onverwacht contact: als u een telefoontje of videochat krijgt van een onbekend nummer en de persoon beweert iemand te zijn die u kent, wees dan meteen op uw hoede. Stel diegene een persoonlijke vraag waarop alleen de echte persoon het antwoord kan weten.
Voor bedrijven: implementeer een meerlaagse verdediging
- Stel training voor werknemers verplicht: de belangrijkste zwakke schakel in elke organisatie is een ongetrainde werknemer. Houd regelmatig trainingssessies om uw team alert te maken op oplichting via deepfakes, vishing en social engineering-tactieken. Gebruik voorbeelden uit de praktijk om de dreiging te benadrukken.
- Implementeer strikte verificatieprotocollen: creëer een verificatieproces dat uit meerdere stappen bestaat voor elke financiële transactie en elk verzoek om gegevensoverdracht, vooral als het ongebruikelijk of dringend is. Dit omvat bijvoorbeeld verplicht terugbellen naar een vooraf goedgekeurd nummer of een fysieke check-in voor grote bedragen. Vertrouw nooit op één contact via telefoon of e-mail.
- Beperk openbare informatie: beperk waar mogelijk de hoeveelheid openbaar toegankelijke informatie over uw belangrijkste leidinggevenden, zoals video’s en geluidsopnamen op de website van het bedrijf of op openbare forums.
- Gebruik technologie als verdediging: overweeg de aanschaf van geavanceerde beveiligingsoplossingen die gebruikmaken van biometrie zoals “stemafdrukken” om gebruikers te verifiëren.
Wat u moet doen na een poging tot oplichting via video of met een AI-stem
Als u merkt dat u het doelwit bent van een oplichtingstruc met een AI-stem of een deepfakevideo kan dit zeer verontrustend zijn. Maar uw reactie kan helpen uw identiteit en uw financiën te beschermen en te voorkomen dat andere mensen het slachtoffer worden. Dit is wat u onmiddellijk moet doen als u te maken krijgt met een poging tot AI-gestuurde oplichting:
- Ga niet in gesprek: hang de telefoon op of beëindig het videogesprek onmiddellijk. Hoe langer u aan de lijn blijft, hoe meer mogelijkheden de oplichter heeft om u te manipuleren. Verstrek geen persoonlijke gegevens.
- Stuur geen geld: hoe overtuigend of hartverscheurend het verhaal ook is, voer geen betalingen of overboekingen uit.
- Stop en denk na: haal diep adem. De oplichting is bedoeld om u in paniek te brengen. Even een moment nemen om helder na te denken is uw beste verdediging.
- Verifieer zelf: neem rechtstreeks contact op met de betreffende persoon via een ander vertrouwd communicatiekanaal om zijn/haar welzijn en de echtheid van het verzoek te controleren.
Het incident melden
Het melden van deze pogingen is cruciaal, ook als u niet in de oplichtingstruc bent getrapt. Hiermee helpt u politie en justitie om deze criminele netwerken te identificeren, op te sporen en op te rollen.
- Neem contact op met de autoriteiten: meld de oplichting bij de politie en de daartoe aangewezen officiële instanties. In Nederland kunt u oplichting melden bij de Fraudehelpdesk.
- Informeer de Autoriteit Consument & Markt (ACM): de ACM volgt meldingen over misleidende praktijken en fraude (zoals beleggingsfraude) om patronen te identificeren, geeft publieke waarschuwingen uit via ACM ConsuWijzer, en neemt actie tegen frauduleuze bedrijven door boetes op te leggen of onderzoeken te starten. U kunt fraude melden op www.consuwijzer.nl.
- Breng het relevante platform op de hoogte: ais de oplichting afkomstig is van een socialmediaplatform, rapporteer dan het account dat verantwoordelijk is voor het schenden van het platformbeleid inzake nabootsing van identiteit en synthetische media.
Gevolgen als u in oplichting met een AI-stem of een deepfake trapt
Als u het slachtoffer bent van oplichting met een AI-stem of een deepfake, kan dit verwoestende gevolgen hebben voor uw dagelijkse leven, zowel op het financiële en persoonlijke vlak als op het juridische vlak. Hieronder vindt u enkele gevolgen:
- Onmiddellijke gevolgen: het meest directe gevolg is een financieel verlies, omdat oplichters uw bankrekening plunderen of u overhalen om een groot bedrag over te maken dat niet meer terug te boeken is.
- Identiteitsdiefstal en lagere kredietwaardigheid: als u gevoelige gegevens hebt gedeeld, kunnen fraudeurs onder uw naam nieuwe rekeningen openen, leningen afsluiten of andere fraude plegen. Hierdoor kunt u langdurige schade aan uw kredietwaardigheid oplopen en moet u veel tijd en moeite steken in het terugwinnen van uw identiteit.
- Emotioneel leed: de schok, schaamte en stress kunnen overweldigend zijn, en angst, verlies van vertrouwen en zelfs een depressie veroorzaken. Veel slachtoffers geven zichzelf de schuld, ook al zijn ze het doelwit van een zeer geraffineerde crimineel geworden.
- Juridische gevolgen en reputatieschade: bedrijven kunnen te maken krijgen met rechtszaken van klanten of regelgevende instanties, terwijl individuele personen mogelijk langdurige onderzoeken moeten doorstaan, vooral als oplichters hun identiteit voor kwaadaardige activiteiten gebruiken.
Veelgestelde vragen: oplichting met deepfakes en AI
Kan een deepfake worden gemaakt van slechts één foto?
Eenvoudige deepfakes kunnen van één enkele foto worden gemaakt, maar een groter aantal foto’s en video’s leveren een meer overtuigende deepfake op. AI kan bijvoorbeeld een animatie maken van een stilstaande foto, zodat het lijkt alsof de persoon spreekt of om zich heen kijkt. Eenvoudige deepfakes zijn vaak gemakkelijker te herkennen dan deepfakes die zijn getraind met een groot aantal videobeelden.
Is oplichting met deepfakes illegaal?
Ja. Het gebruik van deepfakes voor fraude, intimidatie of imitatie is illegaal.
In de EU is op 1 augustus 2024 de AI-verordening in werking getreden om ervoor te zorgen dat kunstmatige intelligentie veilig en betrouwbaar wordt ontwikkeld en toegepast.
In de VS heeft de Federal Communications Commission (FCC) een verbod ingesteld op het gebruik van AI-gegenereerde stemmen in robocalls. Daarnaast heeft de Federal Trade Commission (FTC) regels ingevoerd die specifiek verbieden om personen, bedrijven of overheidsinstanties na te bootsen om fraude te plegen.
Wat is de meest voorkomende vorm van oplichting met deepfakes?
Financiële fraude is momenteel de meest voorkomende en schadelijkste vorm van oplichting met deepfakes. Dit omvat CEO-fraude (ook wel oplichting via zakelijke e-mail genoemd) waarbij criminelen door AI gekloonde stemmen of video’s van leidinggevenden gebruiken om werknemers over te halen ongeautoriseerde overboekingen te doen. Oplichtingspraktijken waarbij de stem van een familielid wordt nagebootst die zogenaamd in nood zit en dringend geld nodig heeft, komen ook steeds vaker voor en zijn steeds effectiever.
Belangrijkste punten
De opkomst van oplichting met deepfakes en spoofing met door AI gekloond stemgeluid markeert een fundamentele verschuiving in onze digitale veiligheid, omdat oplichters nu onze stem en gelijkenis heel gemakkelijk digitaal kunnen vervalsen. U kunt deze kwaadaardige activiteiten echter bestrijden met een verdedigingsstrategie die nog steeds opmerkelijk menselijk is: betere digitale geletterdheid, grotere waakzaamheid, dieper kritisch denken, een gezonde dosis wantrouwen en strengere controles.
Als u begrijpt hoe het klonen van AI-stemmen werkt, de technische en psychologische rode vlaggen herkent en robuuste beveiligingsregels invoert in zowel uw persoonlijke als uw professionele leven, kunt u een geduchte verdediging opbouwen. De AI-hulpmiddelen en cyberbeveiligingstools van McAfee kunnen u hierbij ondersteunen.
In de toekomst zullen er ongetwijfeld nog geavanceerdere vormen van synthetische media worden ontwikkeld. Goed op de hoogte blijven en proactief handelen is daarom uw beste strategie. Deel deze informatie met familieleden, vrienden en collega’s. Hoe meer mensen zich bewust zijn van deze oplichtingstactieken, hoe minder effectief ze worden.