Stellen Sie sich vor, Ihr Telefon klingelt. Es ist Ihr Chef, der Sie in hektischem Ton anweist, einen Betrag von mehreren Millionen an einen neuen Lieferanten zu überweisen, um ein wichtiges Geschäft abzuschließen. Die Bitte ist zwar ungewöhnlich, aber da es eindeutig seine Stimme ist, führen Sie die Überweisung durch. Stunden später stellen Sie fest, dass das Geschäft nicht echt, der Lieferant ein Betrüger und die Stimme am Telefon eine perfekte digitale Nachahmung war.

Dies ist keine Szene aus einem Science-Fiction-Thriller, sondern bittere Realität: Immer häufiger werden Menschen Opfer von Betrug mit raffinierten Deepfakes und KI-Stimmenklonen. Da die Technologie zur KI-Stimmenfälschung und zur Erstellung von Video-Deepfakes immer zugänglicher wird, nehmen Betrüger nicht mehr nur hochrangige Mitarbeiter in Großunternehmen ins Visier. Stattdessen geben sie sich immer öfter als Familienmitglieder aus, verbreiten politische Falschinformationen und begehen neue Formen des Identitätsdiebstahls.

Allein im Jahr 2024 stieg die Zahl der Deepfake-Betrugsfälle um schwindelerregende 3.000 %, ermöglicht durch den leichteren Zugang zu leistungsstarken KI-Tools und einer enormen Menge an persönlichen Daten im Internet. Heutzutage benötigen Betrüger keine Ressourcen auf Hollywood-Niveau mehr. Mit leicht zugänglicher Software können sie problemlos eine Stimme aus einem kurzen Social-Media-Video klonen oder ein realistisch aussehendes, gefälschtes Video aus öffentlich verfügbaren Fotos erstellen.

Dieser Leitfaden soll Ihnen das nötige Wissen vermitteln, um sich in diesem neuen digitalen Minenfeld zurechtzufinden. Sie erfahren, wie die Technologie funktioniert, lernen reale Betrugsfälle und deren verheerende Folgen kennen und erhalten praktische Empfehlungen, um diese Form des Betrugs zu erkennen und sich, Ihre Familie bzw. Ihr Unternehmen davor zu schützen.

Was ist Betrug mit KI-Stimmen und Deepfakes?

Betrug mit KI-Stimmen nutzt hochentwickelte Technologie, um die Stimme einer Person zu imitieren. In der Regel werden die Stimmen mithilfe von öffentlich zugänglichen Audioinhalten oder Datenkompromittierungen generiert. Die Betrüger manipulieren die Stimme so, dass die Opfer glauben, die Person sei verzweifelt oder befinde sich in einer Notlage, und Geld überweisen oder sensible Daten preisgeben. Häufig ahmen sie Familienmitglieder nach oder geben sich als Kollegen aus, um die emotionale Bindung auszunutzen und ein Gefühl der Dringlichkeit zu erzeugen.

Deepfakes hingegen sind extrem realistisch wirkende, künstliche Videos, die von einer KI bzw. einem Machine-Learning-Modell generiert wurden. Bei diesen Videos werden häufig Gesichter ausgetauscht, Mimik und Gestik verändert oder völlig neue Szenarien erzeugt, ohne dass dies sofort erkennbar wäre. Dadurch sieht es aus so aus, als hätte jemand etwas gesagt oder getan, was jedoch nicht der Wahrheit entspricht. So verschwimmt die Grenze zwischen Realität und Fiktion.

Die Technologie hinter KI-Stimmenklonen und Deepfake-Betrug

Die Kerntechnologie hinter KI-Stimmenklonen ist die Stimmsynthese, hinter der oft sogenannte GANs (generative adverse networks, engl. für „generative gegnerische Netzwerke“) stehen. Im Folgenden finden Sie eine vereinfachte Darstellung der Funktionsweise:

  • Daten sammeln: Betrüger benötigen zunächst eine Aufnahme der Stimme der Zielperson. An diese gelangen sie oft erstaunlich einfach. Einige Sekunden aus einer Sprachnachricht, einem Social-Media-Video, einem Podcast-Interview oder sogar aus einem Kundendienstgespräch reichen meist schon aus.
  • Modell trainieren: Das KI-Modell analysiert die Aufnahme und zerlegt sie in einzigartige Merkmale: Tonhöhe, Tonfall, Akzent, Tempo und sogar Atemmuster. Anschließend lernt das Modell, diese Stimm-Merkmale zu imitieren.
  • Generieren und verfeinern: Die Betrüger schreiben ein Skript, das die KI „sprechen“ soll. Während der generative Teil des GAN die Audioaufnahme erzeugt, prüft der unterscheidende Teil sie auf Authentizität, indem er sie mit der Originalstimme vergleicht. Innerhalb weniger Sekunden wird dieser Prozess tausende Male wiederholt, sodass die erzeugte Stimme mit jedem Zyklus realistischer wird.

Heraus kommt eine äußerst glaubwürdig klingende Audiodatei, die für einen Vishing- oder Voice-Phishing-Anruf verwendet oder in ein Video eingebettet wird.

Die Technologie hinter Video-Deepfakes ist dem des Stimmenklonen sehr ähnlich, nur dass die Betrüger Bilder und Videos der Zielperson aus öffentlichen Quellen wie sozialen Medien, Nachrichtenberichten oder Unternehmenswebsites sammeln. Je mehr visuelle Daten sie haben – verschiedene Blickwinkel, Gesichtsausdrücke, Beleuchtung, Gesichtszüge, Eigenheiten und Bewegungsmuster – desto realistischer wird das endgültige Deepfake.

Nachdem sie trainiert wurde, kann die KI das künstlich erzeugte Gesicht über das Originalvideo einer anderen Person legen und das Gesicht der Zielperson auf die Gestik und Mimik der Person im Video abstimmen. Der Ton, der häufig eine geklonte Stimme ist, wird dann mit dem Video synchronisiert und zur Täuschung genutzt, um daraus entweder Profit zu schlagen, den Ruf einer Person oder Organisation zu schädigen, oder politisch zu manipulieren.

Die Folgen von Deepfake-Betrug

CEO-Betrug

Beim sogenannten CEO-Betrug (auch Business Email Compromise, BEC) verschicken Betrüger E-Mails, in denen sie sich als Führungskräfte ausgeben. Ziel ist es, Angestellte dazu zu bringen, nicht autorisierte Überweisungen durchzuführen. Im Jahr 2019 wurde der CEO eines britischen Energieunternehmens dazu gebracht, 220.000 Euro an einen ungarischen Anbieter zu überweisen. Auslöser war ein Anruf, bei dem die Stimme des Geschäftsführers des deutschen Hauptunternehmens perfekt imitiert wurde. Der CEO gab an, er habe den „leichten deutschen Akzent und die Melodie“ seines Chefs erkannt, weshalb die Anfrage für ihn völlig glaubwürdig erschien.

Enkeltrick

Beim klassischen Enkeltrick ruft ein Betrüger eine ältere Person an und gibt sich als deren Enkel aus. Er behauptet, in Schwierigkeiten zu stecken und dringend Geld zu benötigen. Dazu stehlen die Betrüger eine kurze Audioaufnahme der Stimme des Enkels aus einem TikTok- oder Instagram-Video und generieren damit einen glaubwürdigen Hilferuf. Ein Beispiel dafür ist eine Mutter aus Arizona, die einen Anruf von einer unbekannten Nummer erhielt. Am Telefon hörte sie die Stimme ihrer 15-jährigen Tochter, die weinte und behauptete, sie sei entführt worden. Noch während des Anrufs rief ihr Mann die Tochter an, die sich auf einem Skitraining befand und somit in Sicherheit war. Die Stimme am Telefon war also eine komplette Fälschung.

→ Verwandt: Wie eine enge Verwandte 100.000 USD durch Seniorenbetrug verlor

Politische Desinformation

Die KI-Bedrohung erstreckt sich auch auf demokratische Prozesse und führt zu massenhafter Verwirrung. Anfang 2024 erhielten die Einwohner von New Hampshire einen automatischen Anruf mit einer gefälschten, KI-generierten Audioaufnahme von Präsident Joe Biden, in der er sie dazu aufforderte, nicht an den Vorwahlen des Staates teilzunehmen. Kriminelle Akteure erstellen mit der Deepfake-Technologie häufig kompromittierende Videos oder Tonaufnahmen, um damit Menschen zu erpressen oder ihren Ruf zu schädigen.

Romance Scams (Liebesbetrug)

Heutzutage nutzen Betrüger Deepfake-Bilder, -Videos und geklonte Stimmen, um auf Dating-Plattformen überzeugende Fälschungen von Personen zu erstellen. Die Opfer – oft einsame Menschen, die Gesellschaft suchen – werden emotional und finanziell ausgenutzt, da sie bei Deepfake-Videoanrufen meist nicht so schnell Betrug wittern. Viele Frauen haben ihr Erspartes verloren, weil sie geglaubt haben, eine romantische Beziehung mit einer vertrauenswürdigen Person oder einer bekannten Persönlichkeit eingegangen zu sein. Erst nachdem das Geld weg war, merkten sie, dass sie betrogen worden waren.

→ Verwandt: KI-Chatbots werden zu Liebesbetrügern – und jeder Dritte gibt zu, wahrscheinlich darauf hereinzufallen

Betrug mit prominenten Werbeträgern

Viele Betrüger nutzen die Gesichter und Stimmen von Prominenten für Werbevideos, um Anlagebetrug zu begehen oder Wundermittel zu verkaufen. Fans und Social-Media-Follower sind dadurch eher bereit, Geld auszugeben, da sie davon ausgehen, dass es sich tatsächlich um ihr Idol handelt. Ein relativ aktuelles Beispiel ist ein Video-Deepfake, in dem vermeintlich Taylor Swift Kochgeschirr verschenkt, um ihre Fans dazu zu bringen, das Produkt zu kaufen.

Umgehung biometrischer Sicherheitsmaßnahmen

Mit Audio- und Video-Deepfakes lassen sich die biometrischen Merkmale einer Person imitieren, um nicht autorisierten Zugang zu Bankkonten, Mobiltelefonen und vertraulichen Unternehmenssystemen zu erlangen. Inhaber von Finanzkonten und Personen, die Stimm- oder Gesichtserkennung für sensible Transaktionen verwenden, sind dafür besonders anfällig.

Nachahmung von Verwaltungs- und Strafverfolgungsbehörden

Kriminelle verwenden Deepfakes, um sich in Telefonanrufen oder Videochats als Beamte (z. B. als Polizisten oder Mitarbeiter des Finanzamts oder der Ausländerbehörde) auszugeben und Geld oder persönliche Daten zu verlangen. Das höchste Risiko besteht für Immigranten, ältere Menschen und Personen, die mit den verfahrensrechtlichen Normen nicht vertraut sind.

So erkennen Sie Betrug

Ganz gleich, ob es ein Anrufer ist, der sich genauso anhört wie eines Ihrer Familienmitglieder, oder ein Video, in dem eine Person des öffentlichen Lebens etwas sagt, das sie nie gesagt hat: Betrüger versuchen immer, Ihr Vertrauen auszunutzen. Doch mit dem richtigen Wissen können Sie die unscheinbaren Zeichen erkennen, die andeuten, dass etwas nicht stimmt. Im Folgenden finden Sie eine Liste mit Warnsignalen, an denen Sie Betrugsversuche mit KI-Stimmen oder Video-Deepfakes erkennen können, bevor es zu spät ist.

KI-Stimmenklone

KI-Modelle haben Mühe, die Nuancen menschlicher Emotionen und Sprache perfekt nachzubilden. Um die Anzeichen eines Betrugs mit einer KI-Stimme während eines verdächtigen Anrufs zu erkennen, sollten Sie genau auf die folgenden kleinen Unstimmigkeiten achten, selbst wenn die Stimme insgesamt vertraut klingt.

  • Monotone oder flache Sprechweise: Der Stimme fehlen möglicherweise die normalen emotionalen Höhen und Tiefen. Mitunter klingt sie seltsam distanziert oder roboterhaft, auch wenn sie sich insgesamt korrekt anhört.
  • Auffällige digitale Artefakte: Gelegentlich können Sie ein schwaches elektronisches Brummen oder Echo bzw. Ton-Artefakte hören, die bei menschlichen Sprechern nicht vorkommen, insbesondere bei längeren Anrufen.
  • Ungewöhnliches Sprechtempo oder Kadenz: Achten Sie auf merkwürdige Pausen mitten im Satz oder auf eine Sprechmelodie, die etwas seltsam klingt. In einigen Fällen werden Wörter auf unnatürliche Weise zusammengezogen oder es entstehen ungewöhnliche Pausen, die in einem normalen Gespräch nicht vorkommen.
  • Fehlende menschliche Geräusche: Sie hören möglicherweise nicht die leisen, unbewussten Geräusche, die Menschen beim Sprechen machen, z. B. Schlucken, Seufzen oder andere Mundgeräusche. Umgekehrt könnten auch digital eingefügte Atemgeräusche zu hören sein, die ungewöhnlich regelmäßig sind. Lachen und Erstaunen klingen in KI-generierten Audioinhalten oft besonders unnatürlich.
  • Schlechte Audioqualität oder seltsame Hintergrundgeräusche: Dies muss kein eindeutiges Zeichen sein, doch oft verwenden Betrüger Hintergrundgeräusche wie Rauschen oder eine Callcenter-Atmosphäre, um die Mängel des Stimmenklons zu überdecken. Wenn die Hintergrundgeräusche generisch sind oder sich seltsam wiederholen, ist das ein mögliches Zeichen für Manipulation.
  • Sich wiederholende Formulierungen: Die KI arbeitet möglicherweise mit einem sehr kurzen Skript. Wenn Sie eine Frage stellen und eine leicht umformulierte Version einer früheren Aussage erhalten, sollten Sie misstrauisch werden.

→ Verwandt: KI-Hochstapler – Cyberkriminelle nutzen KI-Stimmenklone für eine neue Form von Betrug

Video-Deepfakes

Bei einem Videoanruf oder einem vorab aufgezeichneten Video können visuelle Hinweise die Täuschung entlarven. Achten Sie auf Bildfehler, die verraten, dass die KI nicht in der Lage ist, eine nahtlose Realität zu erschaffen.

  • Instabiles Bild: Achten Sie auf plötzlich auftretendes, kurzes Flackern, bei dem das Gesicht oder der Kopf kurz zu schwanken scheint oder sich unnatürlich bewegt, insbesondere wenn die Person schnelle Bewegungen macht.
  • Unnatürliche Augenbewegungen: Deepfakes haben oft Probleme damit, realistisch zu blinzeln. Häufig blinzelt die Person nicht oft genug, oder das Blinzeln wirkt unnatürlich. Wenn der Blick nicht Ihren Bewegungen oder der Kamera folgt, könnte dies ein Zeichen für ein Deepfake sein.
  • Nicht lippensynchron: Die Worte, die Sie hören, stimmen möglicherweise nicht ganz genau mit den Lippenbewegungen der Person überein. Am deutlichsten fällt dies oft am Anfang oder Ende von Sätzen oder bei schnellem Sprechen auf.
  • Seltsame Mimik: Die Gesichtsausdrücke passt möglicherweise nicht zu den Emotionen, die von der Stimme vermittelt werden. Lächeln und Lachen sind häufig Dinge, an denen Deepfakes meist deutlich zu erkennen sind.
  • Unscharfe oder verzerrte Kanten: Schauen Sie sich die Stellen, wo das Gesicht auf den Hals, die Haare oder den Hintergrund trifft, genau an. Möglicherweise sehen Sie hier seltsame Unschärfen, Verzerrungen oder Farbabweichungen. Hüte und Brillen sind häufige Problemstellen in Video-Deepfakes.
  • Uneinheitliche Ausleuchtung, Schatten und Texturen: Das Licht im Gesicht der Person stimmt möglicherweise nicht mit dem Licht im Rest des Bildes überein. Dies können beispielsweise Schatten sein, die in die falsche Richtung gehen. Auch die Haut kann zu glatt oder wachsartig aussehen oder eine ungewöhnliche Textur aufweisen.

→ Verwandt: McAfee und Intel kooperieren im Kampf gegen Deepfakes mit KI-gestützter Deepfake-Erkennung

Die psychologische Strategie bei Betrug: Zeitdruck, Verschwiegenheit und Emotion

Die Technologie einmal außer Acht gelassen, basieren Deepfake-Betrügereien auf denselben Social-Engineering-Taktiken wie herkömmliche Betrugsmaschen. Das Ziel ist immer, das kritische Denken der Opfer auszuschalten, indem diese unter Druck gesetzt werden.

  • Extremer Zeitdruck: Der Betrüger behauptet, dass Sie sofort handeln müssen, damit Sie keine Zeit haben, um nachzudenken, andere um Rat zu fragen oder die Anfrage zu bestätigen.
  • Emotionale Manipulation: Die Kommunikation ist so gestaltet, dass sie Angst, Sorge oder Aufregung auslöst, um Ihr Urteilsvermögen zu beeinträchtigen und Sie dazu zu bringen, die üblichen Vorsichtsmaßnahmen zu ignorieren.
  • Aufforderung zur Verschwiegenheit: Häufig sagen die Betrüger, dass Sie nicht mit anderen über die Anfrage sprechen sollen. Damit wollen sie Vertraulichkeit oder Sorge um das Wohlergehen anderer vortäuschen.
  • Ungewöhnliche Zahlungsmethoden: Betrüger verlangen fast immer eine Zahlung über unkonventionelle Methoden (z. B. Überweisungen, Kryptowährungen oder Gutscheinkarten), da diese Methoden nicht zurückverfolgt oder rückgängig gemacht werden können.
  • Emotionale Trigger: Die Anfragen sind so gestaltet, dass sie eine starke emotionale Reaktion auslösen, z. B. Angst durch eine vorgetäuschte Entführung, Gier bei einem lukrativen Geschäft oder Mitgefühl für einen nahestehenden Menschen in einer Notlage.

Schützen Sie sich und Ihr Unternehmen vor KI-Betrug

Sensibilisierung und proaktive Schutzmaßnahmen spielen eine entscheidende Rolle bei Ihrer Sicherheit. Mit einfachen, aber wirksamen Maßnahmen im Privat- und Berufsleben können Sie sich effektiv vor diesen Angriffen schützen. Keine Technologie bietet hundertprozentigen Schutz, doch durch die Kombination mehrerer Schutzebenen können Sie Angreifer effektiv abschrecken.

Für Privatpersonen: Stärken Sie Ihre persönliche Sicherheit

  1. Vereinbaren Sie ein Codewort: Vereinbaren Sie in Ihrem Familienkreis ein Geheimwort oder eine geheime Frage und fragen Sie danach, falls Sie einen verzweifelten Anruf erhalten, in dem Sie um Geld gebeten werden. Ein Betrüger, der einen KI-Stimmenklon verwendet, wird dies nicht beantworten können.
  2. Verifizieren Sie den Sachverhalt: Legen Sie den Hörer auf, wenn Sie eine dringende Bitte um Geld oder sensible Daten erhalten. Nehmen Sie auf einem anderen Weg Kontakt mit der Person auf, beispielsweise über eine bekannte Telefonnummer, per SMS oder über eine andere Messaging-App, um die Echtheit der Anfrage zu bestätigen.
  3. Achten Sie darauf, was Sie im Internet posten: Gehen Sie bewusst mit der Menge an Audio- und Videoinhalten um, die Sie öffentlich in sozialen Medien posten. Je mehr Aufnahmen ein Betrüger von Ihrer Stimme hat, desto besser wird der Klon sein. Schalten Sie deshalb Ihre Konten auf privat.
  4. Hinterfragen Sie unerwartete Kontaktaufnahmen: Wenn Sie einen Anruf oder Videochat von einer unbekannten Nummer erhalten und die Person behauptet, Sie zu kennen, sollten Sie sofort misstrauisch werden. Stellen Sie eine persönliche Frage, die nur die echte Person beantworten kann.

Für Unternehmen: Implementieren Sie mehrschichtigen Schutz

  1. Verpflichtende Mitarbeiterschulungen: Die größte Schwachstelle in jedem Unternehmen sind ungeschulte Mitarbeiter. Führen Sie regelmäßige Schulungen durch, um Ihr Team für Deepfake-Betrug, Vishing und Social-Engineering-Taktiken zu sensibilisieren. Veranschaulichen Sie die Bedrohung durch Beispiele aus der Praxis.
  2. Schreiben Sie einen strengen Verifizierungsprozess vor: Erstellen Sie einen mehrstufigen Verifizierungsprozess für jede Finanztransaktion oder Datenübertragung, insbesondere wenn sie ungewöhnlich oder dringend ist. Dazu gehört die obligatorische Verifizierung per Rückruf über eine vorab festgelegte Nummer oder eine persönliche Überprüfung bei großen Summen. Verlassen Sie sich niemals auf einen einzigen Kontakt über Telefon oder E-Mail.
  3. Gehen Sie sparsam mit öffentlichen Informationen um: Beschränken Sie nach Möglichkeit die Menge der öffentlich zugänglichen Informationen über die wichtigsten Führungskräfte (z. B. Videos und Audioaufnahmen auf der Unternehmenswebsite oder in öffentlichen Foren).
  4. Nutzen Sie Technologie zur Bedrohungsabwehr: Verwenden Sie hochentwickelte Sicherheitslösungen, die Benutzer mittels biometrischer Verfahren wie dem Voiceprinting (engl. für „Stimmabdruck“) authentifizieren.

Das sollten Sie nach einem Betrugsversuch mit KI-Stimme oder Video-Deepfake tun

Sicherlich ist es unangenehm, festzustellen, dass Sie Ziel eines Betrugs mit KI-Stimmen oder Deepfakes geworden sind. Mit der richtigen Reaktion können Sie jedoch Ihre Identität und Ihre Finanzen schützen. Folgendes sollten Sie sofort nach einem KI-Betrugsversuch tun:

  • Reagieren Sie nicht: Legen Sie sofort den Hörer auf, oder beenden Sie den Videoanruf. Je länger Sie in der Leitung bleiben, desto mehr Möglichkeiten hat der Betrüger, Sie zu manipulieren. Geben Sie keine persönlichen Daten weiter.
  • Senden Sie kein Geld: Ganz gleich, wie glaubwürdig oder herzzerreißend die vorgetragene Geschichte ist: Tätigen Sie keine Zahlungen, und führen Sie keine Überweisungen durch.
  • Nehmen Sie sich einen Moment Zeit: Atmen Sie tief durch. Die Betrüger wollen Sie in Panik versetzen. Wenn Sie sich einen Moment Zeit nehmen und die Situation reflektieren, ist das der beste Schutz.
  • Verifizieren Sie auf anderen Wegen: Kontaktieren Sie die Person über einen anderen, bekannten Kommunikationsweg, um zu bestätigen, dass es ihr gut geht und die Anfrage tatsächlich von ihr stammt.

Melden Sie den Vorfall

Es ist wichtig, Betrugsversuche zu melden, selbst wenn Sie nicht auf den Betrug hereingefallen sind. Dies hilft den Strafverfolgungsbehörden, kriminelle Netzwerke zu erkennen, nachzuverfolgen und zu zerschlagen.

  • Kontaktieren Sie die Strafverfolgungsbehörden: Melden Sie den Betrug bei Ihrer örtlichen Polizeibehörde. In den USA sollten Sie eine Meldung beim Internet Crime Complaint Center des FBI machen.
  • Informieren Sie die Federal Trade Commission (FTC): Die FTC sammelt Informationen über Betrugsmaschen, um öffentliche Warnungen herauszugeben und gegen betrügerische Unternehmen vorzugehen. Betrug können Sie unter ReportFraud.ftc.gov melden.
  • Benachrichtigen Sie die jeweiligen Plattformen: Wenn der Betrug von einer Social-Media-Plattform ausging, melden Sie das Konto, das für die Verletzung der Plattformrichtlinien verantwortlich ist.

Die Folgen für Opfer von Betrug mit KI-Stimmen oder Video-Deepfakes

Wenn Sie Opfer von Betrug mit KI-Stimmenklonen und Deepfakes werden, kann das verheerende Folgen für alle Bereiche Ihres Lebens haben – finanziell, persönlich und rechtlich. Dies sind einige Beispiele dafür:

  • Unmittelbare Folgen: Die unmittelbarste Folge ist der finanzielle Verlust, denn die Betrüger leeren Ihre Bankkonten oder bringen Sie dazu, hohe Summen zu überweisen, die unwiederbringlich verloren sind.
  • Identitätsdiebstahl und Kreditschäden: Wenn Sie vertrauliche Informationen weitergeben, können Betrüger in Ihrem Namen neue Konten eröffnen, Kredite aufnehmen oder weitere Betrügereien in Ihrem Namen begehen. Dies kann zu langfristigen Schäden an Ihrer Kreditwürdigkeit führen. Zudem ist es sehr aufwändig, die Identität wiederherzustellen.
  • Emotionale Belastung: Der Schock, die Scham und der Stress können so überwältigend sein, dass sie Ängste, Vertrauensverlust und sogar Depressionen auslösen. Viele Opfer geben sich selbst die Schuld, obwohl sie auf äußerst raffinierte Kriminelle hereingefallen sind.
  • Juristische Folgen und Rufschäden: Unternehmen müssen mit Klagen von Kunden oder Aufsichtsbehörden rechnen, während Privatpersonen langwierige Ermittlungen über sich ergehen lassen müssen, insbesondere, wenn Betrüger ihre Identität für kriminelle Aktivitäten nutzen.

FAQ: Deepfake und KI-Betrug

Ist es möglich, ein Deepfake nur anhand eines Fotos zu erstellen?

Eine größere Menge an Daten – also viele Fotos und Videos – führt zwar zu einem glaubwürdigeren Deepfake. Grundsätzlich können jedoch bereits einfache Deepfakes mit nur einem einzigen Foto erstellt werden. Mithilfe von KI kann beispielsweise ein Standbild so animiert werden, dass es aussieht, als würde die Person sprechen oder sich umschauen. Diese Deepfakes sind jedoch oft leichter zu erkennen als solche, die mit umfangreichem Videomaterial trainiert wurden.

Ist Deepfake-Betrug illegal?

Ja. Die Nutzung von Deepfakes zu Betrugs-, Belästigungs- oder Nachahmungszwecken ist rechtswidrig. Im Jahr 2024 haben die US-Bundesbehörden wichtige Schritte zur Bekämpfung dieser Bedrohung unternommen. Die Federal Communications Commission (FCC) hat KI-generierte Stimmen in automatischen Anrufen verboten, während die Federal Trade Commission (FTC) Regeln eingeführt hat, die es ausdrücklich verbieten, sich als Privatperson, Unternehmen oder Regierungsbehörde auszugeben, um Betrug zu begehen.

Was ist die häufigste Form von Deepfake-Betrug?

Finanzbetrug ist die derzeit am weitesten verbreitete und schädlichste Form von Deepfake-Betrug. Dazu gehört der CEO-Betrug bzw. Business Email Compromise, bei denen Kriminelle KI-generierte Stimmenklone oder Videos von Führungskräften erstellen, mit denen sie Angestellte zu nicht autorisierten Überweisungen verleiten. Betrugsversuche, bei denen Familienmitglieder in einer Notlage nachgeahmt werden, um an Geld zu kommen, werden immer häufiger und erfolgreicher.

Wichtige Erkenntnisse

Der Anstieg von Deepfake-Betrug und KI-Stimmenklonen bedeutet einen grundlegenden Wandel für die digitale Sicherheit, denn Betrüger können unsere Stimmen und unser Aussehen nun mit Leichtigkeit digital fälschen. Sie selbst können sich vor diesen böswilligen Aktivitäten jedoch mit einer grundlegenden Verteidigungsstrategie schützen, die ganz auf dem gesunden Menschenverstand fußt: eine bessere digitale Kompetenz, größere Wachsamkeit, kritisches Hinterfragen, eine gesunde Dosis Misstrauen und konsequentes Verifizieren.

Wenn Sie verstehen, wie das Klonen von KI-Stimmen funktioniert, die technischen und psychologischen Warnsignale erkennen und umfassende Sicherheitsmaßnahmen in Ihrem privaten und beruflichen Umfeld umsetzen, können Sie sich vor diesen Bedrohungen effektiv schützen. Die KI-Ressourcen und Cybersicherheits-Tools von McAfee können Sie bei diesen Bemühungen unterstützen.

In Zukunft wird es zweifellos noch raffiniertere Formen von künstlich generierten Medien geben. Die beste Strategie ist deshalb, sich umfassend zu informieren und proaktiv zu handeln. Geben Sie diese Informationen an Ihre Familie, Freunde und Kollegen weiter. Je mehr Menschen für Betrugstaktiken sensibilisiert sind, desto weniger fallen darauf herein.