KI im Alltag: Nutzung von Mainstream-KI-Tools mit böswilliger Absicht

Künstliche Intelligenz (KI) – das sind nicht im lustige Kurzgedichte, skurrile Porträts oder urkomische Sketche. ChatGPT, Bard, DALL-E, Craiyon, Voice.ai und eine ganze Reihe anderer Mainstream-KI-Tools eignen sich hervorragend, um sich den Nachmittag zu vertreiben oder bei Hausaufgaben und im beruflichen Alltag zu helfen. Aber auch Cyberkriminelle nutzen diese KI-Tools und können damit bei ihren Phishing-, Vishing-, Malware- und Social-Engineering-Angriffen ein ganz neues Niveau erreichen.

Hier stellen wir einige Taktiken vor, bei denen künstliche Intelligenz für Betrügereien verwendet wurde, und zeigen Ihnen, wie Sie diese Taktiken erkennen können. 

1. Betrug mit KI-Stimme

Vishing steht für „Phishing per Telefon“ und ist keine neue Taktik, doch durch die KI-gestützte Nachahmung von Stimmen werden diese betrügerischen Anrufe glaubwürdiger denn je. In Arizona sorgte ein gefälschter Entführungsanruf bei einer Familie für mehrere Minuten Panik, als eine Mutter eine Lösegeldforderung für die Freilassung ihrer angeblich entführten Tochter erhielt. Am Telefon hörte die Mutter eine Stimme, die genau wie die ihrer Tochter klang, was sich jedoch als KI-generierter Fake herausstellte.

Die Tochter wurde gar nicht entführt, und es ging ihr gut. Die Familie verlor kein Geld, weil sie das Richtige tat: Sie kontaktierte die Strafverfolgungsbehörden und hielt den Betrüger am Telefon, während sie parallel ihre Tochter kontaktierten.1

Betrügereien mit Nachahmern haben im Jahr 2022 in den USA Verluste von 2,6 Milliarden Dollar verursacht. Die neue aufkommenden KI-gestützten Betrügereien könnten diese riesige Summe noch weiter in die Höhe treiben. Laut dem McAfee-Bericht Beware the Artificial Imposter“(Vorsicht vor KI-Nachahmern) gaben 25 % der Befragten an, dass sie selbst oder jemand aus ihrem Bekanntenkreis bereits Opfer von Betrug mit KI-Stimme geworden ist. Diese Umfrage ergab zudem, dass 77 % der Zielpersonen dadurch Geld verloren haben. 

Wie Sie den Unterschied hören

Ohne Zweifel macht es Angst, einen geliebten Menschen in Not zu hören. Versuchen Sie jedoch, so ruhig wie möglich zu bleiben, wenn Sie einen Anruf von einer Person erhalten, die angeblich in Schwierigkeiten ist. Konzentrieren Sie sich so gut wie möglich auf die Stimme Ihres geliebten Menschen. KI-Sprachtechnologie generiert bereits erstaunliche Ergebnisse, aber die Technologie hat noch einige Schwächen. Macht die Stimme zum Beispiel unnatürliche Pausen? Werden Worte ein wenig zu früh abgeschnitten? Passt der Tonfall bestimmter Wörter nicht ganz zur Sprechweise Ihres geliebten Menschen? Um diese kleinen Details zu erkennen, müssen Sie einen kühlen Kopf behalten.

Eine Vorsichtsmaßnahme, die Sie als Familie zum Schutz vor KI-gestütztem Vishing-Betrug ergreifen können, ist das Festlegen eines Familienkennworts. Dies kann eine Eigenkreation oder eine Phrase sein, die für Sie eine Bedeutung hat. Geben Sie dieses Kennwort an niemanden weiter, und veröffentlichen Sie es in keinem Fall in den sozialen Medien. Wenn Sie einen seltsamen Anruf erhalten und jemand behauptet, ein Familienmitglied bei sich zu haben oder zu sein, können Sie mit diesem Kennwort einen gefälschten Notfall von einem echten unterscheiden. 

2. Per Deepfake erstellte Lösegeldforderungen und gefälschte Werbung

Deepfakes, d. h. digital manipulierte authentische Bilder, Videos oder Audioclips, sind eine KI-Fähigkeit, die viele Menschen verunsichert, schließlich stellen sie den bislang gültigen Grundsatz „Sehen heißt Glauben“ in Frage. Wenn das, was Sie sehen, nicht zweifellos echt ist – wie können Sie dann wissen, was echt ist und was nicht?

Das FBI warnt die Öffentlichkeit vor einer neuen Taktik, bei der Cyberkriminelle kompromittierende Aufnahmen erstellen und dann unschuldige Menschen mit der drohenden Veröffentlichung erpressen, um sie auf diese Weise zu zwingen, ihnen Geld oder Geschenkkarten zu schicken.2

Deepfake-Technologie stand auch im Mittelpunkt eines Vorfalls mit gefälschter Werbung. Ein Betrüger hatte eine gefälschte Werbeanzeige erstellt, in der Martin Lewis, ein vertrauenswürdiger Finanzexperte, für ein Investitionsprojekt wirbt. Bei der in Facebook veröffentlichten Werbeanzeige versuchte der Betrüger, dem böswilligen Unterfangen Legitimität zu verleihen, indem er Lewis per Deepfake einbezog.3

Wie Sie auf Lösegeldforderungen und fragwürdige Online-Werbung reagieren

Keine Antwort ist die beste Antwort auf eine Lösegeldforderung. Sie haben es mit Kriminellen zu tun. Wer garantiert, dass die gefälschten Dokumente nicht veröffentlicht werden, selbst wenn Sie auf die Lösegeldforderung eingehen? Wenn Sie von Betrügern kontaktiert werden, schalten Sie die Strafverfolgungsbehörden ein, damit diese Ihnen bei der Lösung des Problems helfen können.

Nur weil eine seriöse Social-Media-Plattform eine Werbeanzeige schaltet, bedeutet das nicht, dass der Inserent ein seriöses Unternehmen ist. Bevor Sie etwas kaufen oder Ihr Geld in ein Unternehmen investieren, auf das Sie durch eine Anzeige gestoßen sind, sollten Sie eigene Nachforschungen über das Unternehmen anstellen. Es kostet nur fünf Minuten Ihrer Zeit, um die Bewertung bei Better Business Bureau und anderen Online-Bewertungen zu prüfen und festzustellen, ob das Unternehmen seriös ist.

Um festzustellen, ob es sich bei einem Video oder Bild um ein Deepfake handelt, achten Sie auf uneinheitliche Schatten und Beleuchtung, Gesichtsverzerrungen und die Hände der Personen. Dies sind Bereiche, in denen Sie am ehesten kleine Details entdecken, die nicht ganz passen. Ebenso wie bei KI-Stimmen ist auch die Deepfake-Technologie oft treffsicher, aber nicht perfekt. Alternativ können Sie auch den McAfee Deepfake Detector ausprobieren, der KI-generierte Audioinhalte innerhalb von Sekunden erkennt. 

3. KI-generierte Malware und Phishing-E-Mails

Tools zur Generierung von Inhalten verfügen über einige Sicherheitsvorkehrungen, die verhindern sollen, dass die damit erstellten Texte zu illegalen Zwecken verwendet werden können. Einige Cyberkriminelle haben jedoch Wege gefunden, diese Regeln zu umgehen, und nutzen ChatGPT und Bard für ihre Malware- und Phishing-Operationen. Wenn zum Beispiel ein Krimineller ChatGPT bitten würde, eine Malware zum Aufzeichnen von Sicherheitsschlüsseln zu schreiben, würde es sich weigern. Doch wenn er ChatGPT stattdessen bittet, Code zum Erfassen von Tastatureingaben zu schreiben, wird der Chatbot dieser Bitte vielleicht nachkommen. Ein Forscher hat gezeigt, dass sogar jemand mit geringen Programmierkenntnissen ChatGPT zum Coden verwenden kann. Dadurch wird die Erstellung von Malware einfacher und leichter verfügbar denn je.4 Ähnlich ist es bei Phishing, denn KI-Tools zur Texterstellung können sehr schnell überzeugende Phishing-E-Mails erstellen. Mit anderen Worten: In der Theorie können Phisher auf diese Weise ihre Aktivitäten beschleunigen und ihre Reichweite vergrößern. 

Wie Sie von KI geschriebene Malware und Phishing-Versuche vermeiden können

Der Ansatz für die Vermeidung von KI-generierter Malware und Phishing-Korrespondenz ist der gleiche wie bei von Menschen geschriebenen Varianten: Seien Sie vorsichtig und misstrauen Sie allem, was Ihnen verdächtig erscheint. Um sich vor Malware zu schützen, sollten Sie ausschließlich Websites verwenden, denen Sie vertrauen können. Ein Tool für sicheres Surfen wie McAfee Web-Schutz, das in McAfee+ enthalten ist, kann Sie vor zweifelhaften Websites warnen.

Um Phishing zu vermeiden, sollten Sie vorsichtig sein, wenn Sie E-Mails oder Nachrichten erhalten, die eine schnelle Antwort verlangen oder aus anderen Gründen ungewöhnlich sind. Herkömmliche Phishing-Nachrichten waren meist voller Rechtschreibfehler und schlechter Grammatik. Von einer KI geschriebene Köder sind jedoch oft gut geschrieben und enthalten selten Fehler, sodass Sie jede Nachricht in Ihrem Posteingang sorgfältig prüfen müssen. 

Nehmen Sie sich Zeit, und gehen Sie ruhig und mit Bedacht vor

Während die Debatte über die Regulierung von KI immer hitziger wird, sollten Sie KI verantwortungsbewusst einsetzen. Seien Sie transparent, wenn Sie die Technologie verwenden. Und wenn Sie den Verdacht haben, dass Sie auf eine böswillige Nutzung von KI stoßen, sollten Sie tief durchatmen und versuchen, die Situation mit klarem Verstand zu analysieren. KI kann durchaus überzeugende Inhalte erstellen, aber vertrauen Sie auf Ihren Instinkt, und gehen Sie wie oben beschrieben vor, damit Ihr Geld und Ihre persönlichen Daten nicht in die Hände von Cyberkriminellen gelangen.

1 CNN: ‘Mom, these bad men have me’: She believes scammers cloned her daughter’s voice in a fake kidnapping (‘Mama, die haben mich entführt’: Sie glaubt, dass Betrüger die Stimme ihrer Tochter bei einer vorgetäuschten Entführung geklont haben)

2 NBC News: FBI warns about deepfake porn scams (FBI warnt vor Deepfake-Porno-Betrug)

3 BBC: Martin Lewis felt ‘sick’ seeing deepfake scam ad on Facebook (Martin Lewis wird schlecht, als er die Deepfake-Werbung auf Facebook sieht)

4 Dark Reading: “Researcher Tricks ChatGPT Into Building Undetectable Steganoraphy Malware (Forscher bringt ChatGPT dazu, nicht nachweisbare Steganoraphy-Malware zu erstellen) 

Jetzt neu: McAfee+

Erhalten Sie Schutz vor Identitätsdiebstahl, und schützen Sie Ihr digitales Leben im Internet.

FacebookLinkedInTwitterEmailCopy Link

Bleiben Sie auf dem Laufenden

Folgen Sie uns, um alle Neuigkeiten von McAfee und zu aktuellen Sicherheitsbedrohungen für Privatanwender und Mobilgeräte zu erfahren.

FacebookTwitterInstagramLinkedINYouTubeRSS

More from Internet-Sicherheit

Back to top