- Anzeige -

KI-Betrug

Achtung, Betrugsmasche: KI faked jetzt die Stimme deiner Mutter

Stand 13.07.23 - 13:48 Uhr

Täuschend echt! KI wird in vielen verschiedenen Bereichen angewendet. Doch nun wird die KI für kriminelle Zwecke missbraucht. Wie funktioniert die Masche?

Achtung, Betrugsmasche: KI faked jetzt die Stimme deiner Mutter
©shutterstock

Digitalisierter Betrug: KI klont Stimmen

Ob Enkel-Trick, Schockanrufe oder Erpressung – immer mehr Kriminelle nutzen neue Methoden, um Smartphone Nutzer zu täuschen und ihnen Geld abzukassieren. Bei den Anrufen handelt es sich um ein zielgruppengerechtes Ködern durch authentische Stimmen. Hier erfährst du mehr zu den verschiedenen Szenarien und worauf du achten solltest.

- Anzeige -

KI-Phishing-Anrufmasche

Auf die Phishing SMS fallen nicht mehr viele Menschen rein. Bei einem Anruf, der echt klingt, werden es vermutlich mehr sein. Spätestens nach der neuen Pumuckl-Serie wird gezeigt, wie leicht es ist, eine generierte Stimme echt klingen zu lassen.

Wie sich nun aber herausstellt, nutzen Kriminelle die Technologie in der Praxis, um ihre Erpressungsmethoden zu erweitern. Dabei klonen sie Stimmen, um angebliche Verwandte darzustellen.

Doch wie funktioniert das Klonen?

Die KI nutzt dafür kurze O-Töne aus einer Sprachnachricht, YouTube oder den sozialen Medien. Alle Stimmen, die im Internet landen, können geklont werden.

Bestimmte Programme sammeln das Tonmaterial und erstellen eine geklonte Version mit einem eigenen Text. Erschreckend ist, dass nur drei Sekunden Material reicht, um eine generierte Nachricht zu erstellen.

Das KI-Programm schafft es, die Tonlage, Emotionen und Aussprache der Stimme sehr genau zu imitieren.

Hallo Mama, ich bin’s – KI kann auch deine Stimme nachstellen!

Beim Enkel-Trick sind insbesondere ältere Menschen betroffen. Doch auch jüngere Menschen können auf die authentischen Anrufe hereinfallen. Vorwiegend, wenn die Stimme wie die von der Mama, dem Papa, der Tochter oder dem Sohn klingt.

Ein anderes Beispiel ist, wenn es ein Problem mit dem Online-Banking gibt und eine Überweisung dringend durchgeführt werden muss.

Eine KI-sprachgenerierte Stimme ruft auf dem Smartphone an und gibt vor, eine verwandte Person zu sein, dabei ist die Stimme nicht von der echten Person zu unterscheiden.

In solchen Situationen werden die Personen am Telefon unter Druck gesetzt und um Geld gebeten, um der anderen Person aus einer vermeintlichen Notlage zu helfen.

Bisher sind ein paar Vorfälle aus den USA bekannt, aber auch bei uns in Deutschland warnen Cyber-Experten und das Bundeskriminalamt vor der Betrugsmasche und meinen, dass in Zukunft die Zahl der gefakten Anrufe mittels KI-Stimme zunehmen werden.

Wie kannst du dich schützen?

  • Anzahlungen von über 30 Prozent der Kosten unbedingt vermeiden.
  • Ausgiebige Recherche (beispielsweise über Google Street View, um zu sehen, ob sich der vermeintliche Ort tatsächlich in dieser Straße befindet).
  • Bei Verdacht während des Telefonats eine dumme Frage stellen und auf die Reaktion der anderen Person warten (meist handelt es sich bei den Anrufen um fixe Gesprächsabläufe, Gegenfragen, können noch nicht beantwortet werden).
  • Nicht unter Druck setzen lassen, sondern einen Rückruf über das Festnetztelefon durchführen oder im besten Falle ein persönliches Gespräch suchen.

Mehr Beiträge und Themen

- Anzeige -
- Anzeige -