Betrüger nutzen KI, um bekannte Masche noch gefährlicher zu machen – Soll Großeltern täuschen

Betrüger nutzen KI, um bekannte Masche noch gefährlicher zu machen – Soll Großeltern täuschen

Eine alte Betrugsmasche ist jetzt doch gefährlicher, denn eine künstliche Intelligenz bietet Schwindlern neue Möglichkeiten, ihre Opfer zu täuschen.

Um welche Betrugsmasche geht es? Der Enkeltrick ist eine altbekannte Masche, von der die meisten schon mal gehört haben – ein Betrüger ruft bei älteren Menschen an und gibt sich am Telefon als ein Enkel der Betroffenen aus. Es wird seitens des Betrügers eine Gefahrensituation oder eine Notlage ausgedacht, etwa dass der Enkel im Gefängnis sei, und er oder sie Geld von den Großeltern brauche.

Doch der Enkeltrick wird noch gefährlicher, denn Betrüger nutzen jetzt künstliche Intelligenz, um die Stimme eines Enkels zu imitieren und wie dieser zu klingen.

Das macht die Masche so gefährlich: Durch den Einsatz von künstlicher Intelligenz ist es Betrügern möglich, Tonaufnahmen einer Stimme zu analysieren und zu imitieren. Die KI erkennt die Feinheiten in den Sprechgewohnheiten einer Person und ahmt diese nach.

Der Betrüger gibt dann einen Text ein, den die KI mit der Stimme wiedergibt, die zuvor analysiert wurde. Zielpersonen der Betrugsmasche können so nicht mehr anhand der Stimme erkennen, dass es sich bei den Sprechenden gar nicht um ihre Verwandten handelt.

Betrüger imitieren mittels KI Enkel und Kinder

Beispiele für den Betrug mittels KI: Die Washington Post berichtet von einem Vorfall des Ehepaares Ruth (73) und Greg Card (75). Die kanadischen Senioren sagen, ein Mann am Telefon, der genau wie ihr Enkel Brandon klang, habe behauptet, er sitze im Gefängnis und brauche Geld für die Kaution.

Ähnliches ist laut Washington Post einem Mann namens Benjamin Perkin widerfahren, dessen Eltern um über 15.000 US-Dollar betrogen wurden.

Seine Eltern sollen demnach einen Anruf von einem angeblichen Anwalt erhalten haben, der sagte, ihr Sohn sei im Gefängnis und brauche Geld für Anwaltskosten. Anschließend habe der Anwalt das Telefon an besagten Sohn, Benjamin Perkin, weitergereicht und der habe ihnen bestätigt, das Geld zu benötigen.

Die Eltern von Benjamin Perkin seien überzeugt gewesen, dass sie mit ihrem Sohn gesprochen haben, weil die Stimme wie seine klang. Doch dieser war weder am Telefon noch in einem Gefängnis.

Woher der oder die Täter die Aufnahme von Perkins Stimme hatten, sei laut Washington Post unklar, doch er spreche wohl in Videos auf YouTube über sein Hobby, das Snowboarden. Auch andere soziale Netzwerke wie TikTok, Instagram oder die Streaming-Plattform Twitch bieten die Möglichkeit, dass Betrüger an Aufnahmen eurer Stimme kommen.

Wie authentisch eine solche KI-basierte Imitation einer Stimme ist, stellte auch schon der Twitch-Streamer Asmongold fest. Der Streamer schaute sich während einer Live-Übertragung einen Clip an, in dem eine KI seine Stimme imitierte und war davon überrascht, wie sehr die Aufnahme nach ihm klang.

KI kopiert Twitch-Streamer Asmongold so perfekt, dass das Original erschrickt: „Oh mein Gott, das ist so gut“

Deine Meinung? Diskutiere mit uns!
1
Gefällt mir!
Kommentar-Regeln von MeinMMO
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Abonnieren
Benachrichtige mich bei
0 Kommentare
Inline Feedback
Alle Kommentare anzeigen
Passwort vergessen

Bitte gib Deinen Benutzernamen oder Deine Email-Adresse ein. Du erhälst einen Link, um ein neues Passwort per Email zu erstellen.

0
Sag uns Deine Meinungx