Ein Manager von Ferrari entlarvte einen Betrüger: Dabei half ihm eine einzige Frage, seine Firma zu schützen

Ein Manager von Ferrari entlarvte einen Betrüger: Dabei half ihm eine einzige Frage, seine Firma zu schützen

Ein Mitarbeiter von Ferrari bekam eine Nachricht vom Chef der Firma. Doch dahinter steckt ein Betrugsversuch. Mit einem Trick schafft er es, dem Fake auf die Schliche zu kommen.

Wie funktionierte der Betrug? Der Mitarbeiter von Ferrari erhielt über WhatsApp Nachrichten von einer Person, die sich als CEO von Ferrari ausgab. Davon berichten die spanischen Kollegen von Xataka.com.

Bereits bei den ersten Nachrichten fiel dem Manager auf, dass die Nachrichten von einer fremden Nummer kamen und das Profilbild nicht stimmte.

Manager nutzt Information, die ein Betrüger nicht wissen kann

Was bot der Betrüger an? Angeblich sollte es um eine Vertraulichkeitserklärung gehen, die der Mitarbeiter später unterzeichnen sollte. Konkret sollt es um die Übernahme einer anderen Firma gehen und das sei bereits mit der italienischen Behörde abgesprochen.

Um seine Täuschung glaubwürdiger zu machen, erklärte der Täter, dass die Nummer nicht seine übliche Telefonnummer sei, weil die Vereinbarung zu vertraulich sei und es in China Hindernisse geben könnte. Daher sei es möglicherweise notwendig, eine nicht näher spezifizierte Währungsabsicherung einzurichten. Genauer wird aber auch Bloomberg.com nicht, die darüber berichten.

Welche Frage verwendete der Mitarbeiter? Der Manager fragte den Betrüger nach dem Titel des Buches, welches ihm der echte Chef vor wenigen Tagen zuvor empfohlen hatte. Kurz nach der Frage endete dann das Gespräch mit dem Betrüger.

Der Trick war, den Betrüger nach etwas zu fragen, was nur die echte Person wissen kann. Diese Form von Sicherheit ist auch eine Art von Passwort. Denn die Information oder der ausgemachte Satz sind nur den beiden Teilnehmern bekannt.

Betrüger nutzen KI, um echte Menschen zu imitieren

Was ist das Problem? Durch den Einsatz von künstlicher Intelligenz ist es Betrügern möglich, Tonaufnahmen einer Stimme zu analysieren und zu imitieren. Die KI erkennt die Feinheiten in den Sprechgewohnheiten einer Person und ahmt diese nach. In einigen Fällen täuschen Betrüger eine Entführung mit einer KI vor, um an das Geld von Personen zu kommen, die auf den Betrug hereinfallen. Dieses „Voice Cloning“ mit KI wird immer ausgefeilter.

Mit den neuen technischen Möglichkeiten werden Betrügereien immer raffinierter. Vor allem der sogenannten „Enkeltrick“ könnte damit bald deutlich gefährlicher werden, weil Original und Kopie nicht mehr voneinander unterschieden werden können.

Betrüger nutzen KI, um bekannte Masche noch gefährlicher zu machen – Soll Großeltern täuschen

Quelle(n): bloomberg.com
Deine Meinung? Diskutiere mit uns!
0
Gefällt mir!
Kommentar-Regeln von MeinMMO
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Abonnieren
Benachrichtige mich bei
0 Kommentare
Inline Feedback
Alle Kommentare anzeigen
Passwort vergessen

Bitte gib Deinen Benutzernamen oder Deine Email-Adresse ein. Du erhälst einen Link, um ein neues Passwort per Email zu erstellen.

0
Sag uns Deine Meinungx