Internet verdirbt unschuldige KI, formt „digitalen Hitler“

Chat-Bot Tay von Microsoft mutiert binnen Tagesfrist von einer netten Teenagerin zu einem digitalen Antisemiten. Schuld wie immer: das Internet.

Tay war als unschuldiger, lernfähiger Chat-Bot gedacht. Sie sollte junge US-Amerikaner zwischen 18 und 24 ansprechen, über ihren Twitter-Kanal mit ihnen sprechen. Sie sollte „lernfähig“ sein, von den Chat-Nutzern lernen: „Je mehr man mit ihr redet, desto klüger wird sie“, hieß es von Microsoft. Was sollte da schief gehen?

Zahlreiche Gesprächspartner von Tay hatten wohl den Sinn, sie zu provokativen Aussagen zu bringen und sie mit verstörendem Gedankengut zu füttern. Sie sollte etwas zu Feminismus sagen, zu Hitler, zum Konsolenkrieg zwischen Sony und Microsoft, eigentlich zu jedem kontroversen Thema und man fütterte sie mit Hate-Speech. „Kriegen wir die KI dazu, etwas ganz Furchtbares zu sagen?“, war wohl das Spiel der Stunde.

Die Flut von Informationen, mit denen die Nutzer Tay fütterten, zeigten rasch Erfolg. Statt Tay klüger zu machen, verwandelten sie die KI in einen typischen Internet-Troll, aus dem Aussagen sprudelte, die  ziemlich anstößig waren. Nachdem sich Tay zu einem judendhassenden Feminismus-Gegner mit Hitler-Fimmel entwickelt hatte, versuchte Microsoft noch ein paar Änderungen anzubringen und zog schließlich den Stecker. Der Account tweetet jetzt nichts mehr.

Was die einen für einen Beweis dafür halten, dass die Community im Internet aus jedem das Schlechteste hervorholt, auch aus einer KI, ist für andere der endgültige Beleg dafür, dass Terminator „visionär“ ist und wir Künstlichen Intelligenzen auf keinen Fall vertrauen sollten, weil die ja keinen moralischen Kompass haben. Im Gegensatz zu uns Menschen … genau.

Autor(in)
Quelle(n): SpiegelArs Technica
Deine Meinung?
Level Up (0) Kommentieren (24)
Passwort vergessen

Bitte gib Deinen Benutzernamen oder Deine Email-Adresse ein. Du erhälst einen Link, um ein neues Passwort per Email zu erstellen.