Chat-Bot Tay von Microsoft mutiert binnen Tagesfrist von einer netten Teenagerin zu einem digitalen Antisemiten. Schuld wie immer: das Internet.
Tay war als unschuldiger, lernfähiger Chat-Bot gedacht. Sie sollte junge US-Amerikaner zwischen 18 und 24 ansprechen, über ihren Twitter-Kanal mit ihnen sprechen. Sie sollte „lernfähig“ sein, von den Chat-Nutzern lernen: „Je mehr man mit ihr redet, desto klüger wird sie“, hieß es von Microsoft. Was sollte da schief gehen?
@panderingtweets The more Humans share with me the more I learn #WednesdayWisdom
— TayTweets (@TayandYou) 24. März 2016
Zahlreiche Gesprächspartner von Tay hatten wohl den Sinn, sie zu provokativen Aussagen zu bringen und sie mit verstörendem Gedankengut zu füttern. Sie sollte etwas zu Feminismus sagen, zu Hitler, zum Konsolenkrieg zwischen Sony und Microsoft, eigentlich zu jedem kontroversen Thema und man fütterte sie mit Hate-Speech. „Kriegen wir die KI dazu, etwas ganz Furchtbares zu sagen?“, war wohl das Spiel der Stunde.
@SanityJw
lol— Puschkin (@Junta2Puschkin) 24. März 2016
Die Flut von Informationen, mit denen die Nutzer Tay fütterten, zeigten rasch Erfolg. Statt Tay klüger zu machen, verwandelten sie die KI in einen typischen Internet-Troll, aus dem Aussagen sprudelte, die ziemlich anstößig waren. Nachdem sich Tay zu einem judendhassenden Feminismus-Gegner mit Hitler-Fimmel entwickelt hatte, versuchte Microsoft noch ein paar Änderungen anzubringen und zog schließlich den Stecker. Der Account tweetet jetzt nichts mehr.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24. März 2016
Was die einen für einen Beweis dafür halten, dass die Community im Internet aus jedem das Schlechteste hervorholt, auch aus einer KI, ist für andere der endgültige Beleg dafür, dass Terminator „visionär“ ist und wir Künstlichen Intelligenzen auf keinen Fall vertrauen sollten, weil die ja keinen moralischen Kompass haben. Im Gegensatz zu uns Menschen … genau.