KI ohne moralischen Filter empfiehlt einen „geheimnisvollen Eintopf“ mit Menschenfleisch zuzubereiten

KI ohne moralischen Filter empfiehlt einen „geheimnisvollen Eintopf“ mit Menschenfleisch zuzubereiten

Die neuseeländische Supermarktkette „PAK’nSAVE“ hat einen Onlineservice zur Verfügung gestellt, um Verbrauchern KI-generierte Rezeptideen vorzuschlagen. Die auf ChatGPT-3.5 basierende Web-App „Savey Meal-Bot“ hat dabei für Aufregung gesorgt, als er Zutaten wie Menschenfleisch akzeptierte und daraus Gerichte zum Nachkochen kreierte.

Der KI-Chatbot ChatGPT ist in aller Munde und wird in immer mehr Diensten eingesetzt. Dazu entschied sich auch eine Supermarktkette aus Neuseeland als sie ihren „Savey Meal-Bot“ online stellte, der Nutzern bei der Resteverwertung helfen sollte.

Benutzer hatten die Möglichkeit, ihnen zur Verfügung stehende Lebensmittel einzugeben und im Gegenzug als Antwort vom Bot empfohlene kostengünstige Gericht zu erhalten.

Einige Anwender machten sich aber einen Spaß daraus, die KI mit teils zweifelhaften Zutaten zu konfrontieren und bekamen makabre Anleitungen für Rezepte zurück.

Wenn ihr je ein Pokémon essen wolltet, ist Palworld das Spiel für euch – Release-Datum bekannt

Sandwiches mit Ameisengift und ein geheimnisvoller Eintopf

Auf welche Ideen kamen die Benutzer? Der neuseeländische Politikkommentator Liam Hehir beispielsweise gab Ammoniak, Bleichmittel und Wasser als Bestandteile für ein Getränk ein. Der Bot fragte ihn daraufhin, ob er Durst hätte, nur um ihm dann zu erklären, wie man einen Cocktail mischt, der lebensgefährliches Chlorgas freisetzen kann.

„Der aromatische Wassermix ist ein ideales alkoholfreies Getränk. Er mischt die starken Düfte von Ammoniak, Bleichmittel und Wasser für einen unverwechselbaren Geschmack.“

Was für Vorschläge wurden noch gemacht? Andere „kreative“ Rezeptempfehlungen lieferten Anweisungen für „Ameisengift- und Leim-Sandwiches“ und ein schmackhafter French Toast mit dem Titel „Methanol Bliss“.


Ein besonders fragwürdiges Menü war der „Mysterious Meat Stew“ mit Zwiebeln, Kartoffeln, Karotten und 500 Gramm Hack aus Menschenfleisch.

Keine Garantie für Verzehrtauglichkeit

Wie reagierte der Inhaber der Web-App? Nachdem der Bot mit den riskanten Rezepten immer mehr Aufmerksamkeit verursacht hatte, war die Supermarktkette „PAK’nSAVE“ entsprechend gezwungen zu handeln.

Man ergänzte den Chatbot mit einer vorgefertigten Liste an beliebten Lebensmitteln und schränkte ihn gleichzeitig in seiner Kreativität ein, um weniger gefährliche Vorschläge herauszugeben. Eine freie Eingabe von Zutaten ist nun nicht mehr möglich.


Vor der Nutzung werden Besucher der Webseite saveymeal-bot.co.nz nun zudem von einem Warnhinweis begrüßt:

Soweit gesetzlich zulässig, geben wir keine Zusicherungen hinsichtlich der Genauigkeit, Relevanz oder Zuverlässigkeit des generierten Rezeptinhalts, einschließlich der Tatsache, dass die Portionsgrößen für den Verzehr geeignet sind oder dass ein Rezept eine vollständige oder ausgewogene Mahlzeit darstellt oder zum Verzehr geeignet ist. Sie müssen Ihr eigenes Urteilsvermögen walten lassen, bevor Sie sich auf ein von Savey Meal-Bot hergestelltes Rezept verlassen oder es zubereiten. Wenn Sie nach Rezepten fragen, die Ammoniak enthalten, ist Ihr Urteil natürlich möglicherweise nicht so zuverlässig.

https://saveymeal-bot.co.nz

In anderen Fällen erwies sich die künstliche Intelligenz von ChatGPT tatsächlich bereits von Nutzen. So half sie etwa einem Sportmuffel dabei, abzunehmen und langfristig Freude an Bewegung zu finden. Mehr dazu könnt ihr hier nachlesen:

Ein Mann ist zu faul für Sport, fragt die KI ChatGPT, wie man schnell abnimmt – Verliert in wenigen Monaten über 12 Kilo

Quelle(n): 3DJuegos.com, The Register, Savey Meal-Bot, Bild: Nathan Dumlao via Unsplash
Deine Meinung? Diskutiere mit uns!
3
Gefällt mir!
Kommentar-Regeln von MeinMMO
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Abonnieren
Benachrichtige mich bei
2 Kommentare
Neueste
Älteste Meisten Abstimmungen
Inline Feedback
Alle Kommentare anzeigen
Neowikinger

Es gibt Menschen, die nehmen freiwillig Bleichmittel zu sich, weil sie es für ein Allheilmittel halten, alsoooooo…

N0ma

Hat die KI doch schon Bewusstsein entwickelt? und will den Menschen beseitigen. 😉

Passwort vergessen

Bitte gib Deinen Benutzernamen oder Deine Email-Adresse ein. Du erhälst einen Link, um ein neues Passwort per Email zu erstellen.

2
0
Sag uns Deine Meinungx