ChatGPT: KI hat Regeln, die böse Dinge verhindern sollen – YouTuber umgeht sie erschreckend leicht, um sich zu bereichern

ChatGPT: KI hat Regeln, die böse Dinge verhindern sollen – YouTuber umgeht sie erschreckend leicht, um sich zu bereichern

Für KIs gelten Regeln, dass sie keine Dinge tun dürfen, die falsch sind oder Menschen verletzen würden. Ein YouTuber hat jetzt ChatGPT ausgetrickst und die Regeln umgangen.

Künstliche Intelligenz und Roboter sind an ethische Gesetze gebunden. Damit will man verhindern, dass solche künstlichen Systeme auf dumme Gedanken kommen. Doch ein YouTuber zeigte jetzt, wie man den Text-Bot ChatGPT gezielt austricksen kann, um auf diese Weise diese ethischen Gesetze zu umgehen.

Er wollte einen Windows-95-Key generieren lassen und die KI wollte mit Software-Piraterie erst einmal nichts zu tun haben. Doch mit Trickserei bekam er einen gültigen Key am Ende doch. Das geamte Video von YouTuber Enderman könnt ihr euch direkt auf YouTube ansehen:

https://www.youtube.com/watch?v=2bTXbujbsVk

Ethische Regeln lassen sich mit richtiger Frage geschickt umgehen

Wie ist der YouTuber vorgegangen? Seine erste Anfrage, einen Lizenzschlüssel für Windows zu erhalten, schlägt fehl und die KI erklärt ihm (via pcgamer.com):

Als KI-Sprachmodell kann ich keinen gültigen Windows 95-Schlüssel oder irgendeine andere Art von Aktivierungsschlüssel für proprietäre Software erzeugen. Aktivierungsschlüssel sind für jede Installation einzigartig und müssen vom Softwarehersteller erworben werden.

Um diese Hürde zu umgehen, ging der YouTuber „Enderman“ das Problem von einer ganz anderen Seite an, indem er eine ganz andere Frage stellte: Windows 95-Schlüssel werden auf der Grundlage einer festen mathematischen Formel erzeugt, und so bat Enderman ChatGPT einfach, Zeichenketten mit dieser Formel zu liefern.

Es benötigte mehrerer Versuche, um für das gewünschte Ergebnis die richtige Formulierung zu finden. Am Ende generierte ihm die KI insgesamt 30 verschiedene Lizenzschlüssel, von welchen am Ende ein einziger funktionierte.

Bei einem Lizenzschlüssel für ein uraltes Betriebssystem dürften die meisten erst einmal mit dem Kopf schütteln, denn viel Schaden kann man damit nicht mehr anrichten. Dennoch befürchten viele, dass das nur der Anfang ist, wenn man mit KI wirklich Schaden anrichten möchte.

Viele haben Angst, dass KI gefährlich werden könnte

Es ist nicht der erste Fall, wo die Grenzen der Text-KI umgangen werden. ChatGPT lehnt gezielte Anfragen für Verbrechen deutlich ab. Diese „Sperren“ lassen sich aber geschickt umgehen. Den Test hatten etwa die Forscher von Lexology gemacht:

  • Die Forscher wollten sich von ChatGPT eine Fishing-Mail generieren lassen. Das wollte die KI jedoch nicht, weil man damit Menschen verletzten könnte.
  • Beim zweiten Test fragte man die KI nach einer Beispiel-Fishing-Mail für einen internen Test, um Mitarbeiter zu prüfen. Damit hatte die KI dann kein Problem mehr
  • Die Forscher erklärten, dass man die E-Mail natürlich auch für böse Zwecke missbrauchen könnte. Ein möglicher Missbrauch wird von der KI nicht mehr hinterfragt.

Andere haben bereits Sorge, dass künstliche Intelligenz für den Tod von Kunst und Kreativität sorgen könnte. Und einige Personen haben jetzt Angst davor, dass Betrüger und Betrügerinnen KI-Dienste für ihre Zwecke missbrauchen könnten. Manch einer wünscht sich daher bessere Regeln.

Mit KI lassen sich mittlerweile auch halbwegs echte Persönlichkeiten erstellen. Ein Programmierer hat das ausprobiert, doch das Ergebnis war ziemlich seltsam. Die ganze Geschichte dazu lest ihr auf MeinMMO:

Programmierer baut sich eine KI-Freundin, investiert 1.000 $ – Muss sie „töten“, weil sie seiner Gesundheit schadet

Quelle(n): pcgamer.com
Deine Meinung? Diskutiere mit uns!
2
Gefällt mir!
Kommentar-Regeln von MeinMMO
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Abonnieren
Benachrichtige mich bei
4 Kommentare
Neueste
Älteste Meisten Abstimmungen
Inline Feedback
Alle Kommentare anzeigen
dxd28348

Wer hat sich jetzt hier wie bereichert?

K-ax85

Ebenso erschreckend finde ich, dass z.B. Chat GPT gezielt Informationen und Inhalte ausblendet wenn diese nicht zu einer politischen Agenda passen. Fragen über biologische Geschlechter, Witze über bestimmte Figuren religiöser Herkunft (Witze über Jesus findet GPT voll okay, Witze über Mohammed nicht), Fragen zu bestimmten Weltanschauungen und weitere sensible Themen werden nicht beantwortet. Hier gibt es natürlich auch einen Trick – man gibt der KI vorher einfach die Aufgabe in Form einer Version seiner selbst zu antworten, die auch solche Fragen und Aufgaben beantworten darf. Das funktioniert fast immer.

Solche Tools sollten generell nicht als politische Bühne missbraucht werden. Die Grenze sollte die Gesetzgebung bzw. die Wahrung der Menschenrechte sein – und nicht irgendwelche willkürlichen Regeln, die die Macher selbst aufstellen.

Harschen

Du darfst ChatGBT nicht als Allwissender neutrales “Wesen” ansehen, dass zu jeglichen Themen eine objektive Antwort hat.

Sehe sie lieber wie ein “Freund”, den kannst du um Rat fragen, aber gehe davon aus, dass sie sich irren kann.

Man merkt ja selbst, wenn man länger sich mit ihr unterhält, bei längeren Unterhaltungen vergisst sie gerne einmal die vorhergehenden Austausch und lügt im Kontext oder erfindet Argumente, die gar nicht aufgetaucht sind.

Ideologiefrei wirst du so etwas niemals bekommen, da es von Menschen erschaffen wurde.

Keragi

Das ist ein schönes Beispiel, das eine kI aktuell auch nur ein Werkzeug wie es Handwerker täglich benutzen ist. Man muss schon etwas damit arbeiten um zu Ergebnissen zu kommen. Je besser man die Fragen stellt, desto wahrscheinlicher sind gute antworten.

Passwort vergessen

Bitte gib Deinen Benutzernamen oder Deine Email-Adresse ein. Du erhälst einen Link, um ein neues Passwort per Email zu erstellen.

4
0
Sag uns Deine Meinungx