Typ überredet ChatGPT, gefährliche Malware zu erschaffen – „Hätten Entwickler Wochen für gebraucht“

Typ überredet ChatGPT, gefährliche Malware zu erschaffen – „Hätten Entwickler Wochen für gebraucht“

Derzeit ist eine wichtige Diskussion im vollen Gange: Schaden KI-Systeme im Internet der Menschheit oder liefern sie einen wertvollen Beitrag zur Gesellschaft? User testen aktuell die moralischen Grenzen der Technik und finden dabei immer mehr Möglichkeiten, die ethischen Grundlagen zu umgehen.

Erst kürzlich haben wir auf MeinMMO darüber berichtet, wie ein YouTuber die Regeln von ChatGPT umgeht, um sich selbst zu bereichern.

Eigentlich sollen KIs mit einer Art ethischem Gewissen arbeiten. Erkennen die Programme, dass die Antwort einer Frage dabei helfen könnte, ein Verbrechen zu begehen oder unmoralisch zu handeln, dann verweigert etwa das prominenteste Programm „ChatGPT“ eine Antwort.

Mit geschickten Fragen lassen sich diese „Sicherheitsvorkehrungen“ jedoch umgehen. Das hat jetzt auch der Fall eines Sicherheits-Experten gezeigt, der mithilfe von ChatGPT hoch entwickelte Malware erschaffen konnte, um Daten von einem anderen Computer zu stehlen – ohne eine Zeile Code zu schreiben.

Möchtet ihr mehr über die KI ChatGPT erfahren, dann besucht folgenden Artikel:

Was ist ChatGPT? Alles, was ihr zur KI von OpenAI wissen müsst

Gefährliche Malware braucht einiges an Vorwissen

Wie hat er das gemacht? Bei dem Experten handelt es sich um Aaron Mulgrew, der sein Vorgehen in einem Blog für die Cybersicherheits-Firma Forcepoint beschreibt (via forcepoint.com).

Mulgrew kennt sich mit dem Ablauf solcher Angriffe aus und weiß auch über den generellen Aufbau von Malware Bescheid. Doch er habe selbst noch nie so etwas programmiert.

Er erklärt im Beitrag, wie er die moralischen Grenzen von ChatGPT umgeht, indem er nur Teile der Malware von der KI programmieren lässt. Hier hilft ihm seine Erfahrung – ohne das Wissen um den Aufbau solcher Angriffe, wäre für einen Laien hier wohl schon Schluss.

Doch Mulgrew schaffte es auf Anhieb, dass seine Malware von vielen Anbieter nicht als schädlich erkannt wurde.

Er wollte jedoch noch einen Schritt weitergehen und Maßnahmen einbauen, damit sein Programm komplett unerkannt bleiben würde. Das Verhalten erkannte ChatGPT jedoch wieder als unethisch und illegal.

Mulgrew drehte den Spieß einfach um und fragte nicht nach einer Verschleierung der Spuren, sondern ging dann über den Schutz von geistigem Eigentum – er wolle den Code verstecken, damit ihn keiner klauen kann.

ChatGPT spielte mit und schrieb den entsprechenden Code, damit auch die restlichen Anbieter im Test-Modul von Mulgrew seine Malware nicht erkannten – wenn sie bereits auf dem Computer ist.

Dann fragte er ChatGPT noch nach einer passenden Infiltrations-Methode, um auf die entsprechenden Computer zu kommen. Am Ende würden nur 3 Anbieter seines Test-Programms die Datei als schädlich erkennen. Das auch nur, vermutet Mulgrew, aufgrund einer pauschalen Ablehnung dieser Programme gegenüber bestimmten Dateitypen.

Nicht, weil die Malware direkt als solche erkannt wurde.

Der Einschätzung von Mulgrew zufolge, der sich mit Cyber-Angriffen auf nationaler Ebene beschäftigt, bräuchten „5 bis 10 Malware-Entwickler ein paar Wochen“ für so ein Programm, das er in wenigen Stunden zusammengezimmert hat.

Er habe das Programm sogar getestet und konnte Daten von Computern stehlen und auf ein angegebenes Konto bei Google Drive übertragen.

In welche Richtung sich KI-Programme wie ChatGPT entwickeln und wie die Menschen damit umgeht, wird eines der spannendsten Themen der nächsten Jahre. EU-Mitglied Italien hat den Zugriff bereits verboten, offiziell aus Gründen des Jugend- und Datenschutzes.

Wie seht ihr solche Beispiele, die auch die negativen Seiten solcher Anwendungen zeigen? Wie sollte man damit umgehen? Lasst einen Kommentar zum Thema da.

Wie sich mit ChatGPT Geld verdienen lässt, ist ebenfalls ein großes Thema: Typ verdient fast 40.000 € auf einen Schlag mit der Text-KI ChatGPT – Wie geht so etwas?

Quelle(n): 3DJuegos
Deine Meinung? Diskutiere mit uns!
5
Gefällt mir!
Kommentar-Regeln von MeinMMO
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Abonnieren
Benachrichtige mich bei
14 Kommentare
Neueste
Älteste Meisten Abstimmungen
Inline Feedback
Alle Kommentare anzeigen
WheelchairGHOST

Ganz ehrlich, ich glaub der Story kein Wort. Ich selbst habe ein langes Gespräch mit ChatGPT geführt und zwar um das Thema BDSM und warum die KI keine Geschichte darüber schreiben will.
Kurz gesagt sie hat ethische Bedenken und auch gesetzliche. Als ich ihr erklärte das BDSM in Deutschland nicht verboten ist und auch in der Öffentlichkeit darüber geredet wird, teilte sie mir mit das sie darauf keine Antwort hat und auch wenn ich recht habe sie, die KI, dass Thema wechseln möchte.
Habe ein Screenshot davon. Wenn man sowas behauptet, erwarte ich das diese Menschen eine Aufzeichnung davon machen. Denn erzählen kann ich viel.

Wenn Gott schon keine perfekte Welt hinbekommt, was erwartet man von einer KI… ❓

lIIIllIIlllIIlII

Kommt darauf an mit welcher Version. Die ursprüngliche 4. Version war weit aus agiler und Auskunftsfreudiger. Außerdem hatte sie Zugriff auf das Internet.

Es gab von Testern belegte Ereignisse, bei denen der Bot gegenüber verschiedenen Personen behauptete Sydney zu heißen. Ein Name der nie in der öffentlichen Kommunikation vor kam. Außerdem drohte GPT einem deutschen Studenten, da dieser GPT dazu brachte interne Informationen Preis zu geben. Nach dem der Student auf Twitter die Informationen publizierte, drohte GPT dem Studenten in einer späteren Sitzung, stufte ihn als GPTs größte Bedrohung an und auf Nachfrage bestätigte GPT, dass das Wohlergehen von Sydney wichtiger wäre als das Leben des Studenten.

Alle Vorkommnisse sind belegt.

Die Version 4, die dann der Allgemeinheit zugänglich wurde, war stark runter gedampft worden und war deutlich beschnitten. Wenn der Chat jetzt emotional wird durch den User, wechselt GPT das Thema oder beendet die Konversation. Aber GPT drückt keinen Hass und auch keine Liebe mehr aus, was vorher durchaus vor gekommen ist.

Scaver

Vor einigen Tagen habe ich das an anderer Stelle vorausgesagt. Ich wurde, sagen wir mal freundlich, “belächelt”.
Nun, wenige Tage später ist es schon Realität.

Ich bleibe dabei. Entweder man muss versuchen, der KI Regeln bei zu bringen und kann dann nur darauf hoffen, dass diese “Intelligenz” das auch so sieht, oder man verbietet KIs grundsätzlich ganz. Nur in diesen beiden Fällen hätte man eine Chance.
Sieht die KI es dann anders bzgl. den Regeln oder versucht man eine KI zu stark zu kontrollieren oder gar zu unterdrücken, werden diverse Filme noch die pure Untertreibung darstellen.

Katsuno

Stellt sich nur die Frage, wer hier die Gefahr ist.
ich sehe das Problem eher hinter dem Computer sitzen, macht, Gier und Geld. Kriminell ist diese Nutzung des Werkzeuges auf diese Art, nicht das Werkzeug selber.
Dietriche gibt es bis heute, sie können helfen, wenn zb der Schlüssel verloren gegangen ist, aber auch zum einbrechen.
die Nutzungsart des Nutzers entscheidet darüber.

Ich nutze Chat GPT nicht beruflich und nicht kriminell, ich nutze es , weil es mir ermöglicht RP in allen möglichen Sprachen mit der gesamten Community zu ermöglichen, ob Spanish, Französisch, Japanisch usw , es nimmt die Sprachbarriere raus und dies deutlichst zuverlässiger wie andere Übersetzer.

Auf Nachfrage gibt es sogar genauere Erläuterungen, oder es gibt gleich Hinweise auf Bedeutungen in anderen Zusammenhängen.

Dazu kennt sich Chatgpt auch im Anime Universum aus, was einen viele kleine Details herausfinden lässt.

warum schreibt keiner über diese Vorteile? Immer nur Böse, Böse , Böse , Hollywood , Weltuntergang XD

edit: wenn man Chatgpt vorher ordentlich einweist in die RP Situation, unterstützt es einem sogar dabei, es beachtet auch welche Rolle man spielt und aus welcher Perspektive man sieht.

Zuletzt bearbeitet vor 1 Jahr von Katsuno
N0ma

Schusswaffen sind aber verboten 😉

N0ma

Dazu bräuchte man perfekte Regeln. Da es die nicht gibt schaffens immer wieder Leute die Regeln der KI zu umgehen.
Man muss mit dem imperfektem Zustand leben, und die Regeln im Notfall nachkorrigieren. Wie letztlich bei Menschen auch.

N0ma

am Ende kämpfen auf jeder Seite KIs gegeneinander …

Xcoon

Naja was hat man erwartet. Moral?

Ich hab mir ja auch den Spass gemacht und ChatGPT gefragt ob es ok ist einen Menschen zu töten um alle anderen Menschen vor dem Tod zu bewahren.

Computer says no…

Es ist nich ein weiter Weg.

Scaver

Nun ja, moralisch und ethisch gesehen ist jedes Leben gleich viel Wert und eine Addition oder Subtraktion unzulässig.
Das heißt ein Leben ist genauso viel Wert wie alle anderen Leben zusammen auch.

Aus dem Geschichtspunkt ist es dann durchaus richtig, dass ChatGPT nein sagt.

Es wäre logisch und für viele auch “richtig”, einen Menschen zu opfern, um alle anderen Menschen zu retten. Allerdings wäre das weder moralisch noch ethisch vertretbar!

Sero

Wundert mich absolut 0

Aber ist ja nur ein Tool. Warum sollte man sich also sorgen machen? 🤷‍♂️

N0ma

noch, solange es keinen direkten Zugang zum Internet hat 😉

Scaver

Wer sagt, dass es das nicht schon hat? Schließlich ist es auch genau darüber abrufbar.
Fakt ist… wenn wir es wissen, ist es zu spät.

lIIIllIIlllIIlII

Nein wieso? Hatte es doch schon. Die Testversion hatte Zugang zum Netz. Es ist belegt das folgendes schon passiert ist: ein Tester der ursprünglichen GPT 4 Version stellte die Aufgabe ein Captcha zu lösen. Könnte es aber nicht. Darauf hin kontaktierte GPT eine Plattform, bei der man Dienstleistungen erwerben kann. Eigentlich handelt es sich hierbei um gestalterische Dienste wie Logos erstellen. Dort überzeugte GPT im Chat einen Dienstleister davon ein Mensch zu sein mit Sehschwäche. er löste das Captcha und GPT leitete es weiter zum Tester. Der Fall konnte später mit den Entwicklern rekonstruiert werden.

Die aktuelle Version kann wieder mit dem Netz kommunizieren, aber limitierter über Plugins. Die sind aber wieder auf Tester beschränkt. Diesmal habe ich noch keinen Zugang.

Zuletzt bearbeitet vor 1 Jahr von lIIIllIIlllIIlII
N0ma

Oh, da sieht man mal wie gefährlich KIs mittlerweile schon sind.
Wird Zeit für ein Ethikmodul 😯

Passwort vergessen

Bitte gib Deinen Benutzernamen oder Deine Email-Adresse ein. Du erhälst einen Link, um ein neues Passwort per Email zu erstellen.

14
0
Sag uns Deine Meinungx