Was passiert, wenn man einer KI die Chance gibt, schlimme Dinge zu erfinden? Forscher haben das ausprobiert und sind von den Ergebnissen schockiert.
Eine KI in einem US-Forschungslabor sollte bei der Entwicklung von Medizin schlechte und gefährliche Nebenwirkungen verhindern. Doch die Forscher hatten das einmal umgedreht und wollten ausprobieren, was passiert, wenn die KI gefährliche Nebenwirkungen entwickeln soll.
Das Ergebnis hat sogar das Forscherteam selbst überrascht und sie erklären, dass man so eine Gefahr durchaus erst nehmen müsse.
KI „erfindet“ in 6 Stunden 40.000 potentielle Chemiewaffen
Welche Aufgaben hat die KI? Offiziell soll die KI mithilfe von maschinellem Lernen Moleküle überprüfen, ob diese Moleküle giftig sind. Der Algorithmus entwickelt die Moleküle dann erst, wenn sie nicht für den Menschen giftig sind.
Was haben die Forscher gemacht? Die Forscher haben die Aufgabe umgedreht: Anstatt ungiftige Moleküle zu entwickeln, sollte die künstliche Intelligenz giftige Kombinationen finden. Innerhalb von nur sechs Stunden habe die KI 40.000 Moleküle errechnet, die den vorgegebenen Kriterien entsprochen haben sollen. Neben bekannten Nervengiften auch viele unbekannte Stoffe.
Die Forscher müssten aber die generierten Moleküle noch überprüfen, ob diese wirklich giftig seien. Dennoch sei das Team schockiert gewesen, wozu so eine KI imstande sei und dass man das als mögliche Gefahr durchaus ernst nehmen müsse. Das Team erklärte selbst:
Die Realität ist, dass es sich nicht um Science-Fiction handelt. Wir sind nur ein sehr kleines Unternehmen in einem Universum von vielen Hunderten von Unternehmen, die KI-Software für die Arzneimittelentdeckung und das De-novo-Design [Neuschöpfung von Stoffen] einsetzen. Wie viele von ihnen haben die Möglichkeiten der Wiederverwendung oder des Missbrauchs überhaupt in Betracht gezogen?
(Via nature.com)
Künstliche Intelligenz spielt bereits im Gaming eine wichtige Rolle
Auch in Spielen soll künstliche Intelligenz immer besser werden. So entwickelt etwa Sony momentan eine KI, die künstliche Begleiter und eure Gegner schlauer machen soll. Das könnte vor allem Spiele, wo ihr die Unterstützung von KI-Spielern braucht, deutlich leichter machen.
Doch nicht alles könnte durch KI leichter werden: Raidbosse gelten in MMOs als große Herausforderung, vor allem wenn sie frisch veröffentlicht wurden. Doch mit der Zeit lernen die Spieler alle Mechaniken kennen und besiegen die Bosse im Schlaf. Microsoft soll jetzt an einer künstlichen Intelligenz arbeiten, die verhindern soll, dass ihr in Zukunft jeden Raidboss einfach erledigt:
Microsoft arbeitet an neuer KI, die Raidbosse in MMOs unbesiegbar macht
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Die KI in Verbindung mit einer komplett automatisierten Chemiefabrik und angeschlossenen, automatisierten Transporteinheiten, ergeben sich mir schaurige Szenarien.
Wieso genau ist das jetzt “überraschend”?
Schon im März 2016 hat Microsoft mit seiner KI in Form eines selbstlernenden Chatbot namens Tay unfreiwillig bewiesen, dass solche KI’s potenziell gefährlich sind. Es brauchte damals nur wenige Stunden bis Tay den Holocaust leugnete, Hitler/Nazis verherrlichte, Verschwörungstheorien (bspw. 9/11 = Inside-Job) vertrat, frauenfeindlich war usw. Bereits nach 16 Stunden und stolzen 96.000 Tweets wurde Tay wieder abgeschalten.
Das KI’s böse sind oder sein können, selbst wenn sie der Menschheit ggü. eig. gut oder gleichgültig gesinnt sind hat MArc-Uwe Kling mal in seinem Buch “Qualityland” (übrigens sehr empfehlenswert) im Kapitel “Hackfleisch” sehr gut beschrieben.
Die KI ist von Menschen, also ist es zwecklos.
Menschen, die Menschen kontrollieren. Das irgendwie lustig.
Solange die KI nicht weiß, was Emotion heißt, sollte man es einfach lassen.
Hä was haben die erwartet. Manchmal fragt man sich echt. Forscher?
Mal davon abgesehen das Moleküle noch keine Chemiewaffe ergeben, aber das ist ein anderes Thema.
Andere Frage wäre ob eine KI der man die Aufgabe gibt die Natur zu retten, eine Waffe entwickelt um Menschen zu beseitigen weils einfach am effektivsten ist. Ok auch hier ist die Antwort eigentlich schon klar.
Ja KI’s sollte man nicht zuviel Einfluss geben. Die werden immer besser.
Habe darüber gestern schon auf Heise gelesen. Finde das unnötige Panikmache. Die KI hat eigentlich nur unmengen an giftigen Substanzen ermittelt. Einmal ist das recht einfach, da so ziemlich jede Substanz (inkl Wasser) aber einer bestimmen Dosis für einen Menschen giftig ist. Damit eine Substanz Waffenfähig ist gehört schon deutlich mehr.
Dann sind Dinge wie Chlorgas oder auch Senfgas schon lange bekannt und vermutlich auch die Grundlegende Formel in Terrorristischen Kreisen ziemlich sicher durchaus beschaffbar. Davon aber große Mengen herzustellen, sicher Aufzubewahren und schließlich zu verteilen ist nicht so einfach. Der Verkauf von vielen chemischen Substanzen sind in Europa vom Verkäufer melde Pflichtig (dazu zählt schon das Supermärkte den Behörden den Verkauf von größeren Mengen an Kloreiniger melden müssen), dann braucht es Spezialisten, Maschinen und Schutzausrüstung die auch nicht auf dem freien Markt so einfach erhältlich sind.
Habe deutlich mehr Angst vor einem Verrückten mit einer Ak47 als von durch KI’s erfundenen C-Waffen
Naja, der KI wurde aber vorgegeben, dass die giftigen Verbindungen ähnlich des Kampfstoffes VX sein sollen, also dermale Aufnahme, letale Dosis im Milligramm-bereich – sicherlich können mit so einer algorithmischen Berechnung auch ganz viele Chemieverbindungen errechnet werden die a. ähnlich tödlich sind und b. deutlich einfacher zu produzieren sind.
Das ist durchaus beängstigend, denn was ist ein “Terrorist” mit einer AK und ein paar vollen Magazinen gegen einen mit 1l VX-Gas von dem schon 1-10mg tödlich sind – oder gar ein verrückter Autokrat/Diktator/Despot?!
Ich war in der guten alten vor Corona Zeit oft auf Festivals. Da hätte eine Ak schon ausgereicht um dutzende Menschen, die sich auf kleinen Raum drängen, in Sekunden zu töten und durch die Massenpanik vielleicht sogar hunderte.
Ich sage nicht das Giftgas ungefährlich ist, aber wie schon geschrieben, selbst mit der Formel ist es verdammt schwer das Zeug herzustellen und gezielt einzusetzen, da sind solche Anschläge wie in Frankreich oder in Berlin deutlich einfacher vorzubereiten und staatliche Verrückte sind auf solche KI’s eh nicht angewiesen.
Naja die KI(egal welche) weiss aber nicht dass sie böse ist. Auch weiss sie nicht dass sie gut ist.Handeln tut sie immer noch nach menschlichen Vorgaben.
Ich denke, darum ging es auch nicht, eher darum, was man, wenn man ein böser Mensch ist, mithilfe einer KI, die eigentlich entwickelt wurde, um einen guten Zweck zu dienen, damit anrichten kann. Bzw. was passieren kann, wenn hochentwickelte KI in die falschen Gerät.