KI wie ChatGPT kann programmieren, aber an einer simplen Aufgabe scheitert sie

KI wie ChatGPT kann programmieren, aber an einer simplen Aufgabe scheitert sie

Vor fast 100 Jahren wurde ein mathematischer Satz definiert, der die Grenzen von Systemen wie Computern aufzeigt. Er betrifft auch moderne KIs wie ChatGPT.

Heutige KIs wie ChatGPT sind ein großes Thema der modernen Gesellschaft. Während sie in einigen Bereichen bereits eine enorme Arbeitserleichterung darstellen können, gibt es sogar Bereiche, in denen sie jetzt schon Arbeitsplätze komplett ersetzen können.

Dies kann dafür sorgen, dass Menschen diese Technik mit Skepsis und Argwohn betrachten und sich Gedanken darüber machen, ob ihre und viele weitere Tätigkeiten bald komplett von KIs ersetzt und übernommen werden.

Es gibt jedoch Limitierungen von modernen KIs. Eine davon beruht auf einem mathematischen Satz, den ein Mathematiker bereits im Jahr 1931 aufgestellt hat. Und der bis heute gilt.

Eine Aufgabe, an der KIs scheitern

Wie arbeiten Computersysteme? KI-Systeme, so wie Computer allgemein, arbeiten algorithmisch. Das heißt, sie folgen simplen Regeln, um Probleme zu lösen. Dabei haben sie kein Verständnis des Inhaltes selbst, sondern leiten die Lösungen und Antworten nur aufgrund der Regeln ab. Diese Regeln werden auch Axiome genannt.

Dies sind Grundsätze, die als wahr angenommen werden und denen es keiner weiteren Erklärung bedarf. Ein mathematisches Beispiel dafür ist die Aussage „Jede natürliche Zahl hat einen Nachfolger“. Durch eine Verkettung solcher Axiome ist es möglich, dass eine KI eine Antwort oder Lösung geben kann.

Was ist das für eine Aufgabe? Bei dem Satz handelt es sich um den sogenannten Gödelsatz, der 1931 vom Mathematiker Kurt Gödel veröffentlicht wurde. Dieser zeigt eine Grenze auf, die von modernen Computersystemen, KI eingeschlossen, nicht durchbrochen werden kann.

Dies liegt daran, dass eine Verkettung von Axiomen nicht ausreicht, um den Satz zu beweisen oder zu widerlegen, was ein Grundsatz der Beweistheorie ist. Ein Beispiel für einen Gödelsatz ist die folgende Aussage: „Diese Aussage ist nicht beweisbar“.

Ist die Aussage wahr, dann heißt es, dass sie nicht bewiesen werden kann. Ist sie falsch, dann müsste sie beweisbar sein. Dies würde zu einem logischen Widerspruch führen. Die Aussage stellt also ein Paradoxon dar.

Wie geht ein Mensch mit der Aufgabe um? Aus menschlicher Sicht kann die Aufgabe ebenfalls als Paradoxon gesehen werden. Dadurch wird klar, dass die Aussage zwar nicht beweisbar ist, sie kann jedoch trotzdem als wahr betrachtet werden.

Diese Schlussfolgerung kann eine KI durch ihre Arbeitsweise, mithilfe einer Verkettung von Axiomen, nicht ziehen. Das menschliche Gehirn hingegen kann den Inhalt und die Bedeutung des Satzes verstehen. Dies ist der elementare Unterschied in Hinsicht auf den Satz zwischen Menschen und einer KI.

KIs können ein mächtiges Werkzeug sein, wenn man weiß, wie sie zu benutzen sind. Dass solche Systeme einige, gewissermaßen interessante, Eigenarten haben können, hat sich vor kurzem in einem besonderen Fall gezeigt: Als man einer KI mit Löschung droht, versucht sie, sich auf externe Server zu kopieren – Sie wird erwischt und bestreitet den Versuch.

Quelle(n): YouTube.com, StudySmarter.de, Pixabay.com (Titelbild)
Deine Meinung? Diskutiere mit uns!
5
Gefällt mir!
Kommentar-Regeln von MeinMMO
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Abonnieren
Benachrichtige mich bei
5 Kommentare
Neueste
Älteste Meisten Abstimmungen
Inline Feedback
Alle Kommentare anzeigen
skp

Das Beispiel im Text transportiert die Idee gut, ist aber eine vereinfachte Alltagssprache-Version. Gödels echte Aussage ist ein formal codierter Satz über Zahlen, der sinngemäß dasselbe sagt, aber ohne Paradoxie klar definierbar ist. Wenn das System konsistent ist, dann ist diese Gödel-Aussage tatsächlich wahr und gleichzeitig unbeweisbar im System – kein Widerspruch, sondern einfach „unentscheidbar“.

Abianis

Nach wirklich langen Überlegungen, bin ich eben durch Gödels Unvollständigkeitssatz zu der Einsicht gelangt, dass die Philosophie die Mutter aller Wissenschaften ist.

Solange eine KI algorithmisch “denkt”, wird sie die Gödelsätze nicht verstehen.

Das eine KI keine Verständnis der Axiome hat, ist richtig, sie kann aber über bisher unbekannte Verknüpfungen neue, unbekannte Aussagen treffen.

Axiom: Apfel ist Obst
Axiom: Obst ist gesund

Daraus kann eine KI die Aussage bilden, Apfel ist gesund.
Auch wenn das vorher niemand wusste…

skp

“Philosophie die Mutter aller Wissenschaften”

Stimmt: Die ersten Logiker und Naturforscher hießen Philosophen. Heute hat jede Disziplin ihr eigenes Tool-Set, aber wenn’s um Grundbegriffe, Methoden-Kritik oder Ethik geht, landen wir immer wieder bei philosophischen Fragen. Ohne diesen Meta-Blick geht’s nicht.

“Solange eine KI algorithmisch “denkt”, wird sie die Gödelsätze nicht verstehen.””

„Verstehen“ wie ein Mensch – nein. Aber Gödel ist letztlich ein formaler Beweis; den kann ein Theorem-Beweiser vollständig nachrechnen. Die Grenze, die Gödel zieht, gilt für alle formalen Systeme, egal ob von Menschenhand oder in Silizium.

Was die Gödel-Grenze nicht bedeutet:

Sie stoppt keine KI beim Entdecken neuer Muster.

Sie sagt nur: In jedem festen, widerspruchsfreien Axiomensystem gibt es wahre Aussagen, die innerhalb dieses Systems weder beweisbar noch widerlegbar sind.

Erweiterst du die Axiome, löst du das eine Rätsel und erzeugst neue.

“Obst ist gesund”

Das ist ein einfacher syllogistischer Schluss:

1. Apfel → Obst  
2. Obst → gesund  
⇒ Apfel → gesund

Nett, aber kein Gödel-Kaliber. Die Unvollständigkeit taucht erst auf, wenn Aussagen über das gesamte Beweissystem selbst gehen (Selbstreferenz).

Abianis

Ich weiß nicht, ob wir uns hier falsch verstehen.
Das Obst-Thema sollte kein Beispiel für einen Gödelsatz darstellen. Ganz im Gegenteil.

skp

Entschuldigung für die Missinterpretation!

Passwort vergessen

Bitte gib Deinen Benutzernamen oder Deine Email-Adresse ein. Du erhälst einen Link, um ein neues Passwort per Email zu erstellen.

5
0
Sag uns Deine Meinungx