Ihr irrt euch nicht: Eure Lieblings-KI ist wirklich dümmer geworden, und eine AMD-Ingenieurin liefert den Beweis

AI auf Smartphone

Eine neue Analyse sorgt für Aufsehen: Eine bekannte KI für Entwickler soll massiv an Leistung verloren haben. Die Softwareingenieurin und Chefin für KI bei AMD Stella Laurenzo spricht von bis zu 67 % weniger Denktiefe. Die möglichen Gründe dahinter sind wohl kürzliche Updates.

Um welchen KI-Assistenten geht es überhaupt? Claude Code ist ein von Anthropic entwickeltes Codierungstool, das direkt im Terminal läuft und Entwicklern dabei hilft, Code effizient umzugestalten, zu dokumentieren oder Fehler im Code zu suchen.

Nun steht die Coding-KI von Anthropic in der Kritik. Auslöser ist eine Analyse des Tech-Konzerns AMD, die einen deutlichen Rückgang der Leistungsfähigkeit dokumentiert.

Video starten
Warum ist RAM so teuer? Die aktuelle Situation in 2 Minuten erklärt

Im Zentrum der Kritik steht eine Untersuchung von rund 7.000 realen Nutzungssitzungen. Dabei wurde beobachtet, dass die KI in vielen Fällen schlechter abschneidet als zuvor. Laut Stella Laurenzo, Chefin für KI bei AMD, und den Berichten von Winbuzzer und The Register soll die Effizienz in bestimmten Szenarien um bis zu 67 Prozent gesunken sein (via GitHub).

Besonders auffällig war, dass die KI bei Aufgaben, die sie zuvor zuverlässig lösen konnte, nun häufiger fehlerhafte oder unvollständige Ergebnisse lieferte.

Nicht fähig, komplexe technische Aufgaben auszuführen

Wie wurde die Verschlechterung entdeckt? Die Erkenntnisse stammen nicht aus einem isolierten Test, sondern aus der Auswertung echter Nutzung. Stella Laurenzo ließ dafür tausende Interaktionen mit der KI analysieren, um deren Verhalten im Alltag besser zu verstehen.

Das AMD-Team hatte seit Januar 2026 jede durchgeführte Claude-Code-Sitzung protokolliert. Die Datengrundlage sind tausende protokollierte Sitzungen mit zehntausenden einzelnen Denkschritten (Winbuzzer).

Dabei zeigte sich ein klares Muster: Die KI benötigte im Schnitt mehr Anläufe, um Lösungen zu finden, und brach komplexere Aufgaben häufiger ab. Die AMD-internen Entwickler berichteten außerdem, dass Antworten weniger präzise ausfielen oder wichtige Schritte übersprungen wurden.

Diese Veränderungen waren messbar und traten konsistent über viele Sessions hinweg auf. Laut Laurenzo ist damit Claude-Code nicht fähig, komplexe technische Aufgaben auszuführen.

Dümmer durch Update?

Warum hat sich die KI verschlechtert? Eine eindeutige Ursache ist bisher nicht bestätigt. Allerdings liegt laut Analyse der Einbruch nicht an einem großen, offensichtlichen Fehler, sondern an zwei kleinen Änderungen, die zusammen große Konsequenzen hatten. Einerseits die Einführung des adaptiven Denkens und die Anpassung des sogenannten Effort-Wertes.

Was ist „adaptives Denken“ und warum ist es ein Problem? Im Februar 2026 führte Anthropic eine Funktion namens „adaptives Denken“ ein. Die Idee dahinter: Die KI entscheidet selbst, wie viel „Denkarbeit“ sie in eine Antwort steckt (devpik & Anthropic).

Vereinfacht erklärt:

  • Bei leichten Aufgaben denkt sie nur kurz nach oder überspringt sie gänzlich.
  • Bei schwierigen Aufgaben soll sie länger und gründlicher überlegen.

Das spart Rechenleistung und macht die KI schneller.

In der Praxis passierte jedoch etwas Unerwartetes: In manchen Fällen entschied die KI nun, wohl gar nicht erst nachzudenken.

Das bedeutet konkret, dass bei genau den Aufgaben, bei denen sorgfältiges Denken entscheidend gewesen wäre, die KI diesen Schritt übersprungen und stattdessen falsche Antworten geliefert hat.

Was hat sich noch geändert? Zusätzlich wurde Anfang März eine zweite, noch unauffälligere Änderung vorgenommen: Der sogenannte „Effort“-Wert wurde angepasst. Dieser Wert legt fest, wie viel maximale „Denkleistung“ die KI überhaupt einsetzen darf.
Vorher stand dieser standardmäßig auf „hoch“, danach nur noch auf „mittel“ (Venturebeat & GitHub).

Mittlerweile hat der Chef-Entwickler von Claude-Code, Boris Cherny (GitHub) auf die Kritik seitens Stella Laurenzo reagiert und gewisse Anpassungen und mögliche Verschlechterungen bestätigt.

Künstliche Intelligenz wird heute in vielen Bereichen genutzt. Allen voran nutzen viele Personen sie im Alltag. Und die Generation Z hat KI als Therapie-Hilfe entdeckt. Doch genau das kann zu einem großen Problem führen: KI wie ChatGPT sagt Nutzern, was sie hören wollen

Bitte lies unsere Kommentarregeln, bevor du kommentierst.

Abonnieren
Benachrichtige mich bei
0 Kommentare
Neueste
Älteste Meisten Abstimmungen
Inline Feedback
Alle Kommentare anzeigen
0
Sag uns Deine Meinungx