Wenn KI den Code schreibt, verlieren Menschen das mentale Modell
Dieses Problem hat noch niemand eingepreist
Die Diskussion über KI in der Softwareentwicklung dreht sich um Durchsatz. Wie schnell können Agents Code schreiben? Wie automatisieren wir die Pipeline, damit sie mithält? Wie skalieren wir Review, damit die PR-Queue nicht überläuft? Das sind die richtigen Fragen. Ich stelle sie mir selbst.
Aber unter all dieser Geschwindigkeit häuft sich ein Preis an, der in keiner Pipeline-Metrik auftaucht.
Jeder in der Softwareentwicklung kennt Technical Debt — die Abkürzungen im Code, die man irgendwann bezahlt. Man weiß, dass sie da sind. Man kann sie grob messen. Man kann sie abbauen.
Cognitive Debt ist anders. Es passiert, wenn man die Systeme nicht mehr versteht, die man betreibt. Nicht weil der Code schlecht ist — sondern weil man ihn nie selbst geschrieben hat.
Wo es bei mir Klick gemacht hat
Ich arbeite seit über einem Jahr täglich mit KI-Coding-Agents. Und es gibt ein Muster, das mir immer wieder auffällt.
Ein Agent baut ein Feature. Die Tests sind grün. Die Struktur sieht vernünftig aus. Ich reviewe das Diff, merge, weiter zum nächsten Thema. Zwei Wochen später geht etwas in der Nähe dieses Codes kaputt, und ich merke: Ich verstehe nicht wirklich, was er tut. Nicht die Syntax — den Code kann ich lesen. Aber die Entscheidungen. Warum dieser Ansatz? Welche Alternativen wurden verworfen? Welche Randbedingungen haben die Implementierung geformt?
Wenn ich Code selbst schreibe, baue ich dieses Verständnis als Nebenprodukt auf. Die Stunden mit Debugging, Refactoring, Sackgassen — das ist keine verschwendete Zeit. So lerne ich das System kennen. Wenn ein Agent diese Arbeit für mich erledigt, existiert der Code, aber das Verständnis nicht.
Diese Lücke ist Cognitive Debt.
Die Beobachtung aus Deer Valley
Im Februar 2026 veranstalteten Martin Fowler und Thoughtworks ein Retreat in Deer Valley, Utah — am selben Ort, an dem vor 25 Jahren das Agile Manifesto entstanden ist. Thema: Was macht KI mit dem Software-Engineering-Beruf? Eine der Sessions traf genau diesen Nerv. Margaret-Anne Storey, Forscherin und Teilnehmerin, brachte es auf den Punkt: Technical Debt lebt im Code; Cognitive Debt lebt in den Köpfen der Entwickler.
Diese Unterscheidung ist wichtig. Technical Debt kann man mit einem Linter finden, im Backlog erfassen, Stück für Stück abbauen. Cognitive Debt ist unsichtbar. Es ist die Erosion des mentalen Modells, das man braucht, um Systeme zu debuggen, weiterzuentwickeln und abzusichern. Es zeigt sich erst, wenn etwas schiefgeht und niemand im Team erklären kann, warum.
Warum das gefährlich ist
Eine Sache über die Zusammenarbeit mit KI-Agents: Man kann nur beaufsichtigen, was man versteht.
Ich habe schon argumentiert, dass die Kernkompetenz im Umgang mit KI Management ist — Erwartungen setzen, Belege einfordern, Annahmen hinterfragen. Aber Management braucht Wissen. Man kann keine guten Fragen über ein System stellen, das man nicht versteht. Man erkennt keine Abkürzung, wenn man den richtigen Weg nicht kennt.
Je mehr wir an Agents delegieren, desto wichtiger wird menschliches Verständnis. Und je mehr wir delegieren, desto weniger bauen wir dieses Verständnis auf natürlichem Weg auf.
Das ist die Falle. Genau das, was KI produktiv macht — Menschen aus der Implementierung herauszunehmen — macht Menschen gleichzeitig schlechter in der Aufsichtsrolle, in die sie hineinwachsen.
Cognitive Debt abbauen
Die Lösung ist nicht, KI-Agents nicht mehr zu nutzen. Dieses Schiff ist abgefahren, und die Produktivitätsgewinne sind real. Die Lösung ist, Verständnis bewusst aufzubauen — auch wenn man den Code nicht selbst schreibt.
TDD als ausführbarer Vertrag. Das ist vielleicht das wichtigste Reframing dieses Jahres. Test-Driven Development ist nicht mehr nur eine Coding-Praxis. Wenn ich die Tests zuerst schreibe, definiere ich das erwartete Verhalten in maschinenlesbarer Form. Der Agent implementiert gegen diesen Vertrag. Ich habe die Implementierung nicht geschrieben, aber ich verstehe genau, was sie tun soll — weil ich den Vertrag definiert habe.
TDD wird zur stärksten Form von Prompt Engineering. Nicht weil es der KI sagt, was sie tippen soll, sondern weil es mich zwingt, zu denken, bevor die KI handelt.
Der Middle Loop. Zwischen dem Inner Loop (Code schreiben) und dem Outer Loop (Testen und Deployen) gibt es einen Schritt, den die meisten Teams überspringen: die KI dazu bringen, sich zu erklären. Nicht nur „funktioniert der Code?“, sondern „warum diese Entscheidung? Welche Alternativen gab es? Welche Annahmen stecken dahinter?“
Konkret: Bevor ich die Arbeit eines Agents merge, lasse ich mir die wichtigsten Design-Entscheidungen erklären — und was verworfen wurde. Ich lese die Erklärung kritisch. Wenn mich etwas überrascht — wenn ich nicht erklären kann, warum der Agent Ansatz A statt Ansatz B gewählt hat — ist das mein Signal, genauer hinzusehen.
Das fühlt sich langsam an. Wie Reibung. Aber es ist dieselbe Reibung, die Pair Programming und Code Review schon immer erzeugt haben — die Reibung, die gemeinsames Verständnis aufbaut.
Nicht aufgeben, was funktioniert. Pair Programming, Code Review, Design-Diskussionen, Whiteboard-Sessions — diese Praktiken existieren, weil sie Verständnis aufbauen, nicht nur Code. Die Versuchung in einer KI-schnellen Welt ist, sie zu überspringen, weil der Code sowieso geschrieben wird. Das ist genau falsch. Sie sind jetzt wichtiger, nicht weniger.
Die Mathematik der Aufsicht
Anthropic hat Daten veröffentlicht, die zeigen: Ihre eigenen Engineers nutzen KI in rund 60 % ihrer Arbeit, können aber nur 0–20 % der Aufgaben vollständig delegieren. Das ist kein Versagen der Technologie. Das ist die aktuelle Grenze sicherer Autonomie — und das sind Anthropics eigene Entwickler, vermutlich die fortgeschrittensten KI-gestützten Engineers der Welt.
Die 80–100 %, die noch menschliche Beteiligung brauchen? Diese Beteiligung setzt Verständnis voraus. Verständnis ist genau das, was Cognitive Debt erodiert.
Der Feedback-Loop, der mich beunruhigt: Das System wächst, weil Agents Code hinzufügen, aber das menschliche Verständnis wächst nicht mit — weil die Menschen die Arbeit nicht gemacht haben, die Verständnis aufbaut. Die Kluft zwischen Systemkomplexität und Team-Verständnis wird mit jedem Sprint breiter. Die Grenze sicherer Autonomie dehnt sich nicht aus. Sie schrumpft — nicht weil die KI schlechter wird, sondern weil die Menschen den Kontext verloren haben, um sie zu beaufsichtigen.
Worauf es hinausläuft
Cognitive Debt ist real, es wächst, und es taucht auf keinem Dashboard auf. Es zeigt sich um 3 Uhr nachts, wenn die Produktion steht und niemand im Team erklären kann, was der betroffene Service eigentlich tut.
Das Investment ist nicht kompliziert: Tests vor der Implementierung schreiben. Die KI zwingen, ihre Entscheidungen zu erklären. Code Review nicht überspringen, weil „der Agent schon getestet hat“. Pair Programming für die schwierigen Teile, auch wenn — gerade wenn — der Agent es allein schneller könnte.
KI hat Verständnis nicht optional gemacht. Sie hat Verständnis von einem automatischen Nebenprodukt in ein bewusstes Investment verwandelt.
Der Code ist billig. Das Verständnis war es nie.

