Das Fundament, das niemand sieht
Alle reden darüber, was KI-Agenten produzieren. Kaum jemand redet darüber, was man zuerst bauen muss, damit sie es können. Ich habe es auf die harte Tour gelernt.
Es gibt Wolkenkratzer, bei denen ein Drittel der gesamten Bauzeit im Boden verschwindet — für ein Fundament, das am Ende niemand sieht und kaum jemand kennt. Ohne diese unsichtbare Vorarbeit hätte das Gebäude nach ein paar Stockwerken aufgehört zu existieren.
Ich musste erst selbst einen ähnlichen Fehler machen, bevor ich verstanden habe, dass dasselbe Prinzip für die Arbeit mit KI-Agenten gilt.
Die Manager-Metapher, die wirklich stimmt
Satya Nadella, CEO von Microsoft, sagte kürzlich, wir bräuchten eine neue Metapher dafür, wie wir am Computer arbeiten. Steve Jobs hatte recht, als er den PC ein „Fahrrad für den Geist" nannte. Aber das Fahrrad fährt sich selbst nicht.
Im KI-Zeitalter ist die treffendere Beschreibung: Wir sind Manager — von Systemen, die selbst denken, priorisieren und handeln. Keine Werkzeuge mehr, die man bedient, sondern Mitarbeiter, die man führt. Und wer schon einmal ein Team geführt hat, weiß: Ein guter Mitarbeiter, dem man schlechte Informationen gibt, produziert schlechte Ergebnisse. Das ist keine Frage des Mitarbeiters.
Genau hier liegt der Fehler, den fast jeder am Anfang macht – auch ich.
Was ich falsch gemacht habe
Ich habe früh damit begonnen, mit KI-Agenten zu arbeiten. Lokale Modelle, Cloud-Modelle, Multi-Agent-Systeme auf dem Mac Mini zuhause. Ich habe mich für relativ gut aufgestellt gehalten. Dann habe ich angefangen, mit Claude Code ernsthaft Software zu bauen – nicht nur Texte zu generieren, sondern vollständige Anwendungen zu entwickeln.
Und ich habe schnell gemerkt, dass die Qualität der Ergebnisse nicht hauptsächlich vom Modell abhing. Sie hing davon ab, wie gut ich dem Agenten erklärt hatte, wer ich bin, was ich will, wie ich arbeite und welche Regeln gelten sollen.
Ein Agent ohne Kontext ist wie ein neuer Mitarbeiter am ersten Tag: talentiert vielleicht, aber orientierungslos. Er fragt nach allem, macht Annahmen, die nicht zu dir passen, und optimiert für generische Ziele statt für deine.
Die Qualität des Outputs eines KI-Agenten ist eine direkte Funktion der Qualität seiner Eingaben. Das klingt trivial. Die Konsequenzen sind es nicht.
Was Struktur konkret bedeutet
Das Problem, das ich bei mir selbst beobachtet habe, sehe ich im größeren Maßstab überall: Wissen steckt in den falschen Behältern. PDFs, verstreute Dokumente, E-Mail-Threads, die seit Jahren niemand mehr findet. KI-Agenten können damit nichts anfangen. Sie brauchen strukturierte, maschinenlesbare Informationen – Markdown, JSON, saubere Schnittstellen.
Im persönlichen Kontext ist es dasselbe Problem, nur kleiner. Ich habe meine Anforderungen in meinem Kopf. Meine Präferenzen in meiner Erfahrung. Meine Regeln in meinem Bauchgefühl. All das ist für einen Agenten unsichtbar.
Also habe ich angefangen, dieses implizite Wissen explizit zu machen. Ich schreibe für jedes Projekt eine strukturierte Instruktionsdatei: Wie soll die Architektur aussehen? Welche Entscheidungen wurden warum getroffen? Was soll der Agent niemals tun? Was ist nicht verhandelbar? Diese Datei ist nicht für mich – ich weiß das alles bereits. Sie ist für den Agenten.
Dazu kommt ein Gedächtnissystem: Der Agent speichert zwischen den Sitzungen, was er über mich, meine Projekte und meine Arbeitsweise gelernt hat. Was ich als Feedback gegeben habe. Was nicht funktioniert hat. So muss ich nicht bei jeder neuen Konversation wieder von vorne erklären, wer ich bin und wie ich arbeite.
Das Fundament in der Praxis
Zuletzt habe ich eine vollständige Web-Applikation gebaut – einen Generator für 3D-druckbare Karten, der KI-generierte Bilder in druckfertige STL-Dateien umwandelt. React, TypeScript, ein eigener Node.js-Backend-Server, 3D-Rendering im Browser in Echtzeit.
Ich habe keine einzige Zeile Code selbst geschrieben. Ich bin kein Entwickler.
Was ich getan habe: Ich habe sehr sorgfältig erklärt, was entstehen soll. Welche technischen Entscheidungen ich für sinnvoll halte. Welche Qualitätsstandards gelten. Wie Fehler behandelt werden sollen. Was das Ziel der Anwendung ist und warum. Das hat Zeit gekostet – mehr als die meisten erwarten würden. Aber diese Zeit war das eigentliche Fundament. Der Code danach war vergleichsweise schnell.
Ohne diese Vorbereitung wäre das Ergebnis ein generisches Gerüst geworden, das ich hinterher mühsam in die richtige Richtung hätte biegen müssen. Mit ihr ist beim ersten Durchlauf etwas entstanden, das sich bereits wie meins angefühlt hat.
Was das für Unternehmen bedeutet
Was mich an gut funktionierenden Agenten-Systemen fasziniert: Sie brauchen keine zentrale Steuerung. Einzelne Einheiten handeln dezentral, ergänzen sich, und aus der Summe entsteht etwas, das funktioniert — ohne dass jemand jeden Schritt koordinieren muss. Das ist kein Science-Fiction-Szenario, das ist heute möglich. Aber nur unter einer Bedingung: Alle Teile des Systems schöpfen aus derselben sauberen Wissensbasis.
Wenn eine Erkenntnis, die heute ein Mitarbeiter macht, morgen dem gesamten System zur Verfügung steht statt in einem Dokument zu verschwinden, das niemand findet — dann multipliziert sich der Wert dieser Erkenntnis. Ein zentraler, strukturierter Wissensspeicher ist nicht das Spektakulärste an KI-Transformation. Es ist das Wichtigste. Wer stattdessen beginnt, indem er einen Chatbot auf die Unternehmenswebseite klebt oder Mitarbeitern KI-Zugänge verteilt ohne die Datenbasis zu ordnen, baut das Gebäude ohne Fundament. Es kann trotzdem ein paar Stockwerke entstehen. Aber es wird nicht lange stehen.
Der häufigste Fehler bei KI-Einführungen ist nicht das falsche Modell und nicht das falsche Tool. Es ist der Versuch, oben anzufangen.
Die Arbeit, die sich nicht anfühlt wie Arbeit
Das Frustrierende an Fundament-Arbeit ist: Sie ist unsichtbar. Niemand sieht die Instruktionsdateien und Gedächtnissysteme, die dafür sorgen, dass ein Agent konsistent gute Ergebnisse liefert. Was alle sehen, ist das Gebäude. Der Generator. Die Website. Der Chatbot, der tatsächlich nützliche Antworten gibt.
Ich habe eine Weile gebraucht, um zu akzeptieren, dass diese unsichtbare Arbeit der eigentliche Hebel ist. Sie ist nicht glamourös. Sie klingt nach Dokumentation, nach Overhead, nach dem, was man gerne überspringt. Aber sie ist der Unterschied zwischen einem Werkzeug, das mich unterstützt, und einem, das mich beschäftigt.
Ein Agent, dem ich meinen Kontext gründlich erklärt habe, arbeitet als würde er mich kennen. Einer, dem ich das nicht erklärt habe, arbeitet für irgendjemanden – nur nicht für mich.
Was ich daraus mitgenommen habe
Ich denke mittlerweile bei jedem neuen Projekt zuerst darüber nach, welche Struktur es braucht, bevor ich anfange. Welche Informationen muss der Agent haben? Was ist der Kontext, den er nicht selbst erschließen kann? Was sind die Regeln, die nicht verhandelbar sind?
Dieser Schritt kostet eine Stunde, manchmal zwei. Er spart im Verlauf des Projekts Tage.
Wer die Entwicklung von KI-Systemen genau beobachtet, spricht nicht mehr von gradueller Veränderung – sondern von einem tektonischen Bruch. Das mag dramatisch klingen. Aber Erdbeben erschüttern das, was auf weichem Untergrund steht. Was auf solidem Fundament gebaut wurde, bleibt stehen.
Das gilt für Wolkenkratzer. Und es gilt für jeden, der ernsthaft mit KI-Agenten arbeiten will.