Der Kontext ist die echte Schutzmauer.
In letzter Zeit hat ein Artikel mit dem Titel "Context is the new Moat" in der Künstlichen-Intelligenz-Szene heftige Debatten ausgelöst.
Der Autor Shubham Saboo bringt eine scheinbar einfache, aber tiefgründige Idee vor: Wenn alle Zugang zu den fortschrittlichsten Modellen wie Claude, GPT und Gemini haben, liegt der wahre Wettbewerbsvorteil nicht mehr im Modell selbst, sondern im Kontext.
Der Artikel wurde auf Twitter weitgehend weitergeleitet. Der erfahrene Fachmann Andrea Volpini aus dem Bereich KI kommentierte dazu: "Der Kontext ist nicht nur eine statische Tatsache. Wenn man Entscheidungsspuren, Zeitzeichen erfasst und die Herkunft in einem Wissensnetzwerk speichert, kann man der KI ein reiches, sich ständig entwickelndes Weltmodell geben."
Diese Idee spricht die zentrale Wettbewerbslogik im Bereich der KI-Anwendungen im Jahr 2026 an: Die Modelle werden vermarktet, der Kontext differenziert sich.
Wenn die Preise sinken, die Leistungen sich angleichen und jeder Startup auf dieselbe API zugreifen kann, was macht dann Ihr KI-Produkt einzigartig? Die Antwort liegt in Ihrem Fachwissen, in den Erkenntnissen über die Benutzer, in den Fehlerquellen und in den gesammelten Erfahrungen – dieser nicht herunterladbare Kontext ist der wahre Wettbewerbsvorteil.
Im Folgenden finden Sie die vollständige Übersetzung des Artikels.
Link zum Originalartikel: https://x.com/saboo_shubham_/status/2011278901939683676?s=46&t=rEzZcOBRsZFqalAwGXdDFw
Heute haben alle Zugang zu denselben Modellen.
Sie verwenden Claude Opus 4.5, auch Ihr Wettbewerber. Sie verwenden GPT-5.2, auch das Startup, das erst letzte Woche gegründet wurde. Sie verwenden Gemini 3 Pro, auch alle anderen, die KI-Produkte entwickeln.
Die Modelle werden vermarktet. Die Preise sinken. Die Leistungen gleichen sich an. Was vor einigen Monaten noch der neueste Stand der Technik (SOTA) war, kann heute jeder mit einem API-Schlüssel nutzen.
Woher kommt dann der wahre Wettbewerbsvorteil?
Der Kontext (Context).
Teams, die ihr Wissen externalisieren und es in strukturierter Form an KI-Agenten geben können, können Produkte entwickeln, die Wettbewerber nicht einfach durch die Verwendung desselben Modells kopieren können.
Dasselbe Modell, unterschiedliche Ergebnisse
Ich habe gesehen, wie zwei Entwickler mit demselben Modell fast identische Agenten entwickeln.
Der erste Entwickler gibt Claude den Befehl: "Entwickle ein Multi-Agenten-System zur Bearbeitung und Weiterleitung von Kundensupport-Tickets."
Der zweite Entwickler gibt Claude den Kontext über sein konkretes Produkt: Die Fragen, die die Benutzer tatsächlich stellen, die Tonart, die das Unternehmen verwendet, Beispiele für Antworten, die fünf Sterne bewerten und solche, die Beschwerden auslösen, Randfälle, die eine manuelle Eingabe erfordern, die internen Tools, auf die der Agent zugreifen muss, was "gelöst" für seine Benutzer tatsächlich bedeutet.
Dasselbe Modell. Dieselbe Aufgabe. Völlig unterschiedliche Ergebnisse.
Der erste Entwickler erhält einen generischen Kundensupport-Roboter, der wie alle anderen KI-Kundensupport-Agenten klingt. Der zweite Entwickler erhält etwas, das sich anfühlt, als wäre es speziell für sein Produkt monatelang trainiert worden.
Das Modell ist dasselbe. Der Kontext ist der Wettbewerbsvorteil.
Und im Gegensatz zu Modellen kann der Kontext nicht heruntergeladen werden. Er muss erarbeitet werden.
Was ist ein echter Kontext?
Der Kontext ist nicht einfach "mehr in der Eingabe schreiben". Es ist strukturiertes Wissen, das dem Modell hilft, Ihre spezifischen Umstände zu verstehen.
Benutzerkontext – nicht das Benutzerprofil, sondern realistische Details.
"Unsere Benutzer sind Entwickler, die schnell Prototypen von KI-Anwendungen entwickeln möchten. Ihnen geht es um Code, der sofort funktioniert, nicht um theoretische Erklärungen. Alles, was länger als 10 Minuten zum Einrichten benötigt, verwerfen sie."
Bereichskontext – die spezifischen Muster und Beschränkungen Ihres Bereichs.
"In einem Multi-Agenten-System sollte der Koordinator-Agent nie direkt auf Tools zugreifen. Er sollte die Aufgabe an einen spezialisierten Agenten delegieren. Das ist der Grund, warum dies für die Zuverlässigkeit wichtig ist."
Historischer Kontext – was Sie bisher versucht haben und warum es nicht funktioniert hat.
"Wir haben im zweiten Quartal 2025 einen ähnlichen Agenten mit einer einzigen Eingabe entwickelt. Es ist fehlgeschlagen, weil das Kontextfenster zu schnell gefüllt wurde. Dies haben wir über das Teilen und Zusammenfassen gelernt."
Qualitätskontext – wie gute Leistung in Ihren spezifischen Umständen aussieht. Nicht abstrakte Prinzipien, sondern reale Beispiele.
"Dies ist eine Antwort des Agenten, die die Benutzer als hilfreich empfanden. Dies ist eine Antwort, die sie verwirrt hat. Der Unterschied liegt hier."
Beschränkungskontext – die realen Beschränkungen, die die Lösung bilden.
"Wir müssen diese Funktion innerhalb des kostenlosen API-Kontingents ausführen. Die Latenz muss für die Interaktion im angemessenen Bereich bleiben. Die Lösung muss einfach genug sein, dass andere sie durch das Lesen des Codes verstehen können."
Diese Dinge existieren in Ihrem Kopf, in Ihren GitHub-Problemen, in Ihren Slack-Diskussionen, in den Feedback, das Sie erhalten haben, und in der Intuition, die Sie durch die tatsächliche Bereitstellung von Produkten entwickelt haben.
Warum sich der Kontext vermehrt
Der Kontext sammelt sich im Laufe der Zeit an.
Jedes Projekt, das Sie durchführen, jeder gescheiterte Versuch, den Sie protokollieren, jede Erkenntnis über die Benutzer, die Sie gewinnen, jedes Fallbeispiel, das Sie sammeln, trägt zu Ihrem Kontextspeicher bei.
Team A fängt jedes Mal von Null an. Sie geben dem Modell Anweisungen, erhalten generische Ergebnisse, verbringen Stunden damit, diese zu korrigieren und anzupassen, und gehen dann zum nächsten Projekt über. Das Gelernte bleibt entweder im Kopf oder geht völlig verloren.
Team B pflegt Kontextdokumente. Nach Abschluss jedes Projekts aktualisieren sie das Gelernte: Was funktioniert hat, was nicht, neue Erkenntnisse über die Benutzer, gute Ergebnisse, neue Randfälle, auf die es zu achten gilt.
Nach sechs Monaten erhält Team A immer noch generische Ergebnisse und verbringt immer noch Stunden mit der Korrektur.
Die Agenten von Team B liefern bereits am ersten Tag bessere Ergebnisse als die von Team A nach einer Woche Iteration.
Das ist das Kreislaufsystem: Guter Kontext → Bessere Ergebnisse → Lernen, welcher Kontext wichtig ist → Verbessern der Kontextdokumente → Wiederholen.
So sieht es in der praktischen Anwendung aus
Ich pflege das Open-Source-Repository Awesome LLM Apps, in dem ich über 100 KI-Agenten und RAG-Implementationen gesammelt habe. Wenn ich neue Agenten entwickle, beginne ich nie von Null an.
Hier sind einige Beispiele für den Kontext, den ich gesammelt habe:
Zielbenutzer: Entwickler, die schnell Prototypen von KI-Agenten entwickeln möchten
- Sie klonen, starten und entscheiden innerhalb von 10 Minuten, ob es nützlich ist
- Sie lesen keine langen Texte, sondern überfliegen die README-Datei nach einer Schnellstartanleitung
- Sie verwerfen alles, was länger als 10 Minuten zum Einrichten benötigt
Einrichtungsanforderungen:
- Maximal 3 Umgebungsvariablen (nur API-Schlüssel)
- Eine einzelne requirements.txt-Datei ohne komplexe Abhängigkeiten
- "pip install + Ausführen" in weniger als 5 Minuten
Technologiestack:
- Nur Python
- Streamlit für die Benutzeroberfläche (schnell zu entwickeln, einfach zu verstehen)
- Direkte Verwendung des OpenAI/Anthropic/Google AI SDK mit minimaler Abstraktionsebene
Was Sterne erhält:
- Die Lösung realer Probleme (keine Spielzeug-Demos)
- Lesbarer Code ohne viele Kommentare
- Leicht erweiterbar oder anpassbar für eigene Szenarien
- Gute README-Datei mit GIFs oder Screenshots zur Demonstration
Was nicht beliebt ist:
- "Hello world"-Demos (zu einfach)
- Übermäßig komplexe Architekturen für einfache Probleme
- Agenten, die länger als 10 Minuten zum ersten Start benötigen
Häufige Fehlerquellen, die zu vermeiden sind:
- Überlauf des Kontextfensters in langen Gesprächen
- Der Agent bleibt in einer Schleife beim Toolaufruf hängen
- Unklare Fehlermeldungen bei fehlgeschlagenen API-Aufrufen
- Keine elegante Behandlung von Rate-Limits
Effektive Agentenmodelle:
- Single-Purpose-Agenten, die eine Aufgabe gut erledigen
- Multi-Agenten-Systeme mit klarer Rollenverteilung
- Koordinator-Modelle für komplexe Workflows
- Menschliche Beteiligungskreise für risikoreiche Entscheidungen
Wenn ich Claude Code oder Antigravity öffne, um einen neuen Agenten zu entwickeln, gebe ich diesen Kontext zuerst ein. Der Agent weiß bereits, wie "gut" in diesem Repository aussieht, welche Modelle zu verwenden sind und welche Fehler zu vermeiden sind.
Das erste Ergebnis erreicht bereits 90 %, anstatt nur 50 %.
Das ist der Wettbewerbsvorteil. Nicht das Modell selbst, sondern der gesammelte Kontext, der das Modell besser an meine spezifischen Umstände anpasst.
Automatisieren Sie es
Das beste Kontextsystem ist unsichtbar. Der Kontext ist immer da, bereit und jederzeit verfügbar.
Alle wichtigen KI-Coding-Tools unterstützen jetzt persistente Kontext-Dateien. Sie erstellen diese einmal, legen sie in Ihr Projekt ein, und sie werden automatisch in jedes Gespräch geladen.
Die Dateinamen sind unterschiedlich, aber das Prinzip ist dasselbe:
Antigravity / Gemini CLI: GEMINI.md
Cursor: .cursor/rules
Claude Code: CLAUDE.md
Windsurf: .windsurfrules
Codex: AGENTS.md
Claude Projects: Als Projektwissen hochladen
Ich speichere die Agentenmodelle, die Qualitätsstandards und die Fehlerquellen in diesen Dateien. Bei jedem neuen Gespräch versteht der Agent bereits meine Welt.
Externalisieren Sie Ihr Wissen in Dateien, die im Repository gespeichert sind. Haben Sie keine Lust mehr, Ihren Technologiestack zu erklären, Ihre Modelle zu beschreiben oder die gleichen Fehler zu korrigieren.
Einmal einrichten und profitieren Sie von jedem neuen Befehl.
Wie beginnen Sie?
Heute: Beginnen Sie mit der Erstellung eines Kontextdokuments. Wer sind Ihre Benutzer tatsächlich? Was ist gut? Was haben Sie versucht und was ist fehlgeschlagen? Es muss nicht perfekt sein, einfach anfangen.
Nach Abschluss jedes Projekts: Was haben Sie gelernt? Was hat Sie überrascht? Was würden Sie anders machen? Fügen Sie es hinzu.
Im Laufe der Zeit: Sammeln Sie Fallbeispiele zwanghaft. Gute Ergebnisse, schlechte Ergebnisse, Randfälle. Fallbeispiele sind der Kontext mit dem höchsten Hebelwirkungspotenzial.
Automatisieren Sie es: Fügen Sie Ihrem Projekt eine GEMINI.md- oder CLAUDE.md-Datei hinzu. Sie wird automatisch geladen. Sie müssen sich nie wieder darum kümmern.
Das ist alles. Vier Schritte. Der Rest ist nur Wiederholung.
Das Eingeben von Befehlen wird einfacher. Das Modell versteht Sie mit weniger Worten besser.
Aber der Kontext bleibt immer wichtig.
Diejenigen, die den Kontext als ein erstklassiges Engineering-Problem behandeln, werden schneller bessere Dinge entwickeln.
Nicht weil sie bessere Modelle haben, sondern weil sie besser darin sind, zu lehren.
Das ist die wahre Fähigkeit.
Nicht dem Agenten sagen, was er zu tun hat, sondern ihm helfen, zu verstehen, warum es wichtig ist.