Kontext-Hierarchie
Permanent → Skill → Task → Dynamic. Reduziert Tokens und verbessert Antworten zugleich.
Systematische Steuerung, welcher Kontext wann an welchen Agenten fließt — betreibbar, messbar, kosten-kontrolliert.
Auch bei 200.000 Tokens ignorieren LLMs Inhalte in der Mitte langer Prompts. Wer „alles reinkippt", zahlt für 70 % verschwendete Tokens — und bekommt eine unschärfere Antwort.
Anfang und Ende werden fast immer gefunden. In der Mitte sinkt die Wahrscheinlichkeit deutlich — unabhängig von der Kontext-Größe.
Dieselbe Aufgabe, aber nur noch kuratierter Kontext. Jede Zelle trägt Signal — nichts verblasst in der Mitte.
Mehr Budget heißt nicht mehr Signal — es heißt mehr Kanäle pro Tier.
Saubere Tier-Trennung reduziert Token-Verbrauch typischerweise um 80 %.
Context-Dichte > Context-Länge. Jeder Tier hat ein Budget, keines wird überzogen.
in typischen Context-Hierarchy-Szenarien, bei gleicher Qualität.
wenn der Prompt kein Tier-Modell hat — der Default in der Praxis.
reicht nicht — ohne Hierarchie wird auch Mehr nicht besser.
Ob KI zu einer zuverlässigen Infrastruktur wird oder eine Sammlung loser Experimente bleibt, entscheidet das Zusammenspiel dieser vier.
Permanent → Skill → Task → Dynamic. Reduziert Tokens und verbessert Antworten zugleich.
Pro Rolle ein sauberes Tool-Set, standardisiert über MCP. Macht Verhalten vorhersagbar und Audits machbar.
Session-Logs, curated Memory, Shared State. Struktur macht aus Gesprächen eine Wissensbasis.
Orchestrator → Worker mit klaren Scopes. Komplexes zerlegen, parallel bearbeiten, konsolidieren.
Retrieval Augmented Generation holt ähnliche Chunks zur Anfrage. Das funktioniert — bis Anfragen strukturell über ein Dokument hinausgehen oder Ähnlichkeit semantisch danebengreift.
RAG ist ein Werkzeug, keine Strategie. Wir kombinieren Context-Hierarchie als Fundament mit RAG als Lookup-Ergänzung.
Ein Muster, kein Werkzeug. Der Agent verändert eine Konfiguration, misst gegen eine klare Metrik, behält Verbesserungen, verwirft den Rest.
autonom durchlaufen, alle reproduzierbar protokolliert.
mit messbarer Wirkung — z. B. Lighthouse 60 → 95.
bei gleicher Antwortqualität — typisches Resultat.
Voraussetzung: messbare Metrik, schnelles Feedback, isoliert testbare Änderungen. Nicht für sicherheitskritischen Code.
Runtime-Umgebung mit klaren Rechten, Observability und Revision. Ein Betriebssystem für KI.
„USB für KI-Tools" — herstellerunabhängiger Standard für CRM-, ERP-, Datenquellen.
Spawn, Pause, Resume, Kontext-Update — alles mit Audit-Log.
Kommunikation zwischen Agenten über Systemgrenzen hinweg.
Wir besprechen Ihre Agent-Landschaft und zeigen, welche Context-Architecture-Entscheidungen den größten Effekt haben.