Context-Engineering - Die neue Ebene für KI-Intelligenz

KI kommt nach und nach in der Unternehmensrealität an. Grosse Sprachmodelle wie GPT-4 verfügen über beeindruckende Fähigkeiten, aber sie haben keine Ahnung, was gerade wichtig ist. Sie generieren ihre Antworten ausschliesslich auf Basis dessen, was ihnen im Moment mitgeteilt wird. Deshalb reicht gutes Prompt-Engineering allein nicht mehr aus. Wer skalierbare, verlässliche KI-Lösungen bauen will, muss sich mit einer neuen Disziplin beschäftigen: Context-Engineering.

Einleitung

Viele Systeme scheitern nicht an der Technik – sondern daran, dass das Modell nicht versteht, was es wissen sollte. Hier setzt Context-Engineering an: Es sorgt dafür, dass der relevante Kontext zur richtigen Zeit, im richtigen Format und in der passenden Tiefe bereitgestellt wird.

Der Begriff selbst wurde maßgeblich von Andrej Karpathy (ehem. Tesla, OpenAI) geprägt, der in Anlehnung an „Vibe Coding“ von Context Engineering als der eigentlich entscheidenden Fähigkeit im Umgang mit LLMs spricht, weit über das Formulieren einzelner Prompts hinaus.

In diesem Beitrag erklären wir, was Context-Engineering ausmacht, wie es sich vom Prompting unterscheidet – und warum es künftig zum Fundament jeder ernstzunehmenden KI-Strategie gehört.

Was ist Context-Engineering?

Context-Engineering ist ein strategischer Ansatz, bei dem gezielt festgelegt wird, welche Informationen, Tools und Rahmenbedingungen einem Sprachmodell zur Verfügung gestellt werden, damit es verlässlich, effizient und kontextsensibel arbeiten kann. Es geht nicht um das Was sage ich der KI?, sondern darum: Was soll die KI überhaupt wissen, bevor ich etwas frage?

Der Begriff hat sich insbesondere in produktiven LLM-Anwendungen durchgesetzt, bei denen es nicht mehr um einzelne Prompts, sondern um systemische Lösungen mit kontextsensitiven Komponenten geht.

1. Ziel: Kontext bewusst gestalten

Während LLMs wie GPT-4 leistungsstark sind, fehlt ihnen grundsätzlich ein «Gedächtnis». Sie generieren Antworten basierend auf dem, was in dem Moment als Input gegeben ist – also Prompt plus zusätzlicher Kontext (z. B. Dokumente, Userdaten, Chatverlauf).
Context-Engineering schafft Strukturen, um diesen Kontext systematisch, relevant und verständlich bereitzustellen – z. B. durch Retrieval-Systeme, Memory-Strukturen oder Tool-Anbindungen.

2. Methoden: Zusammenspiel aus Tools, Regeln und Daten

Context-Engineering nutzt verschiedene technische Elemente:

  • Retrieval-Augmented Generation (RAG), um Wissen aus externen Quellen in Echtzeit einzubinden.

  • Memory Management, um längere Interaktionen zu ermöglichen.

  • Strukturierte Eingaben (z. B. JSON, Tabellen, Tool-Results), die das Modell besser versteht als freien Text.

Dadurch entstehen Systeme, die mit denselben Modellen deutlich zuverlässiger, konsistenter und nutzerfreundlicher arbeiten.

3. Anwendungsfelder: Über Prompts hinaus

Context-Engineering ist die Grundlage für komplexe KI-Systeme wie:

  • LLM-Agenten, die über mehrere Schritte Aufgaben lösen.

  • Assistenzsysteme mit Chatverläufen und personalisiertem Wissen.

  • Enterprise-KI-Anwendungen, in denen Compliance, Relevanzfilterung und Systemkontexte entscheidend sind.

Ohne strukturierten Kontext bleibt selbst ein intelligenter Prompt oft wirkungslos.

Grundprinzipien des Context-Engineerings

Context-Engineering folgt keinem starren Regelwerk, sondern basiert auf praxisbewährten Prinzipien, die helfen, Sprachmodelle in komplexen Umgebungen zielführend zu nutzen. Diese Prinzipien sorgen dafür, dass der Kontext nicht nur korrekt, sondern auch strategisch nützlich aufbereitet wird.

1. Relevanz vor Vollständigkeit

Nicht jede verfügbare Information ist hilfreich – zu viele irrelevante Daten verwässern die Antwortqualität. Gute Context Engineers stellen sich deshalb zwei Fragen:

  • Was muss das Modell wirklich wissen, um die Aufgabe zu lösen?

  • Was kann weggelassen werden, ohne dass das Ergebnis leidet?

Konkretes Beispiel: Statt einen ganzen Vertrag in den Prompt zu laden, wird ein Retrieval-System eingesetzt, das nur die passenden Klauseln einfügt.

2. Struktur schlägt Prosa

LLMs reagieren besser auf strukturierte Informationen als auf frei formulierten Fließtext. Tabellen, Bullet Points, JSON-Blöcke oder klar definierte Sektionen helfen dem Modell, Inhalte präziser einzuordnen und wiederzugeben.

Beispiel:

{
  "Kunde": "Müller AG",
  "Problem": "Zahlungsverzug",
  "Empfohlene Aktion": "Zahlungserinnerung mit Frist"
}

Solche Strukturen reduzieren Halluzinationen und erhöhen die Antwortqualität.

3. Kontext ist dynamisch

Der Kontext ändert sich – durch Nutzerverhalten, neue Daten, Feedback oder Systemstatus. Ein statisches Kontextfenster reicht nicht aus. Moderne Context-Engineering-Ansätze integrieren deshalb:

  • dynamische Kontextaktualisierung (z. B. Memory-Streams)

  • User-Adaption (z. B. personalisierte Präferenzen)

  • Modell-Rückkopplung (z. B. Context-Reranking nach Output-Qualität)

Dies macht das System adaptiv und robuster, insbesondere bei Multi-Turn-Dialogen, Agenten oder Live-Datenanbindung.

Context-Engineering vs. Prompt-Engineering

Während Prompt-Engineering in den letzten Jahren stark im Fokus stand, etabliert sich Context-Engineering als übergeordnete Disziplin, die das Prompting um wichtige Systemelemente ergänzt. Um den Unterschied klar zu machen, hilft eine Betrachtung in drei Dimensionen:

1. Granularität: Mikro vs. Makro

  • Prompt-Engineering ist mikroorientiert: Es beschäftigt sich mit der Formulierung einzelner Eingaben. Ziel ist es, ein Modell mit möglichst klarem, effektiven Prompt zu versorgen – z. B. durch Rollenhinweise („Du bist ein Coach…“) oder Formatvorgaben.

  • Context-Engineering agiert auf Makroebene: Es gestaltet das System um den Prompt herum. Welche Daten werden bereitgestellt? Wie wird der Userkontext gepflegt? Welche Tools sind angebunden? Welche Retrieval-Logik wird verwendet?

Prompting ist ein wichtiger Teil – aber nur ein Teil – des gesamten Kontexts.

2. Anwendungstypen: Ad-hoc vs. Systemisch

  • Prompt-Engineering funktioniert gut in einzelnen Interaktionen (One-Shot-Aufgaben), z. B. bei Textgenerierung, Ideensammlungen oder Zusammenfassungen.

  • Context-Engineering ist essenziell für komplexe, langfristige oder produktive Systeme – z. B. bei:

    • KI-Agenten

    • Chatbots mit personalisierter Historie

    • LLM-gestützten Arbeitsassistenten

    • Wissensdatenbanken mit RAG

3. Gedächtnis und Systemwissen

Prompt-Engineering hat keine «Memory-Kompetenz». Der Prompt enthält nur das, was man explizit hineinschreibt.
Context-Engineering hingegen nutzt Tools wie:

  • Langzeit-Speicher (z. B. Vektordatenbanken)

  • User-Profile und Konversationsspeicher

  • Dynamische Kontext-Zusammenstellungen aus APIs und Dokumenten

Das Resultat: LLMs können wiedererkennen, erinnern, adaptieren – obwohl sie technisch kein eigenes Gedächtnis haben.

Kurz gesagt: Prompt-Engineering fragt: Wie formuliere ich es richtig?
Context-Engineering fragt: Was muss das Modell wissen – und wie bekommt es dieses Wissen zuverlässig und strukturiert?

Herausforderungen und Lösungen

Obwohl Context-Engineering großes Potenzial bietet, bringt es auch neue Herausforderungen mit sich. Diese betreffen nicht nur technische, sondern auch konzeptionelle und organisatorische Aspekte. Im Folgenden zeigen wir drei typische Problemfelder – und wie sie lösbar sind.

1. Begrenztes Kontextfenster

Problem: LLMs haben ein beschränktes Kontextfenster (z. B. 128k Tokens bei GPT-4o), das schnell überläuft – besonders bei komplexen Use Cases mit vielen Dokumenten, Nutzerverlauf und Metadaten.

Lösung:

  • Retrieval-Augmented Generation (RAG): Statt alles in den Prompt zu laden, wird per Vektorensuche nur das relevante Wissen selektiv eingebunden.

  • Chunking + Ranking: Informationen werden in kleinere Einheiten unterteilt und nach Relevanz sortiert eingebunden.

  • Context Compression: Nutzung von Modellen, um Kontexte zusammenzufassen oder durch Embeddings effizienter darzustellen.

2. Kontextmanagement in Multi-Turn-Dialogen

Problem: In längeren Interaktionen verliert das Modell den Überblick. Wichtiges geht verloren oder wird nicht korrekt erinnert.

Lösung:

  • Memory-Komponenten: Speicherung vergangener Konversationen oder Entscheidungen in einer separaten Struktur (z. B. Redis, Pinecone, JSON Store).

  • Context-Routing: Abhängig vom Anwendungsfall wird dynamisch entschieden, welcher Kontext geladen wird – z. B. nach Userrolle, Sessionverlauf oder Falltyp.

  • Systemprompts + Tool-Zustände: Integration von Zustandsinformationen (z. B. welche Tools genutzt wurden) verbessert die Robustheit.

3. Testing und Validierung

Problem: Context-Engineering-Systeme sind oft schwer zu debuggen. Fehlerhafte Antworten entstehen nicht nur durch schlechte Prompts, sondern durch fehlerhafte Kontext-Zusammenstellungen.

Lösung:

  • Kontext-Protokollierung: Loggen, was genau dem Modell übergeben wurde – getrennt nach Datenquellen, Tools, Memory und Prompt.

  • Automatisierte A/B-Tests: Verschiedene Kontexte liefern lassen und systematisch vergleichen.

  • Bewertungsmuster definieren: z. B. entlang von Kriterien wie Relevanz, Korrektheit, Tonalität oder Task-Fulfillment.

Diese Herausforderungen zeigen: Context-Engineering ist mehr als „mehr Kontext bereitstellen“. Es geht darum, den richtigen Kontext zur richtigen Zeit, im richtigen Format zur Verfügung zu stellen – und das skalierbar und testbar.

Abschliessende Gedanken

Context-Engineering markiert einen Paradigmenwechsel in der Arbeit mit großen Sprachmodellen. Während das klassische Prompt-Engineering oft als kreative Disziplin verstanden wurde – fast wie „Texthandwerk für KI“ –, ist Context-Engineering ein strategischer Konstruktionsprozess: Es geht darum, Systeme zu bauen, die zuverlässig funktionieren – auch wenn die Prompts variieren.

Vom Prompt zur Systemintelligenz

Prompting bleibt wichtig – aber es ist künftig nur noch ein Modul im grösseren System. Wer heute produktive KI-Lösungen entwickeln will, muss sich fragen:

  • Wie kann ich die wichtigsten Informationen kontextsensitiv einspielen?

  • Wie halte ich das System aktuell, nutzerzentriert und nachvollziehbar?

  • Wie gestalte ich Kontext flexibel – aber kontrollierbar?

Solche Fragen sind nicht nur für Entwickler entscheidend. Auch Produktmanager, UX-Designer, KI-Coaches und Führungskräfte müssen verstehen, was Kontext leisten kann – und wie man ihn systemisch einbindet.

Der Werkzeugkasten wächst

Context-Engineering bringt eine neue Toollandschaft mit sich:

  • RAG-Frameworks wie LangChain oder LlamaIndex,

  • Vectorstores wie Weaviate, Pinecone oder FAISS,

  • Session-Memory und User-Personas,

  • Structured Context APIs,

  • Systemprompts mit Zustandslogik,

  • Tools & Plugins in Agentensystemen.

Wer diesen Werkzeugkasten beherrscht, wird künftig nicht nur bessere KI-Systeme bauen – sondern auch schneller, sicherer und wirtschaftlicher.

Zukunftsperspektive

Mit der nächsten LLM-Generation (grössere Kontextfenster, persistent memory, multimodale Inputs) wird Context-Engineering noch zentraler:

  • Es wird zum Differenzierungsmerkmal für Unternehmen.

  • Es wird zur Grundvoraussetzung für vertrauenswürdige KI-Interaktionen.

  • Es wird ein strategisches Feld – und kein „Hinter-den-Kulissen“-Thema mehr.

In einer Welt voller KI-Modelle gewinnt nicht der beste Prompt – sondern der beste Kontext.

Fazit

Context-Engineering ist weit mehr als ein Buzzword. Es ist ein zentraler Bestandteil moderner LLM-Architektur: Die Fähigkeit, relevantes Wissen in Echtzeit bereitzustellen, den Systemzustand zu verwalten und dynamische Nutzerinteraktionen zu ermöglichen.

In Zukunft entscheidet nicht mehr allein der Algorithmus über den Erfolg eines KI-Projekts, sondern die Frage: Wie gut ist das System darin, Kontext zu verarbeiten?

Wer KI-gestützte Systeme baut, muss lernen, wie man Kontext selektiert, strukturiert und iterativ verbessert. Prompt-Engineering ist wichtig – aber ohne den richtigen Kontext bleibt selbst der beste Prompt nur ein Schuss ins Dunkel.

Context-Engineering wird damit zur Schlüsselkompetenz für alle, die KI produktiv nutzen wollen, ob im Kundenservice, Wissensmanagement, Controlling oder Marketing. Wer diesen strategischen Hebel versteht, schafft KI-Lösungen, die nicht nur funktionieren, sondern nachhaltig Wirkung entfalten.