Wer sich mit Large Language Models (LLM) und agentenbasierten KI-Lösungen beschäftigt, stolpert unweigerlich über den Begriff Prompt Engineering. Mittlerweile tauchen aber zwei weitere Begriffe auf, die das Thema in eine andere Richtung lenken: Context Engineering und Intent Engineering. Alle drei Engineering-Methoden beschreiben, wie wir KI-Systeme steuern – doch die Unterschiede sind erheblich. Und sie haben direkte Auswirkungen darauf, wie zuverlässig, sicher und brauchbar die Ergebnisse einer KI am Ende sind.

Prompt Engineering: Der Anfang von guten KI-Aufforderungen, aber nicht das Ende

Prompt Engineering beschreibt im Kern die Formulierung einzelner Anweisungen an ein Sprachmodell. Wer einen guten Prompt schreibt, bekommt in der Regel eine gute Antwort – so weit zumindest die Theorie. In der Praxis zeigt sich allerdings schnell, dass das Prompt Engineering an Grenzen stößt. Kleine Änderungen an der Formulierung führen teilweise zu völlig unterschiedlichen Ergebnissen. Es gibt keinen persistenten Zustand zwischen Anfragen, Probleme bei der Einbindung externer Datenquellen und keine Möglichkeit, mehrstufige Prozesse verlässlich abzubilden.

Ein Beispiel verdeutlicht den Unterschied: Ein Vertriebsmitarbeitender möchte eine Zusammenfassung der letzten Quartalszahlen erstellen. Ein schwacher Prompt wäre: „Schreib mir was über unsere Quartalszahlen.“ Das Modell hat keine Zahlen, keinen Zeitraum und keinen Kontext. Das Ergebnis wird bestenfalls generisch, schlimmstenfalls frei erfunden sein. Ein guter Prompt dagegen liefert die relevanten Eckdaten mit: „Fasse die folgenden Quartalsergebnisse für Q4 2025 in drei Absätzen zusammen. Zielgruppe ist das Management-Board. Tonalität: sachlich, ergebnisorientiert. Daten: [Umsatz: 12,4 Mio., EBIT: 1,8 Mio., Neukunden: 47].“ Der Unterschied zum schwachen Prompt ist offensichtlich. Aber auch die Grenze des Prompt Engineerings werden sichtbar: Alle Informationen müssen manuell in den Prompt geschrieben werden, auch bei allen zukünftigen Quartalszahlen.

Für einfache, isolierte Aufgaben, beispielsweise um eine Zusammenfassung zu erstellen, eine E-Mail umzuformulieren oder eine Codezeile zu generieren, funktioniert Prompt Engineering sehr gut. Sobald es aber um produktive Systeme geht, die wiederholt konsistente Ergebnisse liefern sollen, reicht diese Methode nicht mehr aus. Genau hier setzt die nächste Stufe des Context Engineerings an.

Blog-Umfrage_Hürden KI-Einsatz

Context Engineering: Das Betriebssystem für KI-Agenten

Context Engineering geht einen wesentlichen Schritt weiter als das Prompt Engineering. Statt nur die einzelne Eingabeaufforderung zu optimieren, wird das gesamte Informationsumfeld des Modells gestaltet. Dazu gehören Kurzzeit- und Langzeitgedächtnis, strukturierter Zugriff auf Wissensdatenbanken, Tool-Anbindungen, API-Integrationen und automatisierte Pipelines, die bei jedem Schritt relevante Daten in den Kontext des Modells laden.

Bleiben wir beim Quartalszahlenbeispiel: Ein System mit schlechtem Context Engineering gibt dem Modell zwar Zugriff auf eine Datenbank, lädt aber bei jeder Anfrage den gesamten Datensatz der letzten fünf Jahre unkuratiert in den Kontext. Das Modell wird mit vielen irrelevanten Informationen gefüttert und kann damit Zeiträume verwechseln und im schlimmsten Fall eine Zusammenfassung liefern, die Zahlen aus verschiedenen Quartalen durcheinanderwirft. Mit einem guten Context Engineering hingegen filtert eine vorgeschaltete Pipeline automatisch die Daten des angefragten Quartals, ergänzt sie um den Vorjahresvergleich und das vereinbarte Berichtsformat des Unternehmens. Das Modell erhält genau die Informationen, die es braucht – nicht mehr und nicht weniger. Das Ergebnis ist reproduzierbar, prüfbar und konsistent.

Der Unterschied ist nicht nur technischer Natur, sondern hat handfeste Auswirkungen auf die Qualität: Aktuelle Studien zeigen, dass Systeme mit durchdachtem Context Engineering die Aufgaben der KI-Agenten um 54 Prozent verbessern können im Vergleich zu promptbasierten Ansätzen (Anthropic, 2025). Der Grund liegt auf der Hand. Ein Modell, das alle relevanten Informationen strukturiert erhält, vermeidet Widersprüche und liefert konsistentere Ergebnisse.

Für Unternehmen bedeutet das: Wer KI-Agenten produktiv einsetzen will, kommt an Context Engineering nicht vorbei. Es ist gewissermaßen das Betriebssystem, auf dem zuverlässige agentenbasierte Workflows überhaupt erst möglich werden.

Intent Engineering: Die Absicht hinter der Anfrage verstehen

Die jüngste Entwicklung in diesem Feld geht noch einen Schritt weiter. Intent Engineering beschäftigt sich damit, die eigentliche Absicht eines Users oder Prozesses zu erfassen, bevor das Modell überhaupt aktiv wird. Statt nur zu fragen „Was wurde formuliert?“ geht es beim Intent Engineering um die Frage: „Was soll eigentlich erreicht werden?“

Das klingt zunächst abstrakt, hat aber ganz konkrete Auswirkungen auf die KI-Ausgabe. In einem gut designten System erkennt die Intent-Schicht, dass eine mehrdeutige Anfrage in verschiedene Richtungen gehen könnte, und geht dem gezielt nach – durch Rückfragen, Kontextanreicherungen oder die Zerlegung komplexer Ziele in handhabbare Teilschritte. Prompt und Context Engineering werden dabei nicht ersetzt, sondern als nachgelagerte Werkzeuge eingesetzt, sobald die Absicht geklärt ist.

Auch hier ein Beispiel: Ein Mitarbeitender schreibt einem KI-Agenten: „Kümmere dich um den Kunden Müller.“ Ohne Intent Engineering würde sich der Agent sofort an die Lösung der Aufgabe setzen und möglicherweise eine Standardmail versenden, obwohl der Mitarbeitende eigentlich wollte, dass eine überfällige Rechnung eskaliert wird. Im schlimmsten Fall kontaktiert der KI-Agent den Kunden mit falschen Informationen oder löst Prozesse aus, die nicht rückgängig zu machen sind. Ein System mit gutem Intent Engineering dagegen erkennt die Mehrdeutigkeit dieser Anfrage, prüft den aktuellen Status des Kunden im CRM und fragt gezielt beim Mitarbeitenden nach: „Für Kunde Müller gibt es eine offene Rechnung und eine anstehende Vertragsverlängerung. Welches Thema soll ich bearbeiten?“ Erst danach wird die eigentliche Aktion ausgelöst – mit klarem Kontext und validierter Absicht.

Gerade bei autonomen Agenten, die eigenständig Entscheidungen treffen und Aktionen auslösen, ist Intent Engineering ein kritischer Baustein. Ein KI-Agent, der die Absicht eines Auftrags falsch interpretiert, kann im besten Fall nutzlose Ergebnisse liefern. Im schlechteren Fall löst er Aktionen aus, die Daten verändern, Transaktionen anstoßen oder Systeme in einen ungewollten Zustand versetzen.

Wenn Engineering fehlt: Reale Risiken im Unternehmensalltag

Im letzten Beispiel wird die Brücke zum Thema Sicherheitsrisiken sichtbar. Viele der derzeit populären Agent-Tools (z.B. OpenClaw) setzen auf schnelle Ergebnisse und niedrige Einstiegshürden. Durchdachtes Context Engineering oder Intent Engineering findet dabei häufig nicht statt. Die Konsequenzen sind messbar: Laut einer aktuellen Erhebung haben 88 Prozent der Unternehmen bereits sicherheitsrelevante Vorfälle im Zusammenhang mit KI-Agenten erlebt oder vermutet (Gravitee, 2026). Die häufigsten Ursachen sind überprivilegierte Zugriffsrechte, fehlende Verhaltensüberwachung und schlicht mangelnde Kontrolle darüber, was ein KI-Agent tatsächlich tut.

Das Problem ist strukturell. Klassische Sicherheitsmechanismen wie Authentifizierung, rollenbasierte Zugriffssteuerung, Logging etc. sind für menschliche User konzipiert. Ein autonomer Agent, der in einer einzigen Anfrage mehrere privilegierte Aktionen verkettet, sprengt dieses Modell. Prompt Injection, also die gezielte Manipulation der Eingabe durch Angreifer, kommt erschwerend hinzu. Ein Agent ohne robustes Intent Engineering lässt sich vergleichsweise leicht dazu bringen, vom eigentlichen Auftrag abzuweichen und schädliche Aktionen auszuführen.

Und selbst ohne böswillige Absicht liefern schlecht konfigurierte KI-Agenten schlicht falsche Ergebnisse. Erfundene Fakten in einem internen Bericht, fehlerhafte Datenbankänderungen oder veraltete Informationen in einer Kundenauskunft – all das passiert, wenn das Engineering-Fundament fehlt.

Mit einem guten Engineering zu erfolgreichen KI-Agenten

Die drei Disziplinen Prompt Engineering, Context Engineering und Intent Engineering stehen nicht in Konkurrenz zueinander, sondern bauen aufeinander auf. Ein solides KI-System nutzt alle drei Ebenen und ergänzt sie durch konsequente Sicherheitsarchitekturen: Least-Privilege-Prinzipien, lückenlose Protokollierung aller Agentenaktionen, regelmäßiges Red-Teaming und eine klare Governance, die festlegt, welcher KI-Agent was darf und warum.

Unternehmen, die diesen Weg professionell gehen wollen, brauchen mehr als ein installiertes Tool und ein paar gut formulierte Prompts. Sie brauchen ein Verständnis dafür, welche Engineering-Disziplin an welcher Stelle greift, wie sich die Architektur absichern lässt und wo die Grenzen aktueller Technologien liegen. Als IT-Unternehmen mit einem Schwerpunkt auf Digitalisierung und sichere Softwarelösungen begleitet affinis genau diese Vorhaben.

Kontakt aufnehmen

Machen Sie KI zum Game Changer für Ihr Business

Wir unterstützen Sie dabei, KI sinnvoll einzusetzen – mit echten Mehrwerten, praxisnahen Use Cases und langjähriger Umsetzungserfahrung.

Mehr erfahren

Über den Autor

Matthias Posvic

Team Lead Software Development

"Gemeinsam mit meinem Team entwickle ich individuelle Softwarelösungen und innovative KI-Agenten – von der Konzeption über skalierbare Architekturen bis zur produktiven Implementierung. Mein Fokus liegt auf praxisnaher Anwendung, sauberem Engineering und der konsequenten Berücksichtigung von Zero-Trust-Prinzipien von der IT-Infrastruktur bis zur fertigen Lösung."


Newsletter abonnieren

Erhalten Sie regelmäßige Updates zu Blogartikeln & Leistungen.


    Artikel teilen


    Noch mehr spannende Beiträge