Sichere Architekturen für KI-Agenten – Wie autonome LLM-Agenten eine verlässliche Kontrolle erhalten
von Sönke Magnussen, Mahbouba Gharbi
KI-Agenten auf Basis großer Sprachmodelle übernehmen zunehmend operative und strategische Aufgaben in Unternehmen. Dabei entsteht oft die Annahme, dass diese Systeme menschliche Verantwortung ersetzen können. Doch LLM-basierte Agenten sind keine objektiven Akteure: Sie interpretieren Eingaben, treffen Entscheidungen und führen Aktionen aus –und werden damit schnell zum schwer nachvollziehbaren Single Point of Failure. Maßnahmen wie Guardrails oder Prompt-Härtung reduzieren Symptome, lösen jedoch nicht das strukturelle Kernproblem autonomer Agentenarchitekturen: fehlende überprüfbare Verantwortungsketten.
Dieser Vortrag zeigt, wie Softwarearchitektur diese Risiken gezielt adressieren kann. Vorgestellt werden architektonische Muster wie Decision Gates, Vier-Augen-Prinzip als technische Regel, Explainability by Design und Confidence-Aware Interfaces. Darüber hinaus zeigen wir Ansätze, bei denen die eigentlichen Entscheidungen nicht von der KI allein getroffen werden. Stattdessen übernimmt eine klassische, regelbasierte Software die Planung und Ausführung. Das Sprachmodell dient lediglich dazu, Informationen zu verstehen und strukturiert aufzubereiten. So entstehen KI-Systeme, die nicht nur leistungsfähig, sondern auch kontrollierbar, auditierbar und verantwortungsvoll einsetzbar sind.