
05.05.2026 | News Wer KI-Agenten einstellt, muss sie auch führen
Unternehmen holen sich gerade digitale Mitarbeiter ins Haus – und das ist eine enorme Chance. KI-Agenten können Prozesse beschleunigen, Entscheidungen vorbereiten und Teams spürbar entlasten. Doch genau weil sie so viel bewirken, brauchen sie auch Führung. Denn KI-Agenten sind weit mehr als nur Tools: Sie sind stets verfügbare digitale Mitarbeiter mit Systemrechten. Genau das macht sie so produktiv – aber auch sicherheitsrelevant. Werden sie manipuliert, können sie operative Geschäftsprozesse beeinflussen, etwa Zahlungen anstoßen, Berechtigungen ändern oder auf sensible Daten zugreifen.
Ein Einfallstor dafür liefert die Steuerung der Agenten über menschliche Sprache. So genannte Prompt Injections, eingeschleuste Anweisungen in E-Mails, Tickets, Webseiten oder Dokumenten können dafür sorgen, dass Agenten Regeln umgehen, sensible Daten offenlegen oder Tools missbrauchen. Agenten lesen also nicht nur über etwas, sondern lassen sich oft auch durch das Gelesene leiten. Besonders heikel ist das, wenn die Agenten Zugriff auf mehrere Systeme haben. Dann kann eine einzelne Manipulation mehrere nachgelagerte Aktionen auslösen.
Risiken entstehen aber nicht nur durch Angriffe. Es genügt auch schon, wenn ein Agent die falschen Türen öffnen darf. Ein Beispiel dafür sind Wissens- und Recherche-Agenten, die auf interne Dokumente zugreifen. Hier entscheidet sich die Sicherheit an einer scheinbar banalen Frage – nämlich, ob das System auch wirklich jedes Dokument nur innerhalb der bestehenden Berechtigungen verwendet. Die Antworten dürfen nur das enthalten, was der Nutzer auch sehen darf, sonst besteht das Risiko, dass die KI bereitwillig Geheimnisse ausplaudert.
Leistungsfähige KI-Agenten übernehmen repetitive Aufgaben, beschleunigen Abläufe und verschaffen Mitarbeitenden Freiräume für wertschöpfendere Tätigkeiten. Leistungsfähigkeit alleine reicht aber nicht aus, die KI-Agenten müssen auch steuerbar sein. Unternehmen müssen nachvollziehen können, was ein Agent tut, auf welche Daten er zugreift, welche Tools er aufruft und wie seine Entscheidungen zustande kommen. In kritischen Prozessen dürfen KI-Agenten keine Black Box sein. Sie brauchen klare Berechtigungen, feste Grenzen, kontrollierte Schnittstellen und eine lückenlose Protokollierung. Und Unternehmen sollten sie im Notfall jederzeit stoppen können.
Wer agentenbasierte KI einführt, sollte nicht wie bei einem Chatbot-Projekt denken, sondern eher wie beim Onboarding eines neuen, hochprivilegierten Mitarbeiters – und sie sicher in die Unternehmensprozesse integrieren: mit minimalen Rechten, klaren Verantwortlichkeiten, permanenter Protokollierung und definierten Stop- und Eskalationswegen. Am Ende entscheidet nicht nur die Intelligenz von KI-Agenten über ihren Erfolg, sondern wie gut wir sie in unsere Prozesse integrieren und verantwortungsvoll einsetzen.
Der Autor
Franz Kögl
