Agentische KI-Systeme krempeln die digitale Welt derzeit um – sie denken mit, entscheiden selbst und handeln eigenständig – so verschwimmt die Grenze zwischen technischer Funktion und eigenständigem Akteur. Diese neue Autonomie bringt Sicherheitsrisiken mit sich, die klassische Mechanismen wie Firewalls oder statische Zugriffskontrollen nicht mehr abdecken. Besonders kritisch ist die „lethal trifecta“: der gleichzeitige Zugriff auf vertrauliche Daten, manipulative Inhalte und externe Kommunikationskanäle. Im Gespräch mit Jörg Egretzberger, CEO der TIMETOACT GROUP Österreich, beleuchten wir, welche Risiken daraus entstehen, wie Governance neu gedacht werden muss und welche technischen Maßnahmen Sicherheit und Kontrolle gewährleisten können.

Entstehen durch AI-Agenten neue Risikotypen, die klassische IT-Sicherheitsmodelle – wie Firewalls, IAM oder rollenbasierte Zugriffe – nicht ausreichend adressieren können?

Jörg Egretzberger: Absolut. Wenn AI-Agenten autonom agieren – eigenständig Entscheidungen treffen und Aufgaben ausführen - entstehen völlig neue Angriffsflächen, für die klassische Sicherheitsmaßnahmen wie Firewalls, IAM, rollenbasierte Zugriffe usw. nie konzipiert wurden. Im Gegensatz zu festen Softwareskripten können agentische KI-Systeme ihre Aktionen dynamisch erzeugen, wodurch ganz neue Bedrohungstypen entstehen.

Ein Beispiel ist die Prompt Injection: Angreifer verstecken schädliche Anweisungen in scheinbar harmlosen Daten wie in Dokumenten oder Benutzer-Nachrichten. Traditionelle Sicherheitsmaßnahmen erkennen dies nicht, da es sich nicht um Viren oder bekannte Exploits handelt. Dennoch könnte beispielsweise ein PDF mit verstecktem Text einen KI-Agenten dazu bringen, vertrauliche Informationen über das Web an einen Angreifer zu übermitteln. Solche Vorfälle wurden bereits von Unternehmen berichtet.

Microsoft und das Open Worldwide Application Security Project (OWASP) betrachten Prompt Injection mittlerweile als hohes Risiko und empfehlen mehrere Schichten deterministischer Schutzmaßnahmen – nicht nur heuristische. Die Forschungsgemeinschaft hat außerdem konkrete Design-Patterns zur Absicherung von KI-Agenten veröffentlicht.

Bei TIMETOACT reduzieren wir dieses Risiko, indem wir das Denken und Handeln der Agenten einschränken. Mittels Schema-Guided Reasoning folgen Agenten vordefinierten, geprüften Denkschritten anstelle freier Improvisation, wodurch die Angriffsfläche durch „kreative“ Aktionsketten deutlich reduziert wird.

Wie lässt sich sicherstellen, dass Governance, Verantwortlichkeit und Nachvollziehbarkeit erhalten bleiben und wer „haftet“, wenn ein Agent eine unerwartete Entscheidung trifft?

Egretzberger: Die Verantwortung bleibt immer beim Betreiber. Führende Leitlinien betonen dabei zentrale Prinzipien: Für jeden Agenten muss ein verantwortlicher Business Owner benannt werden. Alle Aktivitäten des Agenten sind durch umfassendes Tracing und Logging vollständig nachverfolgbar und eindeutig zuordenbar – jeder Agent erhält eine eigene Identität mit minimalen Zugriffsrechten. Zudem muss jederzeit ein Eingriff möglich sein, etwa durch menschliche Freigaben für sensible Aktionen oder einen Kill-Switch. Dieser kontrollierte Mechanismus erlaubt es, einen KI-Agenten sofort zu unterbrechen, zu deaktivieren oder in einen sicheren Zustand zu versetzen, um Schaden zu verhindern oder Fehlverhalten zu stoppen.

Auch Governance-Dokumente von OpenAI sowie die Launch- und Post-Launch-Reviews von Google weisen in diese Richtung: Policy-as-Code, regelmäßige Audits, lückenlose Dokumentation von Modellen und Anwendungen sowie kontinuierliches Monitoring. IBM ergänzt diese Ansätze um Vorbereitungen auf den EU AI Act und durchgängige KI-Governance und Observability in produktiven Umgebungen.

Im AI Strategy & Research Hub der TIMETOACT GROUP setzen wir diese Prinzipien konsequent um. Durch Schema-Guided Reasoning (SGR) machen wir die Schlussfolgerungen großer Sprachmodelle test- und nachvollziehbar und prüfen datenbasiert die einzelnen logischen Schritte. Jeder Prozess wird vollständig protokolliert. Bei Bedarf bieten wir lokale, air-gapped Implementierungen von KI-Modellen an, was sich in Projekten beispielsweise im Finanzsektor bewährt hat. Dadurch reduzieren wir Risiken und vereinfachen Audits.

Welche technischen Maßnahmen sind nötig, um die Sicherheit von agentischen KI-Systemen zu gewährleisten – etwa im Hinblick auf dynamische Autorisierung, Kontextsensitivität, Datenabschottung und Schutz vor Prompt Injection?

Egretzberger: Um eine vertrauenswürdige KI zu schaffen, gilt der Grundsatz: Zero Trust gegenüber Agenten – verbunden mit gründlichen Tests. Dafür braucht es ein mehrschichtiges Schutzkonzept, das Risiken aus verschiedenen Perspektiven minimiert.

Erstens: Die dynamische Autorisierung und Identitätsverwaltung. Jeder Agent erhält eine eigene Identität mit zeitlich begrenzten, minimalen Zugriffsrechten (Just-in-Time, Least Privilege). Risikobehaftete Tool-Aufrufe werden durch Policy Engines überprüft, sensible Aktionen erfordern menschliche Freigaben. Große Anbieter wie Microsoft, Google und OpenAI setzen diesen Ansatz bereits konsequent um.

Zweitens: Die strikte Datenisolation. Sensible Daten müssen vollständig von externen Kommunikationskanälen getrennt bleiben. Netzwerke werden deaktiviert, wenn kritische Daten verarbeitet werden, und Code-Ausführung erfolgt in isolierten Umgebungen. Die sogenannte „lethal trifecta“ – also der gleichzeitige Zugriff auf Daten, Inhalte und Kommunikationskanäle – darf nie in einer einzigen Sitzung auftreten.

Drittens: Der Schutz vor Prompt Injection. Hier kombinieren wir deterministische Maßnahmen wie Output-Sanitisierung, Tool-Call-Whitelists und Ausgangsfilter mit probabilistischen Prüfungen. Wir orientieren uns an etablierten Methoden aus der Forschung – etwa zur Kontextminimierung, strukturierten Planung und doppelten LLM-Validierung. Ein „zweites KI-Augenpaar“ zur Kontrolle erhöht dabei die Sicherheit erheblich.

Viertens: Observability, Red Teaming und klare Schutzrichtlinien. Wir identifizieren potenzielle Risiken proaktiv und schließen sie gezielt. Das umfasst vollständige Nachvollziehbarkeit aller Agentenschritte, gezieltes Red Teaming gegen Injektionen und Datenabfluss sowie verbindliche Schutzmechanismen bei Eingaben, Ausgaben und Tool-Aufrufen. Führende KI-Anbieter integrieren solche Audit- und Überwachungsmechanismen bereits standardmäßig.

Unser Ansatz bei TIMETOACT setzt zusätzlich auf Schema-Guided Reasoning (SGR). Damit definieren wir das logische Vorgehen von Agenten im Voraus und machen es testbar – ihr Verhalten wird vorhersehbar und überprüfbar.

Blog

[eBook] Willkommen im Zeitalter der AI Agents!

Ein digitales Team, das Mails schreibt, Daten analysiert & Kunden betreut – klingt nach Sci-Fi? Mit Google Agentspace wird das Realität. Entdeckt jetzt, wie AI Agents Euch den Alltag erleichtern!

Blogbeitrag, was bedeutet Zero Trust bedeutet
Blog 30.09.20

Zero Trust – oder lassen Sie jeden rein?

Was bedeutet Zero Trust? Wie funktioniert es und welchen Nutzen hat es? Diese und weitere Fragen beantworten wir in unserem Blogbeitrag!

Blog 16.05.24

Fehler in der Entwicklung von AI-Assistenten

Erfolgreiche AI-Assistenten starten mit den richtigen Learnings: Erfahren Sie, warum viele Unternehmen scheitern und wie Sie typische Fehler vermeiden – für eine optimale Umsetzung Ihrer AI-Projekte!

Blog 16.09.24

Business Innovation und Digitale Transformation mit AI

Die Implementierung von AI bietet enormes Potenzial für Unternehmen – von Effizienzsteigerungen bis hin zu völlig neuen Geschäftsmodellen. Doch wie jede technologische Revolution birgt sie auch Risiken und Fallstricke. In diesem Blogbeitrag werfen wir einen Blick auf die Potenziale von AI für Unternehmen und auf die häufigsten Fehler, die Sie bei der Einführung vermeiden sollten.

Blog 16.05.24

In 8 Schritten zu AI-Innovationen im Unternehmen

Künstliche Intelligenz ist längst mehr als ein Schlagwort – sie schafft echten Business Value. Mit unserem achtstufigen Ansatz unterstützen wir Unternehmen auf dem Weg zur erfolgreichen AI-Nutzung.

Blog 17.05.24

8 Tipps zur Entwicklung von AI-Assistenten

AI-Assistenten sind ein Hype, und viele Teams arbeiten mit Begeisterung an ihrer Umsetzung. Doch in Europa und den USA scheitern viele an dieser Herausforderung. Damit Ihnen das nicht passiert, haben

Teaser Bild Interview Roher Jakober Kopie
Blog 29.06.22

Zero Trust dank modernem Authorization Management

Wie können Unternehmen eine Zero Trust Policy implementieren? Und was muss dabei berücksichtigt werden? Diesen Fragen stellten sich Pascal Jacober, Sales Director Europe bei PlainID, und Marco Rohrer, Chairman & Co-Founder der IPG, in einem Interview.

Blog 16.05.24

Fehler in der Entwicklung von AI-Assistenten

Erfolgreiche AI-Assistenten starten mit den richtigen Learnings: Erfahren Sie, warum viele Unternehmen scheitern und wie Sie typische Fehler vermeiden – für eine optimale Umsetzung Ihrer AI-Projekte!

Blog 17.05.24

8 Tipps zur Entwicklung von AI-Assistenten

AI-Assistenten sind ein Hype, und viele Teams arbeiten mit Begeisterung an ihrer Umsetzung. Doch in Europa und den USA scheitern viele an dieser Herausforderung. Damit Ihnen das nicht passiert, haben

Blog 16.05.24

In 8 Schritten zu AI-Innovationen im Unternehmen

Künstliche Intelligenz ist längst mehr als ein Schlagwort – sie schafft echten Business Value. Mit unserem achtstufigen Ansatz unterstützen wir Unternehmen auf dem Weg zur erfolgreichen AI-Nutzung.

Blog

[Report] AI for social good

Erfahre alle relevanten Kennzahlen zur Generativen KI und lerne von den führenden Unternehmen, wie sie bereits signifikante Zuwächse bei Jahresumsatz und ROI verzeichnen können dank Gen AI.

Blog

[eBook] AI Trends 2025 Public Sector

Erfahre, wie der Öffentliche Sektor von aktuellen AI Trends profitieren kann – kostenlos zusammengefasst in unserem eBook.

Blog

[eBook] Building The Foundation For AI Success

AI Hypercomputer entdecken: KI-optimierte Hardware, Software und smarter Energieeinsatz – für maximale Effizienz und Produktivität der nächsten Generation.

Navigationsbild zu Data Science
Service

AI & Data Science

Wir bieten umfassende Lösungen im Bereich Data Science, Machine Learning und AI, die auf Ihre spezifischen Herausforderungen und Ziele zugeschnitten sind.

Event Archive 22.10.24

AI Meetup 2024

Führende AI-Experten der TIMETOACT GROUP und aus unserem Partnernetzwerk laden Sie zu einem spannenden Abend im schönen Hauptquartier des AI Village ein, an dem wir das Thema Künstliche Intelligenz (AI) aus pragmatischer Sicht auf den Prüfstand stellen und konkrete Anwendungsbereiche aus der Praxis näher beleuchten.

Service

Artificial Intelligence: Effizienz steigern mit AI-Beratung

Artificial Intelligence im Unternehmen: Mit AI-Beratung und -Strategie Prozesse automatisieren und Effizienz steigern. Jetzt Reifegrad prüfen!

Titelbild zum Expertenbericht IAM im Spital - Gesundheitswesen
Blog 23.06.20

Brauchen wir ein "Patient-IAM"?

Die Dynamik einer Pandemie kollidiert mit der Schwerfälligkeit der Institutionen bei der Einführung Elektronischer Patientenakten.

Blog

Responsible AI: Ein Leitfaden für ethische KI-Entwicklung

Responsible AI ist ein entscheidendes Gebot bei der Entwicklung und dem Einsatz von KI-Technologien. Alles, was du dazu wissen musst, findest du hier!

Blog 20.02.24

Artificial Intelligence – No more experiments?!

Artificial Intelligence (AI) ist in aller Munde. Nach unserer Einschätzung – und damit deckungsgleich mit Prognosen von TechTarget, IDG und anderen Analysten – wird sich das auch im Jahr 2024 nicht ändern.

Atlassian Cloud Free trial - Kostenfrei Testen
Offering 02.09.22

Atlassian Cloud testen

Jetzt Atlassian Cloud-Produkte wie Jira und Confluence kostenlos testen und evaluieren.