Homepage
All Cases
Zuletzt aktualisiert:
Autor: Okay Güler

Client Success Story

Uhren Symbol5 min.

Agentische KI sicher einsetzen: Skalierbare Sicherheitsstrategien für kritische Infrastrukturen

Wir halfen unserem Kunden bei der Absicherung eines KI-gestützten Kundenservice-Agenten der nächsten Generation – auf Basis eines Secure-by-Design-Frameworks, das Innovation konsequent mit Vertrauen verbindet.

A Robot with a human brain resembling Lady Justice floats in outerspace.

Der Impact auf einen Blick  

Das Ziel war es, eine sichere, widerstandsfähige und zukunftsfähige agentische KI-Plattform für ein europäisches Infrastrukturunternehmen zu entwickeln. Das Framework hilft dabei, fortgeschrittene KI-spezifische Bedrohungen zu mitigieren und verankert Prinzipien verantwortungsvoller KI, GDPR-Schutzmaßnahmen sowie eine robuste Governance für KI-Agenten, die im Namen des Kunden handeln. Es orientiert sich an der EU-KI-Verordnung (EU AI Act) und berücksichtigt bereits Anforderungen des kommenden Cyber Resilience Act (CRA), um langfristige Compliance und Vertrauen sicherzustellen. Durch die Integration von Security-by-Design über den gesamten Lebenszyklus werden transparente, sichere und verlässliche KI-Dienste sichergestellt. Dieser Ansatz ermöglicht es dem Kunden, KI vertrauensvoll und in großem Maßstab einzusetzen, während Nutzer*Innen, Daten und Geschäftsabläufe geschützt werden. 

 

Ausgangslage und Herausforderung  

Ein europäisches Infrastrukturunternehmen plante gemeinsam mit einer führenden Cloud-Plattform, aufbauend auf deren Enterprise-AI-Stack, seinen Kundenservice durch den Einsatz einer agentischen KI der nächsten Generation zu revolutionieren. Anders als einfache Generative KI (GenAI), die auf die Erstellung von Text, Bildern oder anderen Inhalten ausgelegt ist, sollte diese KI als „Agent“ fungieren – fähig, Aufgaben wie das Erstellen von Support-Tickets bis hin zur Rechnungsstellung eigenständig zu übernehmen. 

Obwohl die erwarteten geschäftlichen Vorteile enorm waren, erkannte das Führungsteam, dass eine KI mit Handlungsmacht eine völlig neue und komplexe Risikolandschaft mit sich bringt. Missbrauch oder Fehlfunktionen könnten zu unbefugten Kontoänderungen, unbeabsichtigter Datenoffenlegung oder Verstößen gegen regulatorische Vorgaben führen – Bedrohungen, die das Kundenvertrauen und den Markenruf unmittelbar gefährden könnten. Der anfängliche Fokus auf schnelle Innovation musste daher von Beginn an mit einer robusten Sicherheitsstrategie ausbalanciert werden, um Datenlecks, Compliance-Verstöße und Reputationsschäden zu verhindern. 

 

Was auf dem Spiel stand  

Ohne ein dediziertes Sicherheitsframework für agentische KI war das Unternehmen erheblichen und wachsenden Risiken ausgesetzt, die das gesamte Vorhaben gefährden konnten: 

  • Regulatorisches Risiko: Wenn Agenten auf personenbezogene Daten zugreifen und diese verändern, besteht ein hohes Risiko schwerwiegender DSGVO-Verstöße, falls sensible Informationen offengelegt werden. Die unabsichtliche Offenlegung privater Kundendaten würden zu einem direkten Vertrauens- und Umsatzverlust führen. In diesem Szenario würde der CISO persönlich für den Schutz der Daten und die Einhaltung gesetzlicher Vorgaben verantwortlich gemacht – das Risiko ist somit sowohl persönlicher als auch organisatorischer Natur. 
  • Operative und finanzielle Schäden: Ein kompromittierter Agent könnte manipuliert werden, um unautorisierte Aktionen durchzuführen – etwa das Ausstellen falscher Rückerstattungen – was die Kundenzufriedenheit und betriebliche Effizienz direkt beeinträchtigen würde. Dies stellt ein zentrales Risiko für den Head of Customer Experience dar. 
  • Reputationsschaden: Ein agentisches KI-System könnte dazu gebracht werden, voreingenommene, unangemessene oder schädliche Handlungen auszuführen, etwa den unsachgemäßen Umgang mit Kundendaten oder die Anwendung unfairer Geschäftslogik. Dies könnte dem öffentlichen Ansehen des Unternehmens schaden und die Markenintegrität des Unternehmens massiv beschädigen. Die Unternehmenskommunikation und die Geschäftsführung müssten die Folgen bewältigen und das Vertrauen wiederherstellen. 
  • Geschäftsrisiko: Ein gravierender Sicherheitsvorfall mit dem KI-Agenten könnte nicht nur das Projekt zum Stillstand bringen, sondern auch dazu führen, dass Investoren und Partner die Fähigkeit des Unternehmens, sicher zu innovieren, infrage stellen was seine Wettbewerbsposition am Markt gefährden würde. 

 

Unser Ansatz: So sind wir vorgegangen  

Wir haben ein Secure-by-Design-Framework implementiert, das die einzigartigen Bedrohungen agentischer KI adressierte, indem Sicherheit direkt im Modell, in den Tools des Agenten und in der umgebenden Infrastruktur verankert wurde. Der Ansatz war nicht nur technisch, sondern transformativ: 

  • Agenten-zentriertes Threat Modeling: Der erste Schritt war die Entwicklung eines Bedrohungsmodells, das sich speziell auf die Risiken eines handlungsfähigen KI-Agenten konzentrierte. Dies ging über klassische LLM-Risiken hinaus und analysierte insbesondere, wie die Tools des Agenten und verbundene APIs missbraucht werden könnten. 
  • Für die Implementierung mehrschichtiger KI-Schutzmaßnahmen haben ein vierstufiges Verteidigungssystem entwickelt: 
  • Input-/Output-Schutzmechanismen: Eine ausgefeilte Filterebene wurde implementiert, um bösartige Eingaben wie Prompt-Injection zu erkennen und zu blockieren. Dadurch wird verhindert, dass die KI zu fehlerhaftem Verhalten verleitet oder zu Handlungen gebracht wird, die nicht beabsichtigt sind. 
  • Granulare Kontrolle über die Aktionen des Agenten: Dies bildete den Kern der agentischen Sicherheit. Jedes Tool, das der Agent nutzen konnte (z. B. Zugriff auf ein CRM oder Interaktionen mit einem Abrechnungssystem), wurde nach dem Prinzip der minimalen Rechte abgesichert. Der Agent erhielt eng gefasste, widerrufbare Berechtigungen, und alle seine Aktionen wurden kontinuierlich protokolliert und auf Anomalien überwacht. 
  • Datenminimierung und Governance: Im Einklang mit den Prinzipien verantwortungsvoller KI wurde ein strenges Daten-Governance-Modell etabliert. Der Agent wurde so konzipiert, dass er nur auf die absolut notwendigen Daten für eine Aufgabe zugreift. Außerdem wurden die Trainingsdaten sorgfältig geprüft, um Verzerrungen zu minimieren. 
  • Observability & Monitoring: Um Transparenz und Vertrauen zu gewährleisten, wurde eine dedizierte Observability-Schicht integriert. Diese ermöglichte vollständige End-to-End-Sichtbarkeit auf Entscheidungen des Agenten, die Nutzung von Tools und Datenflüsse. Protokolle wurden mit SIEM/SOC-Systemen korreliert, um Anomalien zu erkennen, forensische Analysen zu ermöglichen und Echtzeitwarnungen auszugeben. Diese Ebene stärkte nicht nur die Sicherheit, sondern verbesserte auch die Erklärbarkeit und Audit-Fähigkeit. 
  • Kontinuierliche Penetrationstests für agentische KI: Wir haben regelmäßig spezialisierte Penetrationstests durchgeführt, um reale Angriffe zu simulieren. Diese Tests suchten gezielt nach LLM-spezifischen Schwachstellen wie Prompt-Injection, Datenexfiltration und Model Inversion, um sicherzustellen, dass die Verteidigungsmechanismen des Agenten auch gegen neue Bedrohungen robust bleiben. 

 

Greifbare Erfolge aus der Zusammenarbeit 

Die Zusammenarbeit schuf eine sichere und vertrauenswürdige Grundlage für die strategischen Investitionen des Unternehmens in agentische KI, wobei die Partnerschaft ausgeweitet wurde, um auch zukünftige KI-Initiativen zu steuern: 

  • Ausrichtung an Responsible AI & DSGVO: Das Framework stellte die technischen Kontrollen und Governance-Mechanismen bereit, die notwendig sind, um DSGVO-Verpflichtungen und CRA-Prinzipien einzuhalten. Interne Audits wurden ohne wesentliche Beanstandungen bestanden. 
  • Nachgewiesene Bedrohungsabwehr: Bereits im ersten Monat des Betriebs blockierten die Input-/Output-Schutzmechanismen über 1.000 Angriffsversuche, darunter Prompt-Injection- und Tool-Exploitation-Angriffe. 
  • Ermöglichte sichere Innovation: Das Sicherheitsframework gab dem Unternehmen die Sicherheit, den KI-Agenten für die gesamte Kundenbasis auszurollen. Die Bearbeitungszeit für Kundenanfragen konnte dadurch um 30 % reduziert werden ohne gemeldete Sicherheitsvorfälle während der Einführungsphase. 
  • Etablierung eines wiederverwendbaren KI-Sicherheitsframeworks: Das mehrschichtige Verteidigungsmodell wurde als Standard für alle zukünftigen agentischen KI-Projekte übernommen und ermöglicht so schnellere und zugleich sichere Innovationen im gesamten Unternehmen. 
  • Aufbau interner KI-Sicherheitsexpertise: Die Teams des Kunden entwickelten das notwendige Know-how, um LLM- und agentische KI-Risiken zu managen, und integrierten sichere KI-Praktiken in den täglichen Betrieb. 

Dieses Framework wird nun auf weitere KI-Initiativen in verschiedensten Branchen von Banken bis hin zum Gesundheitswesen ausgeweitet und unterstützt Unternehmen dabei, agentische KI mit Vertrauen einzusetzen und ein komplexes Risiko in einen Wettbewerbsvorteil zu verwandeln. 

Sind Ihre KI-Agenten bereit für den Einsatz in kritischen Infrastrukturen?

Gemeinsam mit uns entwickeln Sie eine Sicherheits- und Governance-Strategie für Ihre agentenbasierte KI – damit Sie verantwortungsvoll skalieren können, ohne bei Compliance und Datenschutz Kompromisse einzugehen.

KI-Security-Analyse anfragen
Okay

Okay

CEO
Okay ist unser CEO und Gründer. Seit über einem Jahrzehnt arbeitet er an der Schnittstelle von Technologie, Business und Security – mit der Überzeugung, dass Security keine technische Pflichtübung ist, sondern eine strategische Grundlage für nachhaltiges Wachstum. Er berät CISOs, CTOs und Technologieführungskräfte dabei, Security als Business-Strategie zu verankern. Ihn beschäftigt besonders die Frage, wie Organisationen in einer Welt, in der Vertrauen der entscheidende Wettbewerbsvorteil ist, innovativ entwickeln können.

Insights

Insights

Zum Beitrag: 6 kritische KI-Sicherheitsbedrohungen und wie Sie sich dagegen verteidigen
A robot with a human brain is floating in outer space with a laptop in hand.

KI-Sicherheit

6 kritische KI-Sicherheitsbedrohungen

6 kritische KI-Sicherheitsbedrohungen und wie Sie sich dagegen verteidigen

KI transformiert Branchen, öffnet aber auch die Tür für neue, schwer erkennbare Angriffe. In diesem Leitfaden erläutern wir sechs entscheidende Wege, wie Angreifer*Innen Ihre Modelle kompromittieren können, und zeigen Ihnen genau, wie Sie Ihre Modelle in jeder Phase des KI-Lebenszyklus verteidigen.

Weiterlesen
Zum Beitrag: Responsible AI in der Cybersecurity: Risiken in Chancen verwandeln

Consulting

Series: Cybersecurity Consulting in Transition

Responsible AI in der Cybersecurity: Risiken in Chancen verwandeln

KI transformiert Cybersecurity – sie verstärkt Bedrohungen und eröffnet zugleich neue Verteidigungspotenziale. Erfahren Sie, wie Sie die Kraft der KI verantwortungsvoll für nachhaltige Resilienz nutzen.

Weiterlesen
Zum Beitrag: Agentische KI sicher vernetzen – Risiken und Schutzmaßnahmen für das Model Context Protocol (MCP)

KI-Sicherheit

Agentische KI sicher vernetzen

Agentische KI sicher vernetzen – Risiken und Schutzmaßnahmen für das Model Context Protocol (MCP)

Mit zunehmender Autonomie von KI-Agenten wird MCP zum Rückgrat für den Zugriff auf Tools und Daten, aber auch zur neuen Angriffsfläche. Erfahren Sie, wie Sie MCP gegen Bedrohungen wie Tool-Poisoning, Rug Pulls und Supply-Chain-Angriffe absichern.

Weiterlesen

CLOUDYRION verbindet IT-Sicherheit mit einer Sicherheitskultur, die Ihre Projekte stärkt. Wir entwickeln gemeinsam sichere Architekturen, Prozesse und Lösungen, die Ihre IT-Strategie und Unternehmenskultur optimal unterstützen