Xcapit Labs
AiSec: Automatisierte Sicherheitsanalyse von OpenClaw — Dem Weltweit Beliebtesten KI-Agenten-Framework
Wie Xcapits AiSec-Framework 35 spezialisierte KI-Agenten einsetzte, um OpenClaw (191K GitHub-Sterne) in 4 Minuten und 12 Sekunden zu analysieren und dabei 63 Sicherheitsbefunde aufdeckte, darunter 8 kritische Schwachstellen — abgebildet auf 8 branchenuebliche Sicherheitsframeworks.
Sicherheitsbefunde
KI-Agenten
Analysezeit
Sicherheitsframeworks
Die Herausforderung
Die Einfuehrung von KI-Agenten in Produktionsumgebungen ist exponentiell gewachsen. Unternehmen setzen autonome Systeme ein, die Code ausfuehren, auf Datenbanken zugreifen, im Internet surfen, Dateien verwalten und mit APIs interagieren koennen — alles mit minimaler menschlicher Aufsicht. Dennoch bleiben die Sicherheitspraktiken rund um diese Einsaetze alarmierend unreif.
OpenClaw, mit 191.000 GitHub-Sternen, ist das meistgenutzte Open-Source-KI-Agenten-Framework der Welt. Es betreibt Produktionseinsaetze in den Bereichen Finanzen, Gesundheitswesen, Regierung und Unternehmenssoftware. Trotz seiner Allgegenwaertigkeit war es nie einer umfassenden, oeffentlich dokumentierten Sicherheitsanalyse unterzogen worden. Die wenigen existierenden Sicherheitsueberpruefungen waren manuell, unvollstaendig und nicht auf standardisierte Frameworks abgebildet — was es fuer Organisationen unmoeglich machte, ihre Risikoposition gegenueber etablierten Compliance-Benchmarks zu bewerten.
Die grundlegende Herausforderung war zweifach: Erstens fuehren KI-Agenten-Frameworks voellig neue Angriffsflaechen ein — Prompt-Injection, Sandbox-Escapes, uebermassige Handlungsfaehigkeit, unsichere Tool-Ausfuehrung — die traditionelle Anwendungssicherheitswerkzeuge nicht erkennen koennen. Zweitens machen der Umfang und die Komplexitaet moderner KI-Agenten-Codebasen eine manuelle Ueberpruefung unpraktikabel. Ein Framework wie OpenClaw enthaelt Hunderttausende von Codezeilen, die Agenten-Orchestrierung, Tool-Ausfuehrung, Speicherverwaltung und Provider-Integrationen umfassen.
Warum OpenClaw?
Die Entscheidung, OpenClaw zu analysieren, war bewusst getroffen. In der Sicherheitsforschung sind die Ziele mit dem groessten Einfluss diejenigen mit der breitesten Verbreitung. Eine Schwachstelle in einem Nischenwerkzeug betrifft Dutzende von Nutzern; eine Schwachstelle im beliebtesten KI-Agenten-Framework betrifft Tausende von Organisationen und Millionen von Endnutzern.
- 191.000 GitHub-Sterne — damit das beliebteste KI-Agenten-Framework mit erheblichem Abstand
- In Produktion genutzt von Tausenden von Unternehmen in regulierten und unregulierten Branchen
- Dient als Grundlage fuer zahlreiche kommerzielle Produkte und interne Werkzeuge
- Hat eine aktive Community von Beitragenden, aber sicherheitsfokussierte Beitraege machen nur einen kleinen Bruchteil der Gesamtentwicklung aus
- Es existierte kein frueheres umfassendes oeffentliches Sicherheitsaudit, trotz der kritischen Rolle des Frameworks in der Produktionsinfrastruktur
Durch die Wahl von OpenClaw als erstes Ziel fuer die oeffentliche Analyse von AiSec wollte Xcapit sowohl die Faehigkeiten des Frameworks als auch die dringende Notwendigkeit systematischer KI-Agenten-Sicherheit demonstrieren — beginnend mit dem Projekt, das die meisten Menschen betrifft.
AiSec-Framework: Die Loesung
AiSec ist ein Open-Source-Sicherheitsanalyse-Framework, das speziell fuer die Bewertung von KI-Agenten-Systemen entwickelt wurde. Im Gegensatz zu traditionellen statischen Analysewerkzeugen, die nach bekannten Schwachstellenmustern suchen, setzt AiSec 35 spezialisierte KI-Agenten ein — jeder trainiert, eine bestimmte Klasse von KI-Sicherheitsrisiken zu erkennen — die kollaborativ arbeiten, um eine umfassende Sicherheitsbewertung zu erstellen.
Das Framework basiert auf drei Prinzipien: Automatisierung (eine vollstaendige Analyse laeuft ohne menschliches Eingreifen), Reproduzierbarkeit (jeder kann AiSec installieren und identische Ergebnisse erzeugen) und Standardisierung (alle Befunde werden auf etablierte Sicherheitsframeworks abgebildet, nicht auf proprietaere Taxonomien).
- 35 spezialisierte KI-Agenten, jeder fokussiert auf einen bestimmten Sicherheitsbereich wie Prompt-Injection, Sandbox-Integritaet, Datenlecks oder Berechtigungsverwaltung
- 250+ Erkennungsregeln, die Schwachstellen abdecken, die spezifisch fuer KI-Agenten-Architekturen sind
- 8 Sicherheitsframework-Zuordnungen: OWASP Top 10 fuer LLM-Anwendungen, NIST AI RMF, MITRE ATLAS, ISO 42001, OWASP ASVS, CWE, NIST CSF und ISO 27001
- Per pip installierbar und Open Source — konzipiert fuer die Integration in CI/CD-Pipelines und Sicherheitsworkflows
- Strukturierte Ausgabe in JSON-, Markdown- und HTML-Formaten zur Integration mit bestehenden Sicherheits-Dashboards
Analysemethodik
Die Analyse von OpenClaw durch AiSec folgte einer Fuenfschicht-Architektur, die widerspiegelt, wie Sicherheitsexperten ein manuelles Audit angehen — aber in Minuten statt Wochen ausgefuehrt wird.
- Schicht 1 — Codebasis-Mapping: automatisierte Erkennung aller Agentendefinitionen, Tool-Registrierungen, Provider-Integrationen, Konfigurationsdateien und Einstiegspunkte. Dies erstellt einen strukturellen Graphen des gesamten Frameworks
- Schicht 2 — Statische Analyse: regelbasiertes und KI-gestuetztes Scanning nach bekannten Schwachstellenmustern, einschliesslich hartcodierter Anmeldedaten, unsicherer Deserialisierung, nicht validierter Eingaben und fehlender Zugriffskontrollen
- Schicht 3 — Semantische Analyse: KI-Agenten analysieren die Code-Semantik, um Risiken hoeherer Ordnung zu erkennen, die Pattern-Matching nicht finden kann — wie implizite Vertrauensannahmen, uebermassige Handlungsfaehigkeit von Sub-Agenten und Datenfluesse, die Sicherheitsgrenzen ohne Bereinigung ueberschreiten
- Schicht 4 — Kreuzvalidierung: Befunde aus den Schichten 2 und 3 werden kreuzreferenziert, um Falsch-Positive zu eliminieren und zusammengesetzte Schwachstellen zu identifizieren, bei denen mehrere einzeln risikoarme Muster sich zu risikoreichen Angriffsketten kombinieren
- Schicht 5 — Framework-Zuordnung und Priorisierung: validierte Befunde werden nach Schweregrad klassifiziert (kritisch, hoch, mittel, niedrig), relevanten Sicherheitsframework-Kontrollen zugeordnet und basierend auf Ausnutzbarkeit, Schadensradius und Behebungskomplexitaet priorisiert
Die gesamte Fuenfschicht-Pipeline wurde gegen die OpenClaw-Codebasis in 4 Minuten und 12 Sekunden ausgefuehrt — verarbeitete das vollstaendige Repository einschliesslich aller Agentendefinitionen, Tools, Konfigurationsdateien und Integrationscode.
Ergebnisuebersicht
Die Analyse ergab 63 Sicherheitsbefunde, verteilt auf vier Schweregrade:
- 8 Kritische Befunde — Probleme, die eine vollstaendige Kompromittierung des Agentensystems, unbefugten Datenzugriff oder beliebige Codeausfuehrung auf dem Host ermoeglichen koennten
- 15 Hohe Befunde — Schwachstellen, die ausgenutzt werden koennten, um Privilegien zu eskalieren, Sicherheitskontrollen zu umgehen oder sensible Daten unter spezifischen aber realistischen Bedingungen preiszugeben
- 22 Mittlere Befunde — Schwaechen, die die allgemeine Sicherheitsposition verringern und als Teil einer mehrstufigen Angriffskette ausgenutzt werden koennten
- 18 Niedrige Befunde — informative Probleme und Abweichungen von Best Practices, die als Teil der laufenden Sicherheitshygiene behoben werden sollten
Die Schweregradverteilung offenbart ein besorgniserregendes Muster: Die kritischen und hohen Befunde konzentrieren sich auf die fundamentalsten Bereiche der KI-Agenten-Sicherheit — Ausfuehrungs-Sandboxing, Prompt-Behandlung und Berechtigungsverwaltung. Es handelt sich nicht um Randfaelle; sie betreffen die zentralen Ausfuehrungspfade, die jeder OpenClaw-Einsatz nutzt.
Kritische Befunde
Die 8 kritischen Befunde, die von AiSec identifiziert wurden, stellen die schwerwiegendsten Sicherheitsrisiken in der OpenClaw-Codebasis dar. Waehrend die vollstaendigen technischen Details den OpenClaw-Maintainern durch verantwortungsvolle Offenlegung bereitgestellt wurden, koennen die Kategorien der Befunde zusammengefasst werden:
- Prompt-Injection-Vektoren: mehrere Pfade, ueber die adversariale Eingaben systemebene Anweisungen ueberschreiben koennten, was dazu fuehrt, dass Agenten unbeabsichtigte Aktionen ausfuehren oder vertraulichen Kontext preisgeben. Dem Framework fehlte eine systematische Eingabebereinigung an wichtigen Kommunikationsgrenzen zwischen Agenten
- Sandbox-Escape-Pfade: die Tool-Ausfuehrungsumgebung enthielt Standardkonfigurationen, die es Tools erlaubten, auf Host-Dateisystemressourcen, Umgebungsvariablen und Netzwerk-Endpunkte jenseits ihres vorgesehenen Umfangs zuzugreifen. Unter bestimmten Bedingungen konnte ein boesartiges Tool vollstaendig aus der Ausfuehrungs-Sandbox ausbrechen
- Datenleck-Kanaele: sensible Daten — einschliesslich API-Schluessel, Benutzer-Prompts und Modellantworten — konnten durch Logging-Mechanismen, Fehlermeldungen und Kommunikationskanaele zwischen Agenten exponiert werden, die nicht unter Beruecksichtigung der Vertraulichkeit entworfen wurden
- Berechtigungseskalation: das Agenten-Berechtigungsmodell setzte das Prinzip der minimalen Berechtigung nicht durch. Sub-Agenten konnten Berechtigungen von uebergeordneten Agenten ohne ausdrueckliche Autorisierung erben, was einem kompromittierten Sub-Agenten den Zugriff auf Ressourcen ermoeglichte, die nur fuer Kontexte mit hoeheren Privilegien bestimmt waren
Jeder kritische Befund wurde mit Proof-of-Concept-Angriffsszenarien, betroffenen Codepfaden und spezifischen Behebungsempfehlungen dokumentiert.
Framework-uebergreifende Zuordnung
Eine der wertvollsten Funktionen von AiSec ist die Faehigkeit, Befunde gleichzeitig auf mehrere Sicherheitsframeworks abzubilden. Dies ermoeglicht es Organisationen zu bewerten, wie OpenClaw-Schwachstellen ihre spezifische Compliance-Position beeinflussen, unabhaengig davon, welchem Framework sie folgen.
- OWASP Top 10 fuer LLM-Anwendungen: Befunde zugeordnet zu LLM01 (Prompt-Injection), LLM02 (Unsichere Ausgabebehandlung), LLM04 (Modell-Denial-of-Service), LLM06 (Uebermassige Handlungsfaehigkeit) und LLM08 (Uebermassige Autonomie)
- NIST AI RMF: Befunde ausgerichtet auf die Funktionen GOVERN, MAP, MEASURE und MANAGE — insbesondere in Bereichen der Transparenz und Risikoueberwachung von KI-Systemen
- MITRE ATLAS: Angriffstechniken zugeordnet zu Aufklaerungs-, Erstzugriffs-, Ausfuehrungs- und Exfiltrationstaktiken, die spezifisch fuer Machine-Learning-Systeme sind
- ISO 42001: Befunde verbunden mit KI-Managementsystem-Kontrollen fuer Risikobewertung, Sicherheitskontrollen und kontinuierliche Verbesserungsprozesse
- OWASP ASVS: traditionelle Anwendungssicherheitsanforderungen, die relevant bleiben, wenn KI-Agenten mit Webdiensten und APIs interagieren
- CWE: Common-Weakness-Enumeration-Eintraege fuer zugrunde liegende Software-Schwachstellen, die KI-spezifische Angriffe ermoeglichen
- NIST CSF: Cybersicherheits-Framework-Funktionen (Identify, Protect, Detect, Respond, Recover), abgebildet auf operationelle Kontexte von KI-Agenten
- ISO 27001: Kontrollen des Informationssicherheits-Managementsystems, anwendbar auf die Datenverarbeitung und Zugriffsverwaltung von KI-Agenten
Diese framework-uebergreifende Zuordnung bedeutet, dass ein CISO, der OpenClaw fuer den Einsatz in einer regulierten Umgebung bewertet, sofort sehen kann, welche Compliance-Kontrollen von jedem Befund betroffen sind — ohne die Zuordnung manuell durchfuehren zu muessen.
Behebungsprioritaeten
AiSec identifiziert nicht nur Probleme — es generiert priorisierte Behebungsempfehlungen basierend auf drei Faktoren: Ausnutzbarkeit (wie leicht die Schwachstelle ausgeloest werden kann), Schadensradius (wie viel Schaden ein erfolgreicher Exploit verursachen kann) und Behebungskomplexitaet (wie viel Ingenieursaufwand zur Loesung erforderlich ist).
- Prioritaet 1 — Sofort: Implementierung systematischer Eingabebereinigung an allen Agenten-zu-Agenten- und Benutzer-zu-Agenten-Kommunikationsgrenzen zur Minderung von Prompt-Injection. Geschaetzter Aufwand: 2 bis 3 Wochen
- Prioritaet 2 — Dringend: Haertung der Tool-Ausfuehrungs-Sandbox durch standardmaessige Durchsetzung strikter Dateisystem-, Netzwerk- und Speicherisolierung. Geschaetzter Aufwand: 3 bis 4 Wochen
- Prioritaet 3 — Hoch: Neugestaltung des Agenten-Berechtigungsmodells zur Durchsetzung minimaler Berechtigungen mit expliziter Faehigkeitsgewaehrung anstelle geerbter Berechtigungen. Geschaetzter Aufwand: 4 bis 6 Wochen
- Prioritaet 4 — Wichtig: Audit und Einschraenkung aller Logging- und Fehlerbehandlungspfade zur Verhinderung der Offenlegung sensibler Daten. Geschaetzter Aufwand: 1 bis 2 Wochen
- Prioritaet 5 — Empfohlen: Implementierung strukturierter Sicherheitsgrenzen zwischen Agenten-Speicherablagen zur Verhinderung kontextuebergreifender Datenlecks. Geschaetzter Aufwand: 2 bis 3 Wochen
Geschaetzter Gesamtbehebungsaufwand fuer alle 63 Befunde: circa 16 bis 22 Wochen fokussierter Ingenieursarbeit, wobei die kritischsten Punkte innerhalb der ersten 6 Wochen behoben werden koennen.
Wirkung und Offenlegung
Xcapit folgte einem verantwortungsvollen Offenlegungsprozess fuer alle Befunde mit kritischem und hohem Schweregrad. Die OpenClaw-Maintainer wurden mit vollstaendigen technischen Details, Proof-of-Concept-Demonstrationen und Behebungsanleitung vor jeder oeffentlichen Offenlegung benachrichtigt. Die Reaktion der OpenClaw-Community war konstruktiv — sie erkannte die Befunde an und initiierte Diskussionen ueber mehrere der empfohlenen architektonischen Aenderungen.
Die oeffentliche Veroeffentlichung der Analyse dient mehreren Zwecken: Sie versorgt die Tausenden von Organisationen, die OpenClaw nutzen, mit umsetzbaren Informationen ueber ihre Risikoexposition, sie demonstriert, dass automatisierte KI-Sicherheitsanalyse jetzt zu einem Bruchteil der Kosten und Zeit manueller Audits erreichbar ist, und sie etabliert einen Benchmark fuer das Niveau der Sicherheitsueberpruefung, das KI-Agenten-Frameworks vor dem Produktionseinsatz erhalten sollten.
Was Dies fuer KI-Agenten-Entwickler Bedeutet
Die Befunde der OpenClaw-Analyse sind nicht einzigartig fuer ein einzelnes Framework. Sie repraesentieren systemische Muster, die im gesamten KI-Agenten-Oekosystem existieren:
- Prompt-Injection bleibt die am weitesten verbreitete und am wenigsten eingedaemmte Bedrohung in KI-Agenten-Architekturen — die meisten Frameworks behandeln Prompts standardmaessig als vertrauenswuerdige Eingaben
- Tool-Ausfuehrungs-Sandboxing wird selten mit der fuer Produktionsumgebungen erforderlichen Strenge implementiert — Standardkonfigurationen tendieren dazu, permissiv statt restriktiv zu sein
- Berechtigungsmodelle in KI-Agenten-Frameworks sind typischerweise flach oder uebermassig breit und gewaehren Agenten mehr Zugriff als sie fuer die Ausfuehrung ihrer vorgesehenen Funktionen benoetigen
- Sicherheitsprotokollierung und -ueberwachung sind in den meisten KI-Agenten-Frameworks nachtraegliche Ueberlegungen, was die Erkennung von Vorfaellen und die forensische Analyse aeusserst schwierig macht
- Framework-uebergreifendes Compliance-Mapping existiert in den meisten KI-Sicherheitswerkzeugen nicht, was Organisationen zwingt, manuelle Bewertungen durchzufuehren, die teuer und inkonsistent sind
Jedes Team, das KI-Agenten in der Produktion einsetzt, sollte pruefen, ob das gewaehlte Framework diesem Grad der Ueberpruefung unterzogen wurde — und wenn nicht, sollte es die Analyse selbst durchfuehren.
Erste Schritte mit AiSec
AiSec ist Open Source und darauf ausgelegt, mit minimaler Einrichtung in bestehende Sicherheitsworkflows integriert zu werden. Die Installation erfordert einen einzigen Befehl:
- Installieren: pip install aisec
- Repository scannen: aisec scan /pfad/zum/ki-agenten-projekt
- Bericht generieren: aisec report --format html --frameworks owasp,nist,mitre
- In CI/CD integrieren: aisec scan --ci --fail-on critical,high
- Benutzerdefinierte Regeln: aisec scan --rules /pfad/zu/benutzerdefinierten-regeln.yaml
Das Framework unterstuetzt Codebasen in Python, TypeScript und Rust und kann jede KI-Agenten-Architektur unabhaengig vom zugrunde liegenden LLM-Anbieter analysieren. Die Analysezeit haengt von der Groesse der Codebasis ab, aber die meisten Projekte werden in weniger als 10 Minuten abgeschlossen.
Moechten Sie wissen, wie sicher Ihre KI-Agenten-Infrastruktur wirklich ist? Ob Sie ein umfassendes Sicherheitsaudit Ihrer KI-Systeme benoetigen, AiSec in Ihre Entwicklungspipeline integrieren moechten oder Hilfe bei der Behebung von Befunden in Ihren bestehenden Deployments brauchen — Xcapit hat die Werkzeuge und die Expertise. Lassen Sie uns sprechen.
Lassen Sie uns Großes bauen
KI, Blockchain & maßgeschneiderte Software — für Ihr Unternehmen.
Kontakt aufnehmenBereit, KI und Machine Learning zu nutzen?
Von prädiktiven Modellen bis MLOps — wir machen KI für Sie nutzbar.
Weitere Fallstudien
Xcapit Labs
Agentor: Ein sicheres KI-Agenten-Framework in Rust entwickeln
Wie ein Sicherheitsaudit eines Open-Source-KI-Agenten-Frameworks fundamentale Einschraenkungen von Python-basierten Laufzeitumgebungen aufdeckte — und Xcapit dazu veranlasste, Agentor zu entwickeln, ein natives Rust-Framework, optimiert fuer Codegenerierung.
UNICEF Innovation Fund
UNICEF Digital Wallet: finanzielle Inklusion für über 4 Millionen Menschen
Wie Xcapit eine blockchain-basierte digitale Wallet entwickelte, die über 4 Millionen Menschen in mehr als 167 Ländern im Rahmen des UNICEF Innovation Fund erreichte — anerkannt als Digital Public Good von der DPGA.