Skip to main content
Xcapit

Xcapit Labs

AiSec: Automatisierte Sicherheitsanalyse von OpenClaw — Dem Weltweit Beliebtesten KI-Agenten-Framework

Wie Xcapits AiSec-Framework 35 spezialisierte KI-Agenten einsetzte, um OpenClaw (191K GitHub-Sterne) in 4 Minuten und 12 Sekunden zu analysieren und dabei 63 Sicherheitsbefunde aufdeckte, darunter 8 kritische Schwachstellen — abgebildet auf 8 branchenuebliche Sicherheitsframeworks.

PythonOWASP Top 10 for LLMNIST AI RMFMITRE ATLASISO 42001OWASP ASVSCWENIST CSFISO 27001
63

Sicherheitsbefunde

35

KI-Agenten

4m 12s

Analysezeit

8

Sicherheitsframeworks

Case Studies
AiSec analysiert OpenClaw: 35 KI-Agenten scannen das weltweit beliebteste KI-Agenten-Framework
AiSecs 35 spezialisierte KI-Agenten analysierten die gesamte OpenClaw-Codebasis in 4 Minuten und 12 Sekunden.

Die Herausforderung

Die Einfuehrung von KI-Agenten in Produktionsumgebungen ist exponentiell gewachsen. Unternehmen setzen autonome Systeme ein, die Code ausfuehren, auf Datenbanken zugreifen, im Internet surfen, Dateien verwalten und mit APIs interagieren koennen — alles mit minimaler menschlicher Aufsicht. Dennoch bleiben die Sicherheitspraktiken rund um diese Einsaetze alarmierend unreif.

OpenClaw, mit 191.000 GitHub-Sternen, ist das meistgenutzte Open-Source-KI-Agenten-Framework der Welt. Es betreibt Produktionseinsaetze in den Bereichen Finanzen, Gesundheitswesen, Regierung und Unternehmenssoftware. Trotz seiner Allgegenwaertigkeit war es nie einer umfassenden, oeffentlich dokumentierten Sicherheitsanalyse unterzogen worden. Die wenigen existierenden Sicherheitsueberpruefungen waren manuell, unvollstaendig und nicht auf standardisierte Frameworks abgebildet — was es fuer Organisationen unmoeglich machte, ihre Risikoposition gegenueber etablierten Compliance-Benchmarks zu bewerten.

Die grundlegende Herausforderung war zweifach: Erstens fuehren KI-Agenten-Frameworks voellig neue Angriffsflaechen ein — Prompt-Injection, Sandbox-Escapes, uebermassige Handlungsfaehigkeit, unsichere Tool-Ausfuehrung — die traditionelle Anwendungssicherheitswerkzeuge nicht erkennen koennen. Zweitens machen der Umfang und die Komplexitaet moderner KI-Agenten-Codebasen eine manuelle Ueberpruefung unpraktikabel. Ein Framework wie OpenClaw enthaelt Hunderttausende von Codezeilen, die Agenten-Orchestrierung, Tool-Ausfuehrung, Speicherverwaltung und Provider-Integrationen umfassen.

Warum OpenClaw?

Die Entscheidung, OpenClaw zu analysieren, war bewusst getroffen. In der Sicherheitsforschung sind die Ziele mit dem groessten Einfluss diejenigen mit der breitesten Verbreitung. Eine Schwachstelle in einem Nischenwerkzeug betrifft Dutzende von Nutzern; eine Schwachstelle im beliebtesten KI-Agenten-Framework betrifft Tausende von Organisationen und Millionen von Endnutzern.

  • 191.000 GitHub-Sterne — damit das beliebteste KI-Agenten-Framework mit erheblichem Abstand
  • In Produktion genutzt von Tausenden von Unternehmen in regulierten und unregulierten Branchen
  • Dient als Grundlage fuer zahlreiche kommerzielle Produkte und interne Werkzeuge
  • Hat eine aktive Community von Beitragenden, aber sicherheitsfokussierte Beitraege machen nur einen kleinen Bruchteil der Gesamtentwicklung aus
  • Es existierte kein frueheres umfassendes oeffentliches Sicherheitsaudit, trotz der kritischen Rolle des Frameworks in der Produktionsinfrastruktur

Durch die Wahl von OpenClaw als erstes Ziel fuer die oeffentliche Analyse von AiSec wollte Xcapit sowohl die Faehigkeiten des Frameworks als auch die dringende Notwendigkeit systematischer KI-Agenten-Sicherheit demonstrieren — beginnend mit dem Projekt, das die meisten Menschen betrifft.

AiSec-Framework: Die Loesung

AiSec ist ein Open-Source-Sicherheitsanalyse-Framework, das speziell fuer die Bewertung von KI-Agenten-Systemen entwickelt wurde. Im Gegensatz zu traditionellen statischen Analysewerkzeugen, die nach bekannten Schwachstellenmustern suchen, setzt AiSec 35 spezialisierte KI-Agenten ein — jeder trainiert, eine bestimmte Klasse von KI-Sicherheitsrisiken zu erkennen — die kollaborativ arbeiten, um eine umfassende Sicherheitsbewertung zu erstellen.

Das Framework basiert auf drei Prinzipien: Automatisierung (eine vollstaendige Analyse laeuft ohne menschliches Eingreifen), Reproduzierbarkeit (jeder kann AiSec installieren und identische Ergebnisse erzeugen) und Standardisierung (alle Befunde werden auf etablierte Sicherheitsframeworks abgebildet, nicht auf proprietaere Taxonomien).

  • 35 spezialisierte KI-Agenten, jeder fokussiert auf einen bestimmten Sicherheitsbereich wie Prompt-Injection, Sandbox-Integritaet, Datenlecks oder Berechtigungsverwaltung
  • 250+ Erkennungsregeln, die Schwachstellen abdecken, die spezifisch fuer KI-Agenten-Architekturen sind
  • 8 Sicherheitsframework-Zuordnungen: OWASP Top 10 fuer LLM-Anwendungen, NIST AI RMF, MITRE ATLAS, ISO 42001, OWASP ASVS, CWE, NIST CSF und ISO 27001
  • Per pip installierbar und Open Source — konzipiert fuer die Integration in CI/CD-Pipelines und Sicherheitsworkflows
  • Strukturierte Ausgabe in JSON-, Markdown- und HTML-Formaten zur Integration mit bestehenden Sicherheits-Dashboards

Analysemethodik

Die Analyse von OpenClaw durch AiSec folgte einer Fuenfschicht-Architektur, die widerspiegelt, wie Sicherheitsexperten ein manuelles Audit angehen — aber in Minuten statt Wochen ausgefuehrt wird.

  • Schicht 1 — Codebasis-Mapping: automatisierte Erkennung aller Agentendefinitionen, Tool-Registrierungen, Provider-Integrationen, Konfigurationsdateien und Einstiegspunkte. Dies erstellt einen strukturellen Graphen des gesamten Frameworks
  • Schicht 2 — Statische Analyse: regelbasiertes und KI-gestuetztes Scanning nach bekannten Schwachstellenmustern, einschliesslich hartcodierter Anmeldedaten, unsicherer Deserialisierung, nicht validierter Eingaben und fehlender Zugriffskontrollen
  • Schicht 3 — Semantische Analyse: KI-Agenten analysieren die Code-Semantik, um Risiken hoeherer Ordnung zu erkennen, die Pattern-Matching nicht finden kann — wie implizite Vertrauensannahmen, uebermassige Handlungsfaehigkeit von Sub-Agenten und Datenfluesse, die Sicherheitsgrenzen ohne Bereinigung ueberschreiten
  • Schicht 4 — Kreuzvalidierung: Befunde aus den Schichten 2 und 3 werden kreuzreferenziert, um Falsch-Positive zu eliminieren und zusammengesetzte Schwachstellen zu identifizieren, bei denen mehrere einzeln risikoarme Muster sich zu risikoreichen Angriffsketten kombinieren
  • Schicht 5 — Framework-Zuordnung und Priorisierung: validierte Befunde werden nach Schweregrad klassifiziert (kritisch, hoch, mittel, niedrig), relevanten Sicherheitsframework-Kontrollen zugeordnet und basierend auf Ausnutzbarkeit, Schadensradius und Behebungskomplexitaet priorisiert

Die gesamte Fuenfschicht-Pipeline wurde gegen die OpenClaw-Codebasis in 4 Minuten und 12 Sekunden ausgefuehrt — verarbeitete das vollstaendige Repository einschliesslich aller Agentendefinitionen, Tools, Konfigurationsdateien und Integrationscode.

Ergebnisuebersicht

Die Analyse ergab 63 Sicherheitsbefunde, verteilt auf vier Schweregrade:

  • 8 Kritische Befunde — Probleme, die eine vollstaendige Kompromittierung des Agentensystems, unbefugten Datenzugriff oder beliebige Codeausfuehrung auf dem Host ermoeglichen koennten
  • 15 Hohe Befunde — Schwachstellen, die ausgenutzt werden koennten, um Privilegien zu eskalieren, Sicherheitskontrollen zu umgehen oder sensible Daten unter spezifischen aber realistischen Bedingungen preiszugeben
  • 22 Mittlere Befunde — Schwaechen, die die allgemeine Sicherheitsposition verringern und als Teil einer mehrstufigen Angriffskette ausgenutzt werden koennten
  • 18 Niedrige Befunde — informative Probleme und Abweichungen von Best Practices, die als Teil der laufenden Sicherheitshygiene behoben werden sollten

Die Schweregradverteilung offenbart ein besorgniserregendes Muster: Die kritischen und hohen Befunde konzentrieren sich auf die fundamentalsten Bereiche der KI-Agenten-Sicherheit — Ausfuehrungs-Sandboxing, Prompt-Behandlung und Berechtigungsverwaltung. Es handelt sich nicht um Randfaelle; sie betreffen die zentralen Ausfuehrungspfade, die jeder OpenClaw-Einsatz nutzt.

Kritische Befunde

Die 8 kritischen Befunde, die von AiSec identifiziert wurden, stellen die schwerwiegendsten Sicherheitsrisiken in der OpenClaw-Codebasis dar. Waehrend die vollstaendigen technischen Details den OpenClaw-Maintainern durch verantwortungsvolle Offenlegung bereitgestellt wurden, koennen die Kategorien der Befunde zusammengefasst werden:

  • Prompt-Injection-Vektoren: mehrere Pfade, ueber die adversariale Eingaben systemebene Anweisungen ueberschreiben koennten, was dazu fuehrt, dass Agenten unbeabsichtigte Aktionen ausfuehren oder vertraulichen Kontext preisgeben. Dem Framework fehlte eine systematische Eingabebereinigung an wichtigen Kommunikationsgrenzen zwischen Agenten
  • Sandbox-Escape-Pfade: die Tool-Ausfuehrungsumgebung enthielt Standardkonfigurationen, die es Tools erlaubten, auf Host-Dateisystemressourcen, Umgebungsvariablen und Netzwerk-Endpunkte jenseits ihres vorgesehenen Umfangs zuzugreifen. Unter bestimmten Bedingungen konnte ein boesartiges Tool vollstaendig aus der Ausfuehrungs-Sandbox ausbrechen
  • Datenleck-Kanaele: sensible Daten — einschliesslich API-Schluessel, Benutzer-Prompts und Modellantworten — konnten durch Logging-Mechanismen, Fehlermeldungen und Kommunikationskanaele zwischen Agenten exponiert werden, die nicht unter Beruecksichtigung der Vertraulichkeit entworfen wurden
  • Berechtigungseskalation: das Agenten-Berechtigungsmodell setzte das Prinzip der minimalen Berechtigung nicht durch. Sub-Agenten konnten Berechtigungen von uebergeordneten Agenten ohne ausdrueckliche Autorisierung erben, was einem kompromittierten Sub-Agenten den Zugriff auf Ressourcen ermoeglichte, die nur fuer Kontexte mit hoeheren Privilegien bestimmt waren

Jeder kritische Befund wurde mit Proof-of-Concept-Angriffsszenarien, betroffenen Codepfaden und spezifischen Behebungsempfehlungen dokumentiert.

Framework-uebergreifende Zuordnung

Eine der wertvollsten Funktionen von AiSec ist die Faehigkeit, Befunde gleichzeitig auf mehrere Sicherheitsframeworks abzubilden. Dies ermoeglicht es Organisationen zu bewerten, wie OpenClaw-Schwachstellen ihre spezifische Compliance-Position beeinflussen, unabhaengig davon, welchem Framework sie folgen.

  • OWASP Top 10 fuer LLM-Anwendungen: Befunde zugeordnet zu LLM01 (Prompt-Injection), LLM02 (Unsichere Ausgabebehandlung), LLM04 (Modell-Denial-of-Service), LLM06 (Uebermassige Handlungsfaehigkeit) und LLM08 (Uebermassige Autonomie)
  • NIST AI RMF: Befunde ausgerichtet auf die Funktionen GOVERN, MAP, MEASURE und MANAGE — insbesondere in Bereichen der Transparenz und Risikoueberwachung von KI-Systemen
  • MITRE ATLAS: Angriffstechniken zugeordnet zu Aufklaerungs-, Erstzugriffs-, Ausfuehrungs- und Exfiltrationstaktiken, die spezifisch fuer Machine-Learning-Systeme sind
  • ISO 42001: Befunde verbunden mit KI-Managementsystem-Kontrollen fuer Risikobewertung, Sicherheitskontrollen und kontinuierliche Verbesserungsprozesse
  • OWASP ASVS: traditionelle Anwendungssicherheitsanforderungen, die relevant bleiben, wenn KI-Agenten mit Webdiensten und APIs interagieren
  • CWE: Common-Weakness-Enumeration-Eintraege fuer zugrunde liegende Software-Schwachstellen, die KI-spezifische Angriffe ermoeglichen
  • NIST CSF: Cybersicherheits-Framework-Funktionen (Identify, Protect, Detect, Respond, Recover), abgebildet auf operationelle Kontexte von KI-Agenten
  • ISO 27001: Kontrollen des Informationssicherheits-Managementsystems, anwendbar auf die Datenverarbeitung und Zugriffsverwaltung von KI-Agenten

Diese framework-uebergreifende Zuordnung bedeutet, dass ein CISO, der OpenClaw fuer den Einsatz in einer regulierten Umgebung bewertet, sofort sehen kann, welche Compliance-Kontrollen von jedem Befund betroffen sind — ohne die Zuordnung manuell durchfuehren zu muessen.

Behebungsprioritaeten

AiSec identifiziert nicht nur Probleme — es generiert priorisierte Behebungsempfehlungen basierend auf drei Faktoren: Ausnutzbarkeit (wie leicht die Schwachstelle ausgeloest werden kann), Schadensradius (wie viel Schaden ein erfolgreicher Exploit verursachen kann) und Behebungskomplexitaet (wie viel Ingenieursaufwand zur Loesung erforderlich ist).

  • Prioritaet 1 — Sofort: Implementierung systematischer Eingabebereinigung an allen Agenten-zu-Agenten- und Benutzer-zu-Agenten-Kommunikationsgrenzen zur Minderung von Prompt-Injection. Geschaetzter Aufwand: 2 bis 3 Wochen
  • Prioritaet 2 — Dringend: Haertung der Tool-Ausfuehrungs-Sandbox durch standardmaessige Durchsetzung strikter Dateisystem-, Netzwerk- und Speicherisolierung. Geschaetzter Aufwand: 3 bis 4 Wochen
  • Prioritaet 3 — Hoch: Neugestaltung des Agenten-Berechtigungsmodells zur Durchsetzung minimaler Berechtigungen mit expliziter Faehigkeitsgewaehrung anstelle geerbter Berechtigungen. Geschaetzter Aufwand: 4 bis 6 Wochen
  • Prioritaet 4 — Wichtig: Audit und Einschraenkung aller Logging- und Fehlerbehandlungspfade zur Verhinderung der Offenlegung sensibler Daten. Geschaetzter Aufwand: 1 bis 2 Wochen
  • Prioritaet 5 — Empfohlen: Implementierung strukturierter Sicherheitsgrenzen zwischen Agenten-Speicherablagen zur Verhinderung kontextuebergreifender Datenlecks. Geschaetzter Aufwand: 2 bis 3 Wochen

Geschaetzter Gesamtbehebungsaufwand fuer alle 63 Befunde: circa 16 bis 22 Wochen fokussierter Ingenieursarbeit, wobei die kritischsten Punkte innerhalb der ersten 6 Wochen behoben werden koennen.

Wirkung und Offenlegung

Xcapit folgte einem verantwortungsvollen Offenlegungsprozess fuer alle Befunde mit kritischem und hohem Schweregrad. Die OpenClaw-Maintainer wurden mit vollstaendigen technischen Details, Proof-of-Concept-Demonstrationen und Behebungsanleitung vor jeder oeffentlichen Offenlegung benachrichtigt. Die Reaktion der OpenClaw-Community war konstruktiv — sie erkannte die Befunde an und initiierte Diskussionen ueber mehrere der empfohlenen architektonischen Aenderungen.

Die oeffentliche Veroeffentlichung der Analyse dient mehreren Zwecken: Sie versorgt die Tausenden von Organisationen, die OpenClaw nutzen, mit umsetzbaren Informationen ueber ihre Risikoexposition, sie demonstriert, dass automatisierte KI-Sicherheitsanalyse jetzt zu einem Bruchteil der Kosten und Zeit manueller Audits erreichbar ist, und sie etabliert einen Benchmark fuer das Niveau der Sicherheitsueberpruefung, das KI-Agenten-Frameworks vor dem Produktionseinsatz erhalten sollten.

Was Dies fuer KI-Agenten-Entwickler Bedeutet

Die Befunde der OpenClaw-Analyse sind nicht einzigartig fuer ein einzelnes Framework. Sie repraesentieren systemische Muster, die im gesamten KI-Agenten-Oekosystem existieren:

  • Prompt-Injection bleibt die am weitesten verbreitete und am wenigsten eingedaemmte Bedrohung in KI-Agenten-Architekturen — die meisten Frameworks behandeln Prompts standardmaessig als vertrauenswuerdige Eingaben
  • Tool-Ausfuehrungs-Sandboxing wird selten mit der fuer Produktionsumgebungen erforderlichen Strenge implementiert — Standardkonfigurationen tendieren dazu, permissiv statt restriktiv zu sein
  • Berechtigungsmodelle in KI-Agenten-Frameworks sind typischerweise flach oder uebermassig breit und gewaehren Agenten mehr Zugriff als sie fuer die Ausfuehrung ihrer vorgesehenen Funktionen benoetigen
  • Sicherheitsprotokollierung und -ueberwachung sind in den meisten KI-Agenten-Frameworks nachtraegliche Ueberlegungen, was die Erkennung von Vorfaellen und die forensische Analyse aeusserst schwierig macht
  • Framework-uebergreifendes Compliance-Mapping existiert in den meisten KI-Sicherheitswerkzeugen nicht, was Organisationen zwingt, manuelle Bewertungen durchzufuehren, die teuer und inkonsistent sind

Jedes Team, das KI-Agenten in der Produktion einsetzt, sollte pruefen, ob das gewaehlte Framework diesem Grad der Ueberpruefung unterzogen wurde — und wenn nicht, sollte es die Analyse selbst durchfuehren.

AiSecs Fuenfschicht-Analysearchitektur mit 35 spezialisierten KI-Agenten
AiSecs Fuenfschicht-Architektur: Von der Codebasis-Zuordnung bis zur priorisierten Behebung ueber 8 Sicherheitsframeworks.

Erste Schritte mit AiSec

AiSec ist Open Source und darauf ausgelegt, mit minimaler Einrichtung in bestehende Sicherheitsworkflows integriert zu werden. Die Installation erfordert einen einzigen Befehl:

  • Installieren: pip install aisec
  • Repository scannen: aisec scan /pfad/zum/ki-agenten-projekt
  • Bericht generieren: aisec report --format html --frameworks owasp,nist,mitre
  • In CI/CD integrieren: aisec scan --ci --fail-on critical,high
  • Benutzerdefinierte Regeln: aisec scan --rules /pfad/zu/benutzerdefinierten-regeln.yaml

Das Framework unterstuetzt Codebasen in Python, TypeScript und Rust und kann jede KI-Agenten-Architektur unabhaengig vom zugrunde liegenden LLM-Anbieter analysieren. Die Analysezeit haengt von der Groesse der Codebasis ab, aber die meisten Projekte werden in weniger als 10 Minuten abgeschlossen.

Moechten Sie wissen, wie sicher Ihre KI-Agenten-Infrastruktur wirklich ist? Ob Sie ein umfassendes Sicherheitsaudit Ihrer KI-Systeme benoetigen, AiSec in Ihre Entwicklungspipeline integrieren moechten oder Hilfe bei der Behebung von Befunden in Ihren bestehenden Deployments brauchen — Xcapit hat die Werkzeuge und die Expertise. Lassen Sie uns sprechen.

Share

Lassen Sie uns Großes bauen

KI, Blockchain & maßgeschneiderte Software — für Ihr Unternehmen.

Kontakt aufnehmen

Bereit, KI und Machine Learning zu nutzen?

Von prädiktiven Modellen bis MLOps — wir machen KI für Sie nutzbar.