Skip to main content
Xcapit

Xcapit Labs

Xcapit Privacy: Machine Learning Ohne Ihre Daten zu Sehen

Wie Xcapit Labs eine Plattform entwickelt hat, die kollaboratives Machine Learning auf vollständig verschlüsselten Daten mittels Fully Homomorphic Encryption (FHE) ermöglicht, sodass Organisationen gemeinsam KI-Modelle trainieren können, ohne jemals ihre sensiblen Informationen preiszugeben.

TenSEALCKKS FHEFastAPIPythonArbitrumReactPostgreSQLDocker
559+

Automatisierte Tests

15+

ML-Algorithmen

256-bit

FHE-Sicherheit

100%

Daten privat

Case Studies

In einer Welt, in der Daten das wertvollste Asset für Künstliche Intelligenz sind, existiert ein fundamentales Paradoxon: Die besten ML-Modelle erfordern große, vielfältige Datensätze — aber die sensibelsten Daten können niemals geteilt werden. Finanzinstitute können keine Transaktionsdaten für die Betrugserkennung bündeln. Krankenhäuser können keine Patientenakten für die medizinische Forschung teilen. Versicherer können nicht an Risikomodellen zusammenarbeiten, ohne ihre Portfolios offenzulegen. Bisher mussten Organisationen zwischen KI-Qualität und Datenschutz wählen.

Was ist Xcapit Privacy

Xcapit Privacy ist eine von Xcapit Labs entwickelte Plattform, die es Organisationen ermöglicht, Machine Learning auf Daten durchzuführen, die jederzeit verschlüsselt bleiben. Durch den Einsatz von Fully Homomorphic Encryption (FHE) ermöglicht die Plattform mathematische Berechnungen — Addition, Multiplikation und somit jeden ML-Algorithmus — direkt auf dem Chiffretext. Die Ergebnisse sind, wenn sie vom Dateneigentümer entschlüsselt werden, identisch mit denen, die auf den Klartextdaten erzielt worden wären.

Das bedeutet, dass Organisationen Daten zu kollaborativen ML-Modellen beitragen, Vorhersagen und Erkenntnisse erhalten und von der kollektiven Intelligenz mehrerer Datensätze profitieren können — ohne dass eine Partei die Daten einer anderen sieht. Nicht einmal Xcapit Privacy selbst kann auf die zugrundeliegenden Informationen zugreifen.

Wie FHE funktioniert

Fully Homomorphic Encryption (FHE) ist eine kryptographische Technik, die Berechnungen auf verschlüsselten Daten ermöglicht, ohne sie zuvor zu entschlüsseln. Xcapit Privacy verwendet das CKKS-Schema, das für approximative Arithmetik auf reellen Zahlen optimiert ist — ideal für Machine-Learning-Workloads.

Der Prozess funktioniert wie folgt: (1) Der Dateneigentümer verschlüsselt seine Daten lokal mit seinem privaten Schlüssel und 256-Bit-Sicherheitsparametern. (2) Die verschlüsselten Daten werden an die Plattform gesendet, wo ML-Algorithmen direkt auf dem Chiffretext arbeiten. (3) Die verschlüsselten Ergebnisse werden an den Eigentümer zurückgegeben, der sie mit seinem privaten Schlüssel entschlüsselt. Zu keinem Zeitpunkt verlassen die Rohdaten die Umgebung des Eigentümers unverschlüsselt.

Hauptmerkmale

Immer verschlüsselt

Daten werden verschlüsselt, bevor sie die Infrastruktur des Eigentümers verlassen, und bleiben während der gesamten Verarbeitungspipeline verschlüsselt. Es gibt keinen Entschlüsselungsschritt auf der Serverseite — niemals.

Privates Machine Learning

Die Plattform unterstützt über 15 Machine-Learning-Algorithmen, darunter lineare Regression, logistische Regression, Entscheidungsbäume, Random Forests, SVM, k-Means-Clustering, PCA und neuronale Netzwerke — alle auf verschlüsselten Daten arbeitend.

Sichere Zusammenarbeit

Mehrere Organisationen können verschlüsselte Datensätze beitragen, um gemeinsame Modelle zu trainieren. Jeder Teilnehmer profitiert vom kombinierten Volumen und der Vielfalt, ohne seine individuellen Datensätze preiszugeben.

Automatische Compliance

Da Daten nie im Klartext exponiert werden, erfüllt Xcapit Privacy inhärent die Datenschutzanforderungen gemäß DSGVO, HIPAA, SOC 2, PCI-DSS und anderen Frameworks.

Blockchain-Governance

Alle Datenbeiträge, Modelltrainingsereignisse und Ergebnisverteilungen werden auf der Arbitrum-Blockchain aufgezeichnet. Dies bietet eine unveränderliche Prüfspur, die beweist, dass Daten gemäß den vereinbarten Regeln behandelt wurden.

Föderierte Inferenz

Trainierte Modelle können für Vorhersagen auf neuen verschlüsselten Daten verwendet werden, ohne Nachtraining. Organisationen können das gemeinsame Modell mit ihren privaten Daten abfragen und verschlüsselte Vorhersagen erhalten, die nur sie entschlüsseln können.

Anwendungsfälle

Finanzdienstleistungen

Banken und Fintech-Unternehmen können kollaborativ Betrugserkennungsmodelle mit Transaktionsdaten mehrerer Institute trainieren — ohne dass eine Bank die Kundentransaktionen der anderen sieht.

Gesundheitswesen

Krankenhäuser und Forschungszentren können Patientendaten zum Training diagnostischer Modelle beitragen und dabei die vollständige HIPAA-Konformität wahren.

Versicherungen

Versicherer können Risikobewertungsdaten bündeln, um genauere versicherungsmathematische Modelle zu erstellen, ohne proprietäre Portfolio-Informationen preiszugeben.

Behörden

Regierungsbehörden können Nachrichtendaten für die Bedrohungserkennung und öffentliche Sicherheitsanalysen teilen und dabei Klassifizierungsstufen und behördenübergreifende Datenaustauschbeschränkungen einhalten.

Technologie-Stack

Xcapit Privacy basiert auf TenSEAL, einer Open-Source-Bibliothek für homomorphe Verschlüsselungsoperationen, die das CKKS-Schema für approximative Arithmetik auf verschlüsselten reellen Zahlen implementiert. Das Backend verwendet FastAPI (Python) für die ML-Pipeline-Orchestrierung, mit PostgreSQL für die Metadatenverwaltung. Die Governance-Schicht läuft auf Arbitrum (Ethereum L2) für kosteneffiziente Blockchain-Transaktionen. Das Benutzer-Dashboard ist mit React erstellt und bietet 42 Seiten für Datenverwaltung, Modellkonfiguration, Ergebnisvisualisierung und Prüfpfad-Exploration. Die gesamte Plattform ist mit Docker containerisiert.

Qualität und Tests

Die Plattform wurde mit einer rigorosen Testmethodik entwickelt: über 559 automatisierte Tests, die Unit-Tests, Integrationstests und End-to-End-Szenarien abdecken. Jeder ML-Algorithmus wird validiert, indem verschlüsselte Berechnungsergebnisse mit Klartext-Baselines verglichen werden.

Wichtigste Erkenntnisse

  • FHE ermöglicht Machine Learning auf Daten, die während der gesamten Berechnungspipeline verschlüsselt bleiben
  • Organisationen können an ML-Modellen zusammenarbeiten, ohne jemals ihre sensiblen Daten preiszugeben
  • Das CKKS-Schema unterstützt über 15 ML-Algorithmen mit Ergebnissen, die mathematisch äquivalent zur Klartextverarbeitung sind
  • Blockchain-Governance bietet eine unveränderliche Prüfspur, ohne die zugrundeliegenden Daten preiszugeben
  • Inhärente Compliance mit DSGVO, HIPAA, SOC 2 und PCI-DSS — Daten sind niemals im Klartext zugänglich
  • Über 559 automatisierte Tests gewährleisten mathematische Korrektheit und Systemzuverlässigkeit
Share

Lassen Sie uns Großes bauen

KI, Blockchain & maßgeschneiderte Software — für Ihr Unternehmen.

Kontakt aufnehmen

Bereit, KI und Machine Learning zu nutzen?

Von prädiktiven Modellen bis MLOps — wir machen KI für Sie nutzbar.