Skip to main content
Xcapit

Xcapit Labs

Xcapit Privacy: Machine Learning Senza Vedere i Tuoi Dati

Come Xcapit Labs ha costruito una piattaforma che consente il machine learning collaborativo su dati completamente crittografati utilizzando la Crittografia Completamente Omomorfa (FHE), in modo che le organizzazioni possano addestrare modelli AI insieme senza mai esporre le proprie informazioni sensibili.

TenSEALCKKS FHEFastAPIPythonArbitrumReactPostgreSQLDocker
559+

Test automatizzati

15+

Algoritmi ML

256-bit

Sicurezza FHE

100%

Dati privati

Case Studies

In un mondo dove i dati sono l'asset più prezioso per l'intelligenza artificiale, esiste un paradosso fondamentale: i migliori modelli ML richiedono dataset ampi e diversificati — ma i dati più sensibili non possono mai essere condivisi. Le istituzioni finanziarie non possono raggruppare dati sulle transazioni per il rilevamento frodi. Gli ospedali non possono condividere cartelle cliniche per la ricerca medica. Le compagnie assicurative non possono collaborare su modelli di rischio senza esporre i propri portafogli. Fino ad ora, le organizzazioni dovevano scegliere tra qualità dell'AI e privacy dei dati.

Cos'è Xcapit Privacy

Xcapit Privacy è una piattaforma sviluppata da Xcapit Labs che consente alle organizzazioni di eseguire machine learning su dati che rimangono crittografati in ogni momento. Utilizzando la Crittografia Completamente Omomorfa (FHE), la piattaforma permette operazioni matematiche — addizione, moltiplicazione e, per estensione, qualsiasi algoritmo ML — direttamente sul testo cifrato. I risultati, quando decrittografati dal proprietario dei dati, sono identici a quelli ottenibili sui dati in chiaro.

Ciò significa che le organizzazioni possono contribuire dati a modelli ML collaborativi, ricevere previsioni e insight, e beneficiare dell'intelligenza collettiva di più dataset — tutto senza che nessuna parte veda i dati dell'altra. Neanche Xcapit Privacy stessa può accedere alle informazioni sottostanti.

Come Funziona FHE

La Crittografia Completamente Omomorfa (FHE) è una tecnica crittografica che consente calcoli su dati crittografati senza prima decrittografarli. Xcapit Privacy utilizza lo schema CKKS, ottimizzato per l'aritmetica approssimata su numeri reali — ideale per carichi di lavoro di machine learning.

Il processo funziona così: (1) Il proprietario dei dati crittografa i propri dati localmente utilizzando la propria chiave privata e parametri di sicurezza a 256 bit. (2) I dati crittografati vengono inviati alla piattaforma, dove gli algoritmi ML operano direttamente sul testo cifrato. (3) I risultati crittografati vengono restituiti al proprietario, che li decrittografa con la propria chiave privata. In nessun momento i dati grezzi lasciano l'ambiente del proprietario in chiaro.

Caratteristiche Principali

Sempre Crittografato

I dati vengono crittografati prima di lasciare l'infrastruttura del proprietario e rimangono crittografati durante l'intera pipeline di elaborazione. Non c'è alcun passaggio di decrittografia lato server — mai. Questo elimina la superficie di attacco esistente negli approcci tradizionali di ML nel cloud.

Machine Learning Privato

La piattaforma supporta oltre 15 algoritmi di machine learning tra cui regressione lineare, regressione logistica, alberi decisionali, random forest, SVM, k-means clustering, PCA e reti neurali — tutti operanti su dati crittografati. L'addestramento e l'inferenza dei modelli producono risultati matematicamente equivalenti all'elaborazione in chiaro.

Collaborazione Sicura

Più organizzazioni possono contribuire dataset crittografati per addestrare modelli condivisi. Ogni partecipante beneficia del volume e della diversità combinati senza esporre i propri record individuali.

Conformità Automatica

Poiché i dati non vengono mai esposti in chiaro, Xcapit Privacy soddisfa intrinsecamente i requisiti di protezione dei dati ai sensi di GDPR, HIPAA, SOC 2, PCI-DSS e altri framework normativi.

Governance Blockchain

Tutti i contributi di dati, gli eventi di addestramento dei modelli e le distribuzioni dei risultati sono registrati sulla blockchain Arbitrum. Questo fornisce una traccia di audit immutabile che dimostra che i dati sono stati gestiti secondo le regole concordate, senza rivelare i dati stessi.

Inferenza Federata

I modelli addestrati possono essere utilizzati per previsioni su nuovi dati crittografati senza ri-addestramento. Le organizzazioni possono interrogare il modello condiviso con i propri dati privati e ricevere previsioni crittografate che solo loro possono decrittografare.

Casi d'Uso

Servizi Finanziari

Banche e aziende fintech possono addestrare collaborativamente modelli di rilevamento frodi utilizzando dati transazionali di più istituzioni — senza che nessuna banca veda le transazioni dei clienti dell'altra.

Sanità

Ospedali e centri di ricerca possono contribuire dati dei pazienti per addestrare modelli diagnostici mantenendo la piena conformità HIPAA.

Assicurazioni

Le compagnie assicurative possono raggruppare dati di valutazione del rischio per costruire modelli attuariali più accurati senza esporre informazioni proprietarie del portafoglio.

Governo

Le agenzie governative possono condividere dati di intelligence per il rilevamento delle minacce e l'analisi della sicurezza pubblica mantenendo livelli di classificazione e restrizioni di condivisione dati tra agenzie.

Stack Tecnologico

Xcapit Privacy è costruito su TenSEAL, una libreria open-source per operazioni di crittografia omomorfa, implementando lo schema CKKS per l'aritmetica approssimata su numeri reali crittografati. Il backend utilizza FastAPI (Python) per l'orchestrazione delle pipeline ML, con PostgreSQL per la gestione dei metadati. Il layer di governance funziona su Arbitrum (Ethereum L2) per transazioni blockchain efficienti. La dashboard utente è costruita con React, fornendo 42 pagine per la gestione dei dati, la configurazione dei modelli, la visualizzazione dei risultati e l'esplorazione della traccia di audit. L'intera piattaforma è containerizzata con Docker.

Qualità e Testing

La piattaforma è stata sviluppata con una metodologia di testing rigorosa: oltre 559 test automatizzati che coprono test unitari, di integrazione e scenari end-to-end. Ogni algoritmo ML viene validato confrontando i risultati delle computazioni crittografate con le baseline in chiaro.

Conclusioni Chiave

  • FHE consente il machine learning su dati che rimangono crittografati durante l'intera pipeline di computazione
  • Le organizzazioni possono collaborare su modelli ML senza mai esporre i propri dati sensibili
  • Lo schema CKKS supporta oltre 15 algoritmi ML con risultati matematicamente equivalenti all'elaborazione in chiaro
  • La governance blockchain fornisce una traccia di audit immutabile senza rivelare i dati sottostanti
  • Conformità intrinseca con GDPR, HIPAA, SOC 2 e PCI-DSS — i dati non sono mai accessibili in chiaro
  • Oltre 559 test automatizzati garantiscono la correttezza matematica e l'affidabilità del sistema
Share

Costruiamo qualcosa di grande

IA, blockchain e software su misura — pensato per il tuo business.

Contattaci

Pronto a sfruttare IA e Machine Learning?

Dai modelli predittivi al MLOps — facciamo funzionare l'IA per te.