Skip to main content
Xcapit

Xcapit Labs

OrchestAI: Orchestrazione Multi-LLM Enterprise con Audit Firmato e Deployment On-Premise

Come Xcapit Labs ha costruito una piattaforma enterprise per l'orchestrazione multi-LLM combinando il routing tra Claude, GPT, Gemini e Ollama con catene di audit HMAC-SHA256 a prova di manomissione, cataloghi di agenti versionati e deployment completamente on-premise per industrie regolamentate.

PythonFastAPINext.jsPostgreSQLChromaDBDockerKubernetesSQLAlchemy
Multi-LLM

Provider

HMAC

Catena di Audit

On-Prem

Deployment

30s

RTO Backup

Tutti i casi studio

L'adozione enterprise dell'IA affronta un gap di governance. Le organizzazioni implementano strumenti IA in modo ad-hoc — un dipartimento usa ChatGPT qui, un altro usa Claude lì, un terzo sperimenta con modelli open-source su macchine personali. Non c'è visibilità centrale su cosa stanno facendo gli agenti IA, quali dati elaborano, quale provider gestisce quale richiesta o quanto costa tutto. Quando il CISO chiede 'puoi dimostrare cosa ha fatto la tua IA martedì scorso?', la risposta è silenzio. Quando il CFO chiede 'quanto stiamo spendendo per l'IA?', nessuno lo sa. Questa è shadow AI — e per le aziende regolamentate, è un rischio di compliance esistenziale.

La Sfida

Un'azienda energetica regionale con oltre 1.500 dipendenti ha identificato tre problemi critici con la propria strategia di adozione IA: Primo, shadow AI — i dipartimenti si iscrivevano indipendentemente a servizi IA senza governance centrale, creando rischi di fuga dati e punti ciechi di compliance. Secondo, vendor lock-in — gli investimenti iniziali in IA erano strettamente accoppiati a un singolo provider, creando rischi di continuità aziendale e impedendo l'ottimizzazione dei costi. Terzo, requisiti di audit — il loro quadro normativo richiedeva prove dimostrabili che i sistemi IA operassero entro limiti definiti, con registri a prova di manomissione di ogni decisione e azione.

Le soluzioni esistenti affrontavano uno o due di questi problemi, ma mai tutti e tre insieme. Esistevano router multi-LLM ma senza capacità di audit. Esistevano piattaforme di compliance ma forzavano il deployment cloud. Esistevano strumenti di governance ma non supportavano l'installazione on-premise. L'organizzazione aveva bisogno di un'unica piattaforma che combinasse tutti e tre — e quella piattaforma non esisteva.

La Soluzione: Architettura OrchestAI

OrchestAI è stato progettato da zero per risolvere il problema dell'IA enterprise governata. L'architettura si basa su quattro pilastri:

  • Router Multi-LLM: Ogni richiesta IA passa attraverso un router centrale che seleziona il provider ottimale in base a strategie configurabili — più economico, local-first, cloud-first o preferito — con fallback automatico. Le applicazioni si connettono all'API unificata di OrchestAI e non devono mai sapere quale provider sta servendo la loro richiesta.
  • Catena di Audit Firmata: Ogni azione degli agenti è firmata con HMAC-SHA256 e concatenata all'azione precedente. Questo crea un log a prova di manomissione che auditor esterni possono verificare in modo indipendente. Se qualsiasi voce nella catena viene modificata dopo il fatto, la catena crittografica si rompe e la manomissione è immediatamente rilevabile.
  • Deployment On-Premise: L'intera piattaforma — API (FastAPI), frontend (Next.js), database (PostgreSQL), vector store (ChromaDB) — si distribuisce tramite docker-compose o Helm/Kubernetes sull'infrastruttura del cliente. Nessun dato esce mai dal loro datacenter.
  • Catalogo Agenti Versionato: Gli agenti sono gestiti con gate di promozione (dev → staging → prod), benchmark di valutazione prima della promozione e deployment canary continui ogni 15 minuti. Questo porta la disciplina dell'ingegneria del software alle operazioni IA.

Architettura Tecnica

La piattaforma OrchestAI comprende 22 modelli SQLAlchemy in 39 tabelle di database. Il backend è Python/FastAPI con type safety completa. Il frontend è Next.js per il dashboard di gestione. PostgreSQL gestisce i dati relazionali mentre ChromaDB fornisce storage vettoriale per la persistenza della memoria e il retrieval degli agenti. Il sistema supporta SSO via OIDC con allowlist di domini, e tutte le credenziali sono criptate con Fernet AES.

L'infrastruttura di testing include circa 574 test pytest che coprono l'API backend e la logica di business, più 41 test end-to-end Playwright che validano l'intero percorso utente dalla creazione degli agenti al deployment e alla verifica dell'audit. Le procedure di backup/restore sono state collaudate con un RTO testato di circa 30 secondi.

Business Case: Profilo Utility

Per una utility regionale con 1.500 dipendenti che usa l'IA nelle operazioni, servizio clienti e manutenzione predittiva, l'economia è convincente. La spesa multi-provider IA non gestita supera tipicamente gli USD 8.000 al mese. Con il routing intelligente di OrchestAI — in particolare la strategia local-first che instrada le richieste appropriate verso modelli Ollama on-premise invece di costose API cloud — le organizzazioni possono aspettarsi una riduzione dei costi di infrastruttura IA del 60-70%, portando la spesa mensile a USD 2.000-3.000 mantenendo la stessa o migliore qualità di servizio per ogni caso d'uso.

Risultati e Stato Attuale

  • Routing multi-LLM tra Claude, GPT, Gemini e Ollama con strategie configurabili e fallback automatico
  • Catena di audit firmata HMAC-SHA256 — a prova di manomissione, verificabile indipendentemente da auditor esterni
  • Deployment on-premise completo via docker-compose o Helm/Kubernetes — i dati non escono mai dal datacenter del cliente
  • Catalogo agenti versionato con gate di promozione (dev → staging → prod) e deployment canary continui ogni 15 minuti
  • Quote di costo per agente con dashboard in tempo reale e avvisi per la governance del budget
  • 60-70% di riduzione costi stimata attraverso routing intelligente dei provider
  • Compliance di audit raggiungibile in circa 1 giorno con l'evidenza della catena firmata
  • ~30s di RTO backup testato per la continuità aziendale

Riferimento Cliente

OrchestAI è attualmente in preparazione attiva di pilota con EPEC (Empresa Provincial de Energía de Córdoba), un'azienda energetica provinciale in Argentina. La demo è stata approvata e la fase pilota è in fase di strutturazione. EPEC rappresenta il profilo cliente OrchestAI ideale: una grande azienda regolamentata con adozione distribuita dell'IA, requisiti rigorosi di audit e una chiara necessità di deployment on-premise per mantenere la sovranità dei dati.

Differenziatore

OrchestAI è l'unica piattaforma che combina agenti versionati + routing multi-LLM + catene di audit firmate + deployment on-premise in un unico prodotto. I concorrenti offrono una o due di queste capacità, ma mai tutte e quattro insieme. Questa combinazione è ciò di cui le aziende regolamentate hanno bisogno — ed è ciò per cui OrchestAI è stato costruito appositamente.

Share

Resta aggiornato

Ricevi approfondimenti su IA, blockchain e cybersecurity direttamente nella tua casella di posta.

Rispettiamo la tua privacy. Puoi cancellarti in qualsiasi momento.

Pronto a sfruttare IA e machine learning?

Dai modelli predittivi al MLOps — facciamo funzionare l'IA per te.

Interessato a risultati simili?

Parliamo di come possiamo applicare soluzioni simili alle tue sfide.