Negli ultimi diciotto mesi, ho osservato consigli di amministrazione in finanza, energia, pubblica amministrazione e sanità lottare con la stessa domanda. Sanno che gli agenti di IA possono comprimere i tempi, ridurre i costi ed estendere la capacità umana. Ciò che non sanno è come rispondere al loro auditor, al regolatore o al consiglio quando qualcosa va storto e la domanda è: 'Chi ha autorizzato questa decisione, quali informazioni ha usato l'agente, e puoi dimostrarlo?'.
L'autonomia corre più veloce dell'accountability
Ogni ondata tecnologica seria degli ultimi due decenni — cloud, mobile, SaaS, open banking — ha alla fine raggiunto lo stesso punto di svolta. La tecnologia funzionava. Le aziende la adottavano. E poi la domanda diventava: chi è responsabile? Non in senso morale, ma legale, auditable, ricostruibile. Il cloud ha avuto SOC 2 e ISO 27001. Il mobile ha avuto la revisione degli app store. I pagamenti hanno avuto PCI DSS. Ciascuno di essi ha scalato a livello enterprise solo quando il framework di accountability ha raggiunto la tecnologia.
Gli agenti autonomi di IA sono ora a quel punto di svolta — e il framework di accountability non li ha raggiunti. Un agente che legge un contratto, propone un'azione finanziaria o classifica un caso di assistenza sta prendendo decisioni. Se quelle decisioni sono sbagliate, qualcuno ne paga il costo. Oggi, quando chiediamo 'come ha deciso l'agente?' la risposta onesta è solitamente 'abbiamo un file di log, probabilmente, se non è stato ruotato'. Non è una risposta che un auditor accetterà. Non è una risposta che l'EU AI Act accetterà quando i sistemi ad alto rischio cadranno sotto il suo ambito. E non è una risposta che un consiglio dovrebbe accettare.
Cosa significa davvero 'verificabile'?
Un agente di IA verificabile è quello per cui qualsiasi terza parte autorizzata — auditor interno, regolatore, cliente — può rispondere a tre domande con prove crittografiche, non con la parola del fornitore:
- Identità — Quale agente ha compiuto questa azione, per conto di chi, con quale autorità delegata? Non un nome di servizio in una riga di log, ma una credenziale firmata e revocabile che lega l'azione a un'identità autorizzata.
- Provenienza — Quali input ha usato l'agente? Quale versione del modello, quale contesto, quali strumenti, quali fonti di dati? Il 'bill of materials' di ogni decisione.
- Traccia dell'azione — Cosa ha fatto esattamente l'agente, in quale ordine, con quali risultati? Non il riassunto dell'happy path, ma la sequenza completa di chiamate a strumenti, ragionamento intermedio e transizioni di stato.
- Integrità — Il registro è stato manipolato da quando è avvenuta l'azione? È qui che i database tradizionali falliscono: chi li amministra può riscrivere la storia. Un sistema verificabile rende la manipolazione rilevabile by design.
Nessuno di questi è un concetto nuovo. Costruiamo tracce di auditing per banche, aviazione e studi clinici da decenni. La novità è la combinazione: gli agenti agiscono più velocemente e a volumi maggiori rispetto agli umani; il loro ragionamento è probabilistico; e invocano strumenti attraverso decine di sistemi in pochi secondi. Il substrato di auditing deve tenere il passo.
Perché la blockchain è il substrato giusto — e quando non lo è
Sarò diretto: non credo che la blockchain sia la risposta alla maggior parte dei problemi. Fernando Boiero ha scritto un confronto onesto su quando un database supera un ledger, e concordo con ogni parola. Ma il caso d'uso degli agenti verificabili è esattamente dove le proprietà della blockchain si allineano al problema.
Una blockchain — permissioned o pubblica — fornisce tre proprietà simultanee che nessun sistema centralizzato fornisce insieme: una fonte di verità condivisa che nessuna singola parte può riscrivere unilateralmente, una traccia di audit crittografica che terzi possono verificare senza accesso al database sottostante, e un meccanismo nativo di identità firmata e delega. Per la governance degli agenti, quelle tre proprietà sono esattamente ciò che manca.
In pratica, non è necessario — e non conviene — mettere conversazioni grezze di agenti on-chain. Sarebbe costoso, distruttivo per la privacy e tecnicamente non necessario. Ciò che si mette on-chain è un insieme di attestazioni: hash degli input, output e transizioni di stato di ogni azione significativa dell'agente, firmati con la chiave di identità dell'agente e ancorati a un timestamp verificabile. I dati grezzi rimangono nel tuo storage sicuro. La prova di ciò che è successo, quando e da chi vive su un ledger che chiunque autorizzato può auditare.
Il panorama regolatorio si muove rapidamente
Dalla mia posizione di avvocato e CEO di un'azienda che opera in Europa, LATAM e Stati Uniti, posso dirvi che la traiettoria regolatoria è inconfondibile. Tre framework pesano di più in questo momento.
L'EU AI Act, ora in vigore, richiede che i sistemi di IA ad alto rischio mantengano log che consentano la tracciabilità durante tutto il ciclo di vita, incluso chi ha usato il sistema e quali output ha prodotto. Per gli agenti autonomi che operano su dati regolati, lo spirito della legge è chiaro: devi poter ricostruire le decisioni sotto audit. L'ISO/IEC 42001, primo standard di management system per l'IA, formalizza i processi di governance che le organizzazioni devono mettere in atto — inclusi identità documentata, accountability e change management per i sistemi di IA. Il NIST AI RMF, riferimento de facto in Nord America, pone essenzialmente le stesse domande attraverso una lente di risk management.
In America Latina vediamo movimento in Brasile con il disegno di legge sull'IA in discussione, in Argentina con la guidance settoriale del BCRA e CNV, e in Messico e Cile con framework che fanno eco all'approccio europeo. Le specificità regionali variano. La richiesta centrale — che le decisioni automatizzate siano tracciabili, spiegabili e auditable — no.
Ecco la parte che la maggior parte dei team di leadership manca: i regolatori non stanno chiedendo un nuovo report di compliance. Stanno chiedendo una proprietà del sistema. Un sistema costruito per essere verificabile dal giorno zero produce gli artefatti di compliance come sottoprodotto dell'operatività. Uno che non lo è deve generare quegli artefatti a posteriori, spesso in modo imperfetto, a costo ricorrente. La differenza si compone.
Come affrontiamo questo in Xcapit
La nostra posizione è semplice: ogni agente che mettiamo in produzione porta la propria accountability con sé. Questo significa tre cose di default.
Primo, ogni agente ha un'identità crittografica emessa al momento del deployment. Quando un agente invoca uno strumento, chiama un altro agente o scrive su un sistema di registrazione, quell'azione è firmata dalla chiave dell'agente e legata all'umano o all'organizzazione che l'ha autorizzata. Non è teorico — è così che il nostro framework multi-agente ArgenTor gestisce la delega ed è il motivo per cui la nostra piattaforma di revisione della sicurezza AiSec può dire a un cliente non solo 'l'issue esiste' ma 'questo specifico agente, con questa specifica versione del modello, ha prodotto questo finding a questo timestamp, e qui c'è la catena di evidenze'.
Secondo, ogni azione significativa genera un'attestazione firmata — un piccolo record strutturato hashato e ancorato su una timeline verificabile. Per i clienti regolamentati, quella timeline è una blockchain permissioned che co-governano. Per altri, è un'ancora pubblica che preserva l'integrità senza divulgare i dati. In entrambi i casi, la storia di audit è la stessa: i dati grezzi restano privati, la prova è verificabile in modo indipendente.
Terzo, e qui è dove la lente legale conta: trattiamo la verificabilità come contrattuale. Se un'azienda accetterà decisioni di agenti all'interno di un processo regolamentato, le proprietà di verificabilità vengono scritte nell'accordo, non promesse in un pitch deck. La stessa disciplina che portiamo ai data processing addenda e ai security schedule si applica alla governance degli agenti.
Cosa dovrebbero fare i team di leadership adesso
- Smettete di trattare la 'AI governance' come un documento di policy. È un insieme di proprietà di sistema che o esistono nel tuo stack o non esistono. Una policy che referenzia capacità che la tua tecnologia non ha è peggio che non avere policy — è esposizione.
- Richiedete ai vostri fornitori di rispondere alle tre domande. Prima che un agente tocchi un flusso regolato, chiedete al fornitore di dimostrare identità, provenienza e traccia di azione con prove verificabili da terzi. Se non possono, state ereditando il loro rischio.
- Investite nella verificabilità come piattaforma, non per progetto. Le organizzazioni che vinceranno il prossimo decennio avranno un'unica fabbrica di accountability sotto tutti i loro agenti, non quaranta schemi di logging isolati.
- Allineate i team legali, di rischio e di tecnologia presto. Gli agenti verificabili sono una questione di governance tanto quanto di ingegneria. Le aziende che fanno bene questo hanno il loro general counsel, CISO e CTO nella stessa conversazione — non sequenziati su più trimestri.
- Trattate la compliance come una feature di prodotto. Un sistema costruito per l'auditability accelera le vendite enterprise, accorcia la procurement e trasforma il cambiamento regolatorio da minaccia a restrizione del campo competitivo.
Le aziende che adottano agenti autonomi oggi stanno fissando il precedente di accountability per il decennio. Se i vostri agenti possono rispondere all'auditor domani, avete una franchigia. Se non possono, avete una responsabilità mascherata da storia di produttività.
Fernando ha scritto in parallelo sui protocolli tecnici che rendono interoperabili i sistemi multi-agente. La governance verificabile è l'altra metà di quella conversazione — senza di essa, l'interoperabilità scala il problema invece di risolverlo.
Se il vostro team sta progettando il layer di accountability per gli agenti di IA e vuole un partner che l'abbia già portato in produzione in ambienti regolamentati, parliamone.
José Trajtenberg
CEO & Co-Fondatore
Avvocato e imprenditore nel business internazionale con oltre 15 anni di esperienza. Oratore di spicco e leader strategico che guida aziende tecnologiche verso l'impatto globale.
Resta aggiornato
Ricevi approfondimenti su IA, blockchain e cybersecurity direttamente nella tua casella di posta.
Rispettiamo la tua privacy. Puoi cancellarti in qualsiasi momento.
Hai bisogno di agenti IA intelligenti per il tuo business?
Costruiamo agenti autonomi guidati da specifiche che producono risultati reali.
Potrebbe interessarti anche
Shadow AI è già nella tua azienda: come l'IT può riprendere il controllo senza dire no
I tuoi dipendenti stanno già usando ChatGPT dai loro telefoni — senza policy, senza audit, senza governance. Questo articolo presenta le tre tensioni che le aziende affrontano con l'adozione dell'IA, perché le soluzioni attuali non bastano, e l'architettura che permette all'IT di dire sì all'IA senza perdere il controllo: orchestrazione multi-LLM, catene di audit firmate e deployment on-premise.
Tokenizzazione degli asset in Argentina 2026: quadro normativo, architettura tecnica e perché il fideicomiso è il veicolo legale
Il sandbox di tokenizzazione della CNV argentina è attivo fino ad agosto 2026. Questo articolo copre l'intero panorama normativo (CNV, PSAV, BCRA), l'architettura tecnica per tokenizzare asset del mondo reale con ERC-3643 e firme native blockchain, e perché il fideicomiso financiero — il trust finanziario argentino — è il veicolo legale più solido disponibile oggi.
Protocolli Agent-to-Agent: come MCP e A2A stanno ridefinendo l'interoperabilità multi-agente
Una panoramica tecnica dei due protocolli che stanno riformulando la connessione tra agenti di IA: MCP per la comunicazione agente-strumento e A2A per l'orchestrazione agente-agente. Quando usare ciascuno, come si compongono e cosa abbiamo imparato portandoli in produzione.