Durante los últimos dieciocho meses, vi a directorios de finanzas, energía, gobierno y salud pelearse con la misma pregunta. Saben que los agentes de IA pueden comprimir plazos, reducir costos y extender la capacidad humana. Lo que no saben es cómo responder a su auditor, a su regulador o a su directorio cuando algo sale mal y la pregunta es: '¿Quién autorizó esta decisión, qué información usó el agente, y podés probarlo?'.
La autonomía va más rápido que el accountability
Cada ola tecnológica seria de las últimas dos décadas — cloud, mobile, SaaS, open banking — eventualmente llegó al mismo punto de inflexión. La tecnología funcionaba. Las empresas la adoptaban. Y entonces la pregunta pasaba a ser: ¿quién es responsable? No en sentido moral, sino legal, auditable, reconstruible. Cloud tuvo SOC 2 e ISO 27001. Mobile tuvo la revisión de app stores. Pagos tuvo PCI DSS. Cada uno escaló a nivel empresa recién cuando el marco de accountability alcanzó la tecnología.
Los agentes autónomos de IA están ahora en ese punto de inflexión — y el marco de accountability no alcanzó. Un agente que lee un contrato, propone una acción financiera o tría un caso de soporte está tomando decisiones. Si esas decisiones están mal, alguien carga el costo. Hoy, cuando preguntás '¿cómo decidió el agente?' la respuesta honesta suele ser 'tenemos un log file, probablemente, si no rotó'. Esa no es una respuesta que un auditor acepte. No es una respuesta que el EU AI Act acepte cuando un sistema de alto riesgo cae bajo su alcance. Y no es una respuesta que un directorio deba aceptar.
¿Qué significa realmente 'verificable'?
Un agente de IA verificable es aquel para el cual cualquier tercero autorizado — auditor interno, regulador, cliente — puede responder tres preguntas con evidencia criptográfica, no con la palabra del proveedor:
- Identidad — ¿Qué agente tomó esta acción, en nombre de quién, con qué autoridad delegada? No un nombre de servicio en una línea de log, sino una credencial firmada y revocable que ata la acción a una identidad autorizada.
- Proveniencia — ¿Qué inputs usó el agente? ¿Qué versión de modelo, qué contexto, qué herramientas, qué fuentes de datos? El 'bill of materials' de cada decisión.
- Rastro de acción — ¿Qué hizo exactamente el agente, en qué orden, con qué resultados? No el resumen del happy path, sino la secuencia completa de llamadas a herramientas, razonamiento intermedio y transiciones de estado.
- Integridad — ¿El registro fue alterado desde que ocurrió la acción? Acá es donde las bases de datos tradicionales fallan: quien las administra puede reescribir la historia. Un sistema verificable hace que la manipulación sea detectable por diseño.
Ninguno de estos es un concepto nuevo. Llevamos décadas construyendo rastros de auditoría para banca, aviación y ensayos clínicos. Lo nuevo es la combinación: los agentes actúan más rápido y a mayor volumen que los humanos; su razonamiento es probabilístico; e invocan herramientas en docenas de sistemas en segundos. El sustrato de auditoría tiene que seguirles el ritmo.
Por qué blockchain es el sustrato correcto — y cuándo no lo es
Seamos directos: no creo que blockchain sea la respuesta a la mayoría de los problemas. Fernando Boiero escribió una comparación honesta de cuándo una base de datos supera a un ledger, y coincido con cada palabra. Pero el caso de uso de agentes verificables es exactamente donde las propiedades de blockchain se alinean con el problema.
Una blockchain — permissioned o pública — provee tres propiedades simultáneamente que ningún sistema centralizado provee juntas: una fuente de verdad compartida que ninguna parte puede reescribir unilateralmente, un rastro de auditoría criptográfico que terceros pueden verificar sin acceso a la base de datos subyacente, y un mecanismo nativo de identidad firmada y delegación. Para gobernanza de agentes, esas tres propiedades son exactamente lo que falta.
En la práctica, no hace falta — ni conviene — poner conversaciones crudas de agentes on-chain. Sería caro, destructor de privacidad y técnicamente innecesario. Lo que ponés on-chain es un conjunto de atestaciones: hashes de los inputs, outputs y transiciones de estado de cada acción significativa del agente, firmados con la clave de identidad del agente y anclados con un timestamp verificable. La data cruda se queda en tu almacenamiento seguro. La prueba de qué pasó, cuándo y por quién vive en un ledger que cualquier autorizado puede auditar.
El mapa regulatorio se mueve rápido
Desde mi posición como abogado y CEO de una empresa que opera en Europa, LATAM y Estados Unidos, puedo decirles que la trayectoria regulatoria es inconfundible. Tres marcos son los que más pesan ahora.
El EU AI Act, ya en vigor, exige que los sistemas de IA de alto riesgo mantengan logs que permitan la trazabilidad durante todo el ciclo de vida, incluyendo quién usó el sistema y qué outputs produjo. Para agentes autónomos operando sobre datos regulados, el espíritu de la ley es claro: tenés que poder reconstruir decisiones bajo auditoría. La ISO/IEC 42001, primer estándar de sistema de gestión para IA, formaliza los procesos de gobernanza que las organizaciones deben implementar — incluyendo identidad documentada, accountability y gestión de cambios para sistemas de IA. El NIST AI RMF, referencia de facto en Norteamérica, hace esencialmente las mismas preguntas desde una lente de gestión de riesgo.
En Latinoamérica vemos movimiento en Brasil con el proyecto de ley de IA en discusión, en Argentina con guía sectorial del BCRA y CNV, y en México y Chile con marcos que eco la aproximación europea. Los detalles regionales varían. La demanda central — que las decisiones automatizadas sean trazables, explicables y auditables — no.
Acá está la parte que la mayoría de los equipos de liderazgo se pierden: los reguladores no están pidiendo un nuevo reporte de cumplimiento. Están pidiendo una propiedad del sistema. Un sistema construido para ser verificable desde el día uno produce los artefactos de cumplimiento como subproducto de operar. Uno que no, tiene que generar esos artefactos a posteriori, frecuentemente de forma imperfecta, a costo recurrente. La diferencia compone.
Cómo abordamos esto en Xcapit
Nuestra posición es simple: todo agente que ponemos en producción carga su accountability consigo. Eso significa tres cosas por defecto.
Primero, todo agente tiene una identidad criptográfica emitida al momento del deployment. Cuando un agente invoca una herramienta, llama a otro agente o escribe a un sistema de registro, esa acción es firmada con la clave del agente y atada al humano u organización que la autorizó. No es teórico — así maneja delegación nuestro framework multi-agente ArgenTor y por eso nuestra plataforma de revisión de seguridad AiSec puede decirle a un cliente no solo 'el hallazgo existe' sino 'este agente específico, con esta versión específica de modelo, produjo este hallazgo en este timestamp, y acá está la cadena de evidencia'.
Segundo, toda acción significativa genera una atestación firmada — un registro pequeño y estructurado hasheado y anclado en una línea de tiempo verificable. Para clientes regulados, esa línea de tiempo es una blockchain permissioned que co-gobiernan. Para otros, es un ancla pública que preserva integridad sin divulgar datos. En cualquier caso, la historia de auditoría es la misma: la data cruda queda privada, la prueba es verificable de forma independiente.
Tercero, y acá es donde la lente legal importa: tratamos la verificabilidad como contractual. Si una empresa va a aceptar decisiones de agentes dentro de un proceso regulado, las propiedades de verificabilidad se escriben en el acuerdo, no se prometen en un pitch deck. La misma disciplina que traemos a addenda de tratamiento de datos y schedules de seguridad aplica a gobernanza de agentes.
Qué deberían estar haciendo los equipos de liderazgo ahora
- Dejen de tratar la 'gobernanza de IA' como un documento de política. Es un conjunto de propiedades de sistema que o existen en tu stack o no. Una política que referencia capacidades que tu tecnología no tiene es peor que no tener política — es exposición.
- Exijan a sus proveedores que respondan las tres preguntas. Antes de que un agente toque un flujo regulado, pidan al proveedor demostrar identidad, proveniencia y rastro de acción con evidencia verificable por terceros. Si no pueden, están heredando su riesgo.
- Inviertan en verificabilidad como plataforma, no por proyecto. Las organizaciones que ganen la próxima década tendrán una única fábrica de accountability debajo de todos sus agentes, no cuarenta esquemas de logging aislados.
- Alineen a sus equipos legales, de riesgo y de tecnología temprano. Los agentes verificables son una cuestión de gobernanza tanto como de ingeniería. Las empresas que hacen esto bien tienen a su general counsel, CISO y CTO en la misma conversación — no secuenciados a lo largo de trimestres.
- Traten el cumplimiento como una feature de producto. Un sistema construido para auditabilidad acelera las ventas empresariales, acorta la procuración y transforma el cambio regulatorio de amenaza en estrechamiento del campo competitivo.
Las empresas que adopten agentes autónomos hoy están fijando el precedente de accountability para la década. Si tus agentes pueden responder al auditor mañana, tenés una franquicia. Si no, tenés una responsabilidad disfrazada de historia de productividad.
Fernando escribió en paralelo sobre los protocolos técnicos que hacen interoperables a los sistemas multi-agente. La gobernanza verificable es la otra mitad de esa conversación — sin ella, la interoperabilidad escala el problema en vez de resolverlo.
Si tu equipo está diseñando la capa de accountability para agentes de IA y quiere un partner que ya lo haya llevado a producción en ambientes regulados, hablemos.
José Trajtenberg
CEO & Co-Fundador
Abogado y emprendedor en negocios internacionales con más de 15 años de experiencia. Orador destacado y líder estratégico impulsando empresas tecnológicas hacia el impacto global.
Mantenete al dia
Recibí novedades sobre IA, blockchain y ciberseguridad en tu bandeja de entrada.
Respetamos tu privacidad. Podés desuscribirte en cualquier momento.
¿Necesitás agentes de IA inteligentes para tu negocio?
Construimos agentes autónomos guiados por especificaciones que generan resultados reales.
También te puede interesar
Shadow AI ya está en tu empresa: cómo IT puede retomar el control sin decir que no
Tus empleados ya están usando ChatGPT desde el celular — sin política, sin auditoría, sin gobernanza. Este artículo explica las tres tensiones que enfrentan las empresas con la adopción de IA, por qué las soluciones actuales se quedan cortas, y la arquitectura que le permite a IT decir sí a la IA sin perder el control: orquestación multi-LLM, cadenas de auditoría firmadas y despliegue on-premise.
Tokenización de activos en Argentina 2026: marco regulatorio, arquitectura técnica y por qué el fideicomiso financiero es el vehículo
La CNV tiene un sandbox de tokenización activo que vence en agosto 2026. Este artículo cubre el panorama regulatorio completo (CNV, PSAV, BCRA), la arquitectura técnica para tokenizar activos reales usando ERC-3643 y firmas blockchain nativas, y por qué el fideicomiso financiero es el vehículo legal más sólido disponible hoy.
Protocolos Agent-to-Agent: cómo MCP y A2A están redefiniendo la interoperabilidad multi-agente
Un recorrido técnico por los dos protocolos que están reformulando la conexión entre agentes de IA: MCP para la comunicación agente-herramienta y A2A para la orquestación agente-agente. Cuándo usar cada uno, cómo se componen y qué aprendimos llevándolos a producción.