Arquitectura de Referencia de 7 Capas
Los AI Agents empresariales necesitan mas que un LLM. Esta arquitectura separa interfaz de usuario, orquestacion, agentes, logica de decision, modelos, integracion e infraestructura en siete capas independientes. La gobernanza atraviesa todas las capas como componente transversal.
Por que siete capas
Un sistema de IA monolitico no es auditable, no es escalable y no se puede mantener. La arquitectura de 7 capas separa responsabilidades: cada capa tiene una funcion definida y interfaces claras. Un cambio de modelo no altera la logica de negocio. Un nuevo sistema destino no modifica el agente. Un nuevo requisito de cumplimiento normativo no cambia la infraestructura.
La arquitectura es el resultado de requisitos empresariales: aislamiento de inquilinos, Audit Trail, transparencia para el Comite de Empresa (Art. 64 Estatuto de los Trabajadores), conformidad con el EU AI Act supervisada por la AESIA, cumplimiento del RGPD y la LOPDGDD, y despliegue agnostico de modelos. Las APIs estandar de LLM no proporcionan nada de esto.
1. Presentation Layer
La interfaz entre el sistema y el usuario. Sin logica de negocio, sin decisiones - solo visualizacion y entrada.
- Chat UI: Interfaz web para usuarios finales (gestores de RRHH, contables). Compatible con PWA, responsiva.
- Dashboard: Vista de estado de agentes, workflows activos, escalaciones pendientes. Basado en roles: los gestores ven sus casos, los directores ven indicadores.
- Auditor Portal: Acceso para auditores al Audit Trail, controles y evidencias. Solo lectura. Para auditores de cuentas, el Comite de Empresa y revision interna.
- REST API: Interfaz legible por maquina para integracion con sistemas existentes. Versionada, documentada, autenticada.
2. Orchestration Layer
Coordina el flujo de datos entre agentes, sistemas y usuarios. Gestiona workflows, colas y enrutamiento de APIs.
- Motor de Workflow: Motores open source (Trigger.dev, Camunda) para procesos complejos y multietapa. Workflows visuales, integracion de APIs, webhooks.
- API Gateway: Punto de entrada unificado con Rate Limiting, autenticacion, logging y monitoring.
- Sistema de Colas: Procesamiento asincrono para procesos batch (cierre mensual, importacion masiva).
- Sistema de Eventos: Reaccion en tiempo real a documentos entrantes, cambios de estado y escalaciones.
3. Agent Layer
AI Agents especializados que ejecutan tareas profesionales. Cada agente tiene un ambito de responsabilidad definido y opera dentro de los limites que establece el Decision Layer.
Document Agents
Leen, comprenden y procesan documentos con verdadera comprension del lenguaje. Facturas, partes de baja, contratos, certificados, justificantes. Sin reconocimiento de plantillas, sin reglas rigidas - comprension contextual.
Workflow Agents
Orquestan procesos entre multiples sistemas. Cuando se necesita leer un documento, tomar una decision y ejecutar una accion en un sistema destino - el Workflow Agent coordina el flujo completo.
Knowledge Agents
Proporcionan respuestas contextuales basadas en el conocimiento empresarial. Acuerdos de empresa, politicas internas, convenios colectivos, normas de cumplimiento. Cada respuesta incluye la fuente y la version de la norma aplicada.
4. Decision Layer
Descompone cada proceso de negocio en pasos de decision individuales y define para cada paso: persona, conjunto de reglas o IA. Cada decision queda documentada - verificable por auditores de cuentas, el Comite de Empresa y revision interna.
Rules Engine: Conjuntos de reglas profesionales, versionados y trazables. Convenios colectivos, acuerdos de empresa, logica contable, normas de cumplimiento. Cada regla tiene una version, una fecha de vigencia y un ambito de aplicacion.
Confidence Routing: Evaluacion automatica del nivel de confianza de la decision. Confianza alta y riesgo bajo: decision autonoma. Confianza baja o riesgo alto: escalacion a persona.
Human-in-the-Loop: Revision humana arquitectonicamente impuesta para determinados tipos de decision. Riesgo de sesgo, potencial de discriminacion, temas sujetos al derecho de informacion y consulta del Comite de Empresa (Art. 64 ET).
Audit Trail: Documentacion completa e inmutable de cada decision. Input, modelo, evaluacion, regla, resultado, marca temporal. Solo adicion.
Profundizar: Decision Layer en detalle · Tres tipos de decisiones IA
5. Model Layer
La capa LLM. Intercambiable, agnostica respecto a modelos, desacoplada de la logica de negocio.
Cloud LLMs
Claude (Anthropic), ChatGPT (OpenAI), Gemini (Google) - a traves de regiones UE de los respectivos proveedores cloud.
LLMs Open Source / Open Weight
Llama (Meta), Mistral, DeepSeek, gpt-oss (OpenAI, Apache 2.0) - completamente self-hostable en hardware propio. gpt-oss-120B funciona en una unica GPU H100, gpt-oss-20B en 16 GB de hardware de consumo.
Hibrido
LLMs cloud para casos estandar, LLMs self-hosted para datos sensibles. Enrutamiento automatico segun la clasificacion de datos.
La eleccion del modelo es un equilibrio entre rendimiento, costes, proteccion de datos y latencia. El Model Layer es intercambiable - un cambio de modelo no altera la logica de negocio de las capas superiores.
Opciones concretas de hosting, requisitos de hardware y stack tecnologico: AI Infrastructure en detalle
6. Integration Layer
La conexion con los sistemas empresariales existentes. El agente no sustituye sistemas - los amplia.
| Categoria de sistema | Integracion |
|---|---|
| ERP / Finanzas | SAP FI/CO, SAP S/4HANA, DATEV, Oracle Financials |
| RRHH / Nominas | SAP SuccessFactors, Workday, Personio |
| Colaboracion | SharePoint, Microsoft Teams (via Microsoft Graph) |
| DMS / ECM | SharePoint, d.velop, ELO, nscale |
| Otros | Cualquier sistema con interfaz REST o SOAP |
La logica del agente esta desacoplada del sistema destino. La logica contable esta separada de la exportacion. Si cambia el sistema destino (por ejemplo, de DATEV a SAP), cambia el Export Layer, no el agente.
7. Infrastructure Layer
El fundamento de despliegue. Toda la arquitectura se ejecuta en la infraestructura del cliente - no en Gosign, no en un tercero.
- Cloud (UE): Azure, AWS o GCP - exclusivamente regiones UE. Kubernetes gestionado, bases de datos gestionadas, hosting de LLM.
- Managed UE: Vercel EU + Supabase EU. Opcion ligera en la UE sin infraestructura Kubernetes propia.
- Self-Hosted: Servidores propios, centro de datos propio. Docker/Kubernetes, LLMs open source en GPUs propias. Total independencia del Cloud Act.
- Hibrido: Combinacion segun clasificacion de datos. Cargas sensibles en self-hosted, cargas estandar en cloud.
Todas las capas por encima de la capa de infraestructura permanecen identicas, independientemente del modelo de despliegue.
Regiones cloud, dimensionamiento de hardware, stack tecnologico: AI Infrastructure en detalle
Gobernanza como componente transversal
La gobernanza no es una capa individual, sino que atraviesa toda la arquitectura. Cada capa genera datos de gobernanza, cada capa es controlada por reglas de gobernanza.
- Presentation: Acceso basado en roles, Auditor Portal
- Orchestration: Logging de workflows, documentacion de escalaciones
- Agent: Las decisiones de agentes generan entradas de Audit Trail
- Decision Layer: Rules Engine, Confidence Routing, Human-in-the-Loop
- Model: Seguimiento de versiones de modelo, hashing de entradas, reproducibilidad
- Integration: Logging de interfaces, documentacion de flujos de datos
- Infrastructure: Cifrado, Row-Level Security, aislamiento de inquilinos
EU AI Act · Cert-Ready by Design · Codeterminacion · Data Residency
Runtime y escalabilidad
El funcionamiento en produccion no es un trabajo posterior, sino un componente arquitectonico. La arquitectura de 7 capas esta disenada para operar bajo carga.
- Orquestacion de contenedores: Despliegue basado en Kubernetes. Cada capa funciona en sus propios contenedores, escalables de forma independiente.
- Escalabilidad horizontal: El Agent Layer y el Model Layer escalan horizontalmente segun la carga. Un nuevo agente significa mas pods, no mas arquitectura.
- Health Checks y Self-Healing: Liveness y Readiness Probes en todos los contenedores. Reinicio automatico en caso de fallo, redireccion automatica en caso de sobrecarga.
- Monitoring y Alerting: Metricas Prometheus en todas las capas. Dashboards Grafana para latencia, throughput, tasas de error y profundidad de colas. Alertas al superar umbrales.
- CI/CD: Despliegues basados en GitOps. Infrastructure as Code (Terraform/Pulumi). Tests automatizados, Blue-Green o Canary Deployments.
Arquitectura de datos
Los datos fluyen a traves de las siete capas. La arquitectura define donde se generan los datos, como se almacenan y quien tiene acceso.
- Flujo de datos: Input (documento, consulta) - Agent (analisis) - Decision Layer (decision) - Integration (exportacion al sistema destino). Cada paso genera una entrada de Audit Trail.
- Vector Store: PostgreSQL con pgvector para busqueda semantica (RAG). El conocimiento empresarial se almacena como embeddings, sin enviarse a servicios externos.
- Aislamiento de inquilinos: Row-Level Security (RLS) a nivel de base de datos. Impuesto arquitectonicamente, no mediante logica de aplicacion. Cada inquilino esta completamente aislado.
- Cifrado: En reposo (AES-256) y en transito (TLS 1.3). Gestion de claves a traves del proveedor de identidad del cliente o modulos de seguridad de hardware (HSM).
- Retencion de datos: Configurable segun requisitos. La obligacion de conservacion fiscal y el derecho de supresion del RGPD Art. 17 se resuelven mediante anonimizacion en lugar de eliminacion.
- Backup y Recovery: Copias de seguridad automatizadas, Point-in-Time Recovery. Recovery Point Objective (RPO) y Recovery Time Objective (RTO) se configuran por inquilino.
Arquitectura de interfaces
La arquitectura se comunica a traves de interfaces definidas - internamente entre capas y externamente con sistemas de origen y destino.
- REST API: APIs versionadas (v1, v2) con documentacion OpenAPI. Cambios incompatibles solo en versiones nuevas; las versiones anteriores se mantienen en paralelo.
- Event-Driven: Procesamiento de eventos basado en webhooks para reaccion en tiempo real. Documento entrante - evento - agente procesa. Sin polling, sin retardo batch.
- MCP (Model Context Protocol): Protocolo estandarizado para integracion de herramientas en agentes LLM. Los agentes acceden a herramientas externas a traves de MCP - tipadas, documentadas, auditables.
- Procesamiento batch: Para operaciones masivas (cierre mensual, liquidacion anual, importacion masiva). Basado en colas con seguimiento de progreso y gestion de errores.
- API Gateway: Punto de entrada central. Autenticacion (SSO/OIDC), Rate Limiting, logging de peticiones, monitoring. Desacopla la arquitectura interna de los consumidores externos.
Principios de diseno
Agnostico de modelos: Sin vendor lock-in con un unico LLM. Los modelos son intercambiables. Hoy Claude, manana gpt-oss, pasado manana un modelo que hoy aun no existe.
Agnostico de infraestructura: La misma arquitectura en Azure, AWS, GCP, self-hosted o hibrido. La eleccion de infraestructura es una decision del cliente, no de la arquitectura.
Agnostico de sistemas: La logica del agente esta desacoplada del sistema destino. Logica contable separada de exportacion. Un cambio de sistema modifica el Integration Layer, no el agente.
Governance by Design: Audit Trail, RBAC, Decision Layer y Human-in-the-Loop son componentes arquitectonicos - no funcionalidades opcionales que se anaden despues.
Cert-Ready by Design: Los controles son objetos de datos de primera clase con generacion automatica de evidencias. ISO 27001, PS 951, SOC 2 - la arquitectura genera las pruebas.
Acceso al codigo: Acceso completo al codigo fuente, todos los prompts y conjuntos de reglas. Las configuraciones y conjuntos de reglas permanecen con el cliente. Stack open source donde sea posible. Tras 12-18 meses, el cliente opera los agentes de forma independiente.
Decision Layer - Flujo de decision
┌──────────┐ ┌──────────────┐ ┌────────────────┐
│ Input │───>│ AI Agent │───>│ Decision Layer │
│(documento│ │ analiza, │ │ │
│ consulta)│ │ comprende, │ │ Verificar │
└──────────┘ │ evalua │ │ reglas │
└──────────────┘ │ │
│ Evaluar │
│ confianza │
│ │
│ Decidir │
│ enrutamiento │
└───────┬────────┘
│
┌─────────────┴──────────────┐
│ │
┌────────▼────────┐ ┌──────────▼──────────┐
│ Autonomo │ │ Human-in-the-Loop │
│ │ │ │
│ Alta confianza │ │ Riesgo de sesgo │
│ Bajo riesgo │ │ Baja confianza │
│ Sin restriccion │ │ Restriccion activa │
│ normativa │ │ Consulta al Comite │
└────────┬────────┘ └──────────┬──────────┘
│ │
│ ┌──────────────┐ │
│ │ Persona │ │
│ │ decide │◄──┘
│ └──────┬───────┘
│ │
┌────────▼────────────────▼────────┐
│ Audit Trail │
│ Input · Modelo · Regla · │
│ Evaluacion · Resultado · │
│ Marca temporal │
└──────────────────────────────────┘
│
┌────────▼────────┐
│ Sistema │
│ destino │
│ (ERP, RRHH, │
│ Nominas) │
└─────────────────┘ Para profundizar
Implementacion
AI Infrastructure
Tecnologias concretas, regiones cloud, dimensionamiento de hardware, tabla de stack tecnologico.
Infraestructura en detalle →Recurso de conocimiento
Blueprint 2026
Once articulos sobre las decisiones de infraestructura que importan en 2026.
A la serie de articulos →Agentes
AI Agents
Document Agents, Workflow Agents, Knowledge Agents - tres tipos de agentes para procesos empresariales.
Explorar AI Agents →Governance
Marco de Governance
EU AI Act, Cert-Ready, Codeterminacion, Data Residency - todos los temas de governance en un vistazo.
Vista general Governance →Profundización en el Agent Briefing
Nuestra serie de artículos para ejecutivos que implementan agentes de IA en la empresa.
Preguntas frecuentes sobre la Arquitectura de Referencia
¿Por que una arquitectura propia en lugar de APIs estandar de LLM?
Las APIs estandar de LLM proporcionan comprension del lenguaje, pero no gobernanza, ni Audit Trail, ni aislamiento de inquilinos, ni modelo de roles. La arquitectura de 7 capas es la capa entre el LLM y el sistema empresarial que proporciona exactamente eso. Sin esta capa, cualquier LLM sigue siendo un experimento.
¿La arquitectura es agnostica respecto a modelos?
Si. El Model Layer es intercambiable. Actualmente soportados: Claude, ChatGPT, Gemini, Llama, Mistral, DeepSeek, gpt-oss. Se integran nuevos modelos sin modificar las capas superiores. Sin vendor lock-in con ningun LLM individual.
¿Como escala la arquitectura bajo carga creciente?
Cada capa escala de forma independiente. El Agent Layer y el Model Layer pueden escalar horizontalmente sin modificar el Decision Layer ni la integracion. El despliegue basado en Kubernetes permite auto-scaling segun la carga.
¿Como se garantiza el aislamiento de inquilinos?
A nivel de base de datos mediante Row-Level Security (RLS). Cada inquilino ve exclusivamente sus propios datos, reglas y Audit Trails. La separacion es arquitectonicamente impuesta, no solo mediante logica de aplicacion.
¿Se puede introducir la arquitectura de forma gradual?
Si. Las capas estan desacopladas. Un punto de entrada tipico: un agente (por ejemplo, Document Agent) con Decision Layer, conectado a un sistema existente. Agentes adicionales, integraciones y funciones de gobernanza se anaden gradualmente.
¿Que diferencia esta pagina de la pagina de infraestructura?
Esta pagina describe el patron arquitectonico - que capas existen y por que. La pagina de infraestructura describe la implementacion concreta - que tecnologias, que regiones cloud, que hardware. La arquitectura es el que, la infraestructura es el como.
Assessment de arquitectura para su empresa
Analizamos su panorama de sistemas existente y le mostramos como la arquitectura de 7 capas encaja en su infraestructura.
Agendar reunion