Arquitetura de Referência de 7 Camadas
AI Agents empresariais precisam de mais que um LLM. Esta arquitetura separa interface de usuário, orquestração, agentes, lógica de decisão, modelos, integração e infraestrutura em sete camadas independentes. Governança permeia todas as camadas como componente transversal.
Por que sete camadas
Um sistema de IA monolítico não é auditável, não é escalável e não é sustentável. A arquitetura de 7 camadas separa responsabilidades: cada camada tem uma função definida e interfaces claras. Uma troca de modelo não altera a lógica de negócio. Um novo sistema destino não altera o agente. Um novo requisito de compliance não altera a infraestrutura.
A arquitetura resulta de exigências empresariais: isolamento de inquilinos, Audit Trail, transparência para sindicatos e representantes dos trabalhadores (PT: Comissão de Trabalhadores), conformidade com LGPD (PT: RGPD), deployment agnóstico de modelos. APIs padrão de LLM não entregam nada disso.
1. Presentation Layer
A interface entre sistema e usuário. Sem lógica de negócio, sem decisões - apenas apresentação e entrada de dados.
- Chat UI: Interface web para usuários finais (analistas de RH, contadores). PWA-ready, responsiva.
- Dashboard: Visão geral de status dos agentes, workflows em execução, escalações abertas. Baseado em funções: analistas veem seus casos, gestores veem indicadores.
- Portal de Auditor: Acesso de auditores ao Audit Trail, controles e evidências. Somente leitura. Para auditores independentes (PT: revisores oficiais de contas), sindicatos e auditoria interna.
- REST API: Interface legível por máquina para integração com sistemas existentes. Versionada, documentada, autenticada.
2. Orchestration Layer
Coordena o fluxo de dados entre agentes, sistemas e usuários. Gerencia workflows, filas e roteamento de APIs.
- Motor de Workflow: Engines open-source (Trigger.dev, Camunda) para processos complexos e multietapa. Workflows visuais, integração via API, webhooks.
- API Gateway: Ponto de entrada unificado com rate limiting, autenticação, logging, monitoramento.
- Sistema de Filas: Processamento assíncrono para processos em lote (fechamento mensal, importação em massa).
- Sistema de Eventos: Reação em tempo real a documentos recebidos, mudanças de status, escalações.
3. Agent Layer
AI Agents especializados que executam tarefas de domínio. Cada agente tem um escopo definido e opera dentro dos limites estabelecidos pelo Decision Layer.
Document Agents
Leem, compreendem e processam documentos com compreensão linguística real. Notas fiscais, atestados médicos, contratos, certidões, comprovantes. Não é correspondência de templates, não são regras rígidas - é compreensão contextual.
Workflow Agents
Orquestram processos entre sistemas. Quando um documento precisa ser lido, uma decisão tomada e uma ação acionada em um sistema destino - o Workflow Agent coordena o fluxo.
Knowledge Agents
Fornecem respostas contextuais a partir do conhecimento empresarial. Acordos coletivos (CCT/ACT; PT: contratos coletivos), políticas internas, regras de compliance. A resposta inclui a fonte e a versão da regra.
4. Decision Layer
Decompõe cada processo de negócio em etapas de decisão individuais e define para cada etapa: humano, conjunto de regras ou IA. Cada decisão é documentada - verificável por auditores independentes (PT: revisores oficiais de contas), sindicatos e auditoria interna.
Rules Engine: Regras de negócio versionadas e rastreáveis. Convenções coletivas (CCT), acordos coletivos (ACT), lógica contábil, regras de compliance. Cada regra tem uma versão, uma data de validade e um escopo de aplicação.
Confidence Routing: Avaliação automática da certeza da decisão. Alta confiança e baixo risco: decisão autônoma. Baixa confiança ou alto risco: escalação para humano.
Human-in-the-Loop: Revisão humana arquitetonicamente imposta em tipos de decisão definidos. Risco de viés, potencial de discriminação, questões de participação de trabalhadores.
Audit Trail: Documentação completa e imutável de cada decisão. Input, modelo, avaliação, regra, resultado, timestamp. Append-only.
Aprofundar: Decision Layer em detalhe · Três tipos de decisões IA
5. Model Layer
A camada LLM. Intercambiável, agnóstica de modelo, desacoplada da lógica de negócio.
Cloud-LLMs
Claude (Anthropic), ChatGPT (OpenAI), Gemini (Google) - via regiões Brasil ou UE dos respectivos provedores de nuvem.
LLMs Open-Source / Open-Weight
Llama (Meta), Mistral, DeepSeek, gpt-oss (OpenAI, Apache 2.0) - completamente self-hostáveis em hardware próprio. gpt-oss-120B roda em uma única GPU H100, gpt-oss-20B em hardware de consumo de 16 GB.
Híbrido
Cloud-LLMs para casos padrão, Self-Hosted-LLMs para dados sensíveis. Roteamento automático conforme classificação de dados.
A escolha do modelo é uma ponderação entre desempenho, custo, proteção de dados e latência. O Model Layer é intercambiável - uma troca de modelo não altera a lógica de negócio das camadas superiores.
Opções concretas de hosting, requisitos de hardware e stack tecnológico: AI Infrastructure em detalhe
6. Integration Layer
A conexão com sistemas empresariais existentes. O agente não substitui sistemas - ele os complementa.
| Categoria de sistema | Integração |
|---|---|
| ERP / Finanças | SAP FI/CO, SAP S/4HANA, TOTVS, Oracle Financials |
| RH / Folha | SAP SuccessFactors, Workday, TOTVS RM |
| Colaboração | SharePoint, Microsoft Teams (via Microsoft Graph) |
| DMS / ECM | SharePoint, d.velop, ELO, nscale |
| Outros | Qualquer sistema com interface REST ou SOAP |
A lógica do agente é desacoplada do sistema destino. Lógica contábil é separada da exportação. Se o sistema destino muda (ex.: de TOTVS para SAP), altera-se a camada de exportação - não o agente.
7. Infrastructure Layer
O fundamento de deployment. Toda a arquitetura roda na infraestrutura do cliente - não na Gosign, não em terceiros.
- Cloud (Brasil e UE): Azure, AWS ou GCP - regiões no Brasil (São Paulo) e na UE. Managed Kubernetes, Managed Databases, LLM Hosting.
- Managed (Brasil ou UE): Vercel EU + Supabase (região sa-east-1 São Paulo ou UE). Opção leve sem infraestrutura Kubernetes própria.
- Self-Hosted: Servidores próprios, datacenter próprio. Docker/Kubernetes, LLMs open-source em GPUs próprias. Total independência do Cloud Act.
- Híbrido: Combinação conforme classificação de dados. Cargas sensíveis self-hosted, cargas padrão na nuvem.
Todas as camadas acima da infraestrutura permanecem idênticas - independentemente do modelo de deployment.
Regiões de nuvem, dimensionamento de hardware, stack tecnológico: AI Infrastructure em detalhe
Governança como Camada Transversal
Governança não é uma camada única, mas permeia toda a arquitetura. Cada camada gera dados de governança, cada camada é controlada por regras de governança.
- Presentation: Acesso baseado em funções, Portal de Auditor
- Orchestration: Logging de workflows, documentação de escalações
- Agent: Decisões de agentes geram entradas no Audit Trail
- Decision Layer: Rules Engine, Confidence Routing, Human-in-the-Loop
- Model: Rastreamento de versões do modelo, hashing de entradas, reprodutibilidade
- Integration: Logging de interfaces, documentação de fluxos de dados
- Infrastructure: Criptografia, Row-Level Security, isolamento de inquilinos
EU AI Act · Cert-Ready by Design · Codeterminação · Data Residency
Runtime e Escalabilidade
Operação em produção não é retrabalho, é componente da arquitetura. A arquitetura de 7 camadas foi projetada para operação sob carga.
- Orquestração de Containers: Deployment baseado em Kubernetes. Cada camada roda em seus próprios containers, escalável independentemente.
- Escalabilidade Horizontal: Agent Layer e Model Layer escalam horizontalmente conforme a utilização. Um novo agente significa mais pods, não mais arquitetura.
- Health Checks e Self-Healing: Liveness e Readiness Probes em todos os containers. Reinício automático em caso de falha, redirecionamento automático em caso de sobrecarga.
- Monitoramento e Alertas: Métricas Prometheus em todas as camadas. Dashboards Grafana para latência, throughput, taxas de erro, profundidade de fila. Alertas ao ultrapassar limiares.
- CI/CD: Deployments baseados em GitOps. Infrastructure as Code (Terraform/Pulumi). Testes automatizados, deployments Blue-Green ou Canary.
Arquitetura de Dados
Dados fluem por todas as sete camadas. A arquitetura define onde os dados são criados, como são armazenados e quem tem acesso.
- Fluxo de dados: Input (documento, consulta) - Agent (análise) - Decision Layer (decisão) - Integration (exportação para sistema destino). Cada etapa gera uma entrada no Audit Trail.
- Vector Store: PostgreSQL com pgvector para busca semântica (RAG). Conhecimento empresarial é armazenado como embeddings, não transmitido a serviços externos.
- Isolamento de inquilinos: Row-Level Security (RLS) no nível de banco de dados. Imposto arquitetonicamente, não por lógica de aplicação. Cada inquilino é completamente isolado.
- Criptografia: Em repouso (AES-256) e em trânsito (TLS 1.3). Gestão de chaves via Identity Provider do cliente ou Hardware Security Modules (HSM).
- Retenção de dados: Configurável conforme requisitos. Obrigações fiscais de guarda (5 anos, Código Tributário Nacional) e LGPD Art. 16 (eliminação de dados) são conciliadas via anonimização em vez de exclusão.
- Backup e Recovery: Backups automatizados, Point-in-Time Recovery. Recovery Point Objective (RPO) e Recovery Time Objective (RTO) configurados por inquilino.
Arquitetura de Interfaces
A arquitetura se comunica por interfaces definidas - internamente entre camadas e externamente com sistemas de origem e destino.
- REST API: APIs versionadas (v1, v2) com documentação OpenAPI. Breaking changes apenas em novas versões, versões anteriores operam em paralelo.
- Event-Driven: Processamento de eventos baseado em webhooks para reações em tempo real. Documento recebido - evento - agente processa. Sem polling, sem atraso de lote.
- MCP (Model Context Protocol): Protocolo padronizado para integração de ferramentas em agentes LLM. Agentes acessam ferramentas externas via MCP - tipado, documentado, auditável.
- Processamento em lote: Para operações em massa (fechamento mensal, cálculos anuais, importação em massa). Baseado em filas com acompanhamento de progresso e tratamento de erros.
- API Gateway: Ponto de entrada central. Autenticação (SSO/OIDC), rate limiting, logging de requisições, monitoramento. Desacopla a arquitetura interna dos consumidores externos.
Princípios de Design
Agnóstico de modelos: Sem vendor lock-in a um único LLM. Modelos são intercambiáveis. Hoje Claude, amanhã gpt-oss, depois um modelo que ainda não existe.
Agnóstico de infraestrutura: Mesma arquitetura em Azure, AWS, GCP, Self-Hosted ou Híbrido. A escolha da infraestrutura é uma decisão do cliente, não da arquitetura.
Agnóstico de sistemas: Lógica do agente desacoplada do sistema destino. Lógica contábil separada da exportação. Uma troca de sistema altera o Integration Layer, não o agente.
Governance by Design: Audit Trail, RBAC, Decision Layer e Human-in-the-Loop são componentes arquitetônicos - não funcionalidades opcionais adicionadas depois.
Cert-Ready by Design: Controles são objetos de dados de primeira classe com geração automática de evidências. ISO 27001, PS 951, SOC 2 - a arquitetura fornece as evidências.
Acesso ao código: Acesso completo ao código-fonte, todos os prompts e conjuntos de regras. Configurações e conjuntos de regras permanecem com o cliente. Stack open-source onde possível. Após 12-18 meses, o cliente opera os agentes de forma independente.
Decision Layer - Fluxo de Decisão
┌──────────┐ ┌──────────────┐ ┌────────────────┐
│ Input │───>│ AI Agent │───>│ Decision Layer │
│(documento│ │ analisa, │ │ │
│ consulta)│ │ compreende, │ │ Verificar │
└──────────┘ │ avalia │ │ regras │
└──────────────┘ │ │
│ Avaliar │
│ confiança │
│ │
│ Rotear │
│ decisão │
└───────┬────────┘
│
┌─────────────┴──────────────┐
│ │
┌────────▼────────┐ ┌──────────▼──────────┐
│ Autônomo │ │ Human-in-the-Loop │
│ │ │ │
│ Alta confiança │ │ Risco de viés │
│ Baixo risco │ │ Baixa confiança │
│ Sem restrição │ │ Restrição de │
│ ativa │ │ participação │
└────────┬────────┘ └──────────┬──────────┘
│ │
│ ┌──────────────┐ │
│ │ Humano │ │
│ │ decide │◄──┘
│ └──────┬───────┘
│ │
┌────────▼────────────────▼────────┐
│ Audit Trail │
│ Input · Modelo · Regra · │
│ Avaliação · Resultado · │
│ Timestamp │
└──────────────────────────────────┘
│
┌────────▼────────┐
│ Sistema destino │
│ (ERP, RH, │
│ Folha) │
└─────────────────┘ Aprofundamento
Implementação
AI Infrastructure
Tecnologias concretas, regiões de nuvem, dimensionamento de hardware, tabela de stack tecnológico.
Infraestrutura em detalhe →Recurso de conhecimento
Blueprint 2026
Onze artigos especializados sobre as decisões de infraestrutura que importam em 2026.
Ver série de artigos →Agentes
AI Agents em visão geral
Document Agents, Workflow Agents, Knowledge Agents - três tipos de agentes para processos empresariais.
Ver AI Agents →Governança
Framework de Governança
EU AI Act, Cert-Ready, Codeterminação, Data Residency - todos os temas de governança em visão geral.
Ver visão geral de governança →Aprofundamento no Agent Briefing
Nossa série de artigos para executivos que implementam agentes de IA na empresa.
Perguntas frequentes sobre a Arquitetura de Referência
Por que uma arquitetura própria em vez de APIs padrão de LLM?
APIs padrão de LLM fornecem compreensão de linguagem, mas não governança, Audit Trail, isolamento de inquilinos nem modelo de permissões. A arquitetura de 7 camadas é a camada entre LLM e sistema empresarial que adiciona exatamente isso. Sem essa camada, qualquer LLM permanece um experimento.
A arquitetura é agnóstica em relação a modelos?
Sim. O Model Layer é intercambiável. Atualmente suportados: Claude, ChatGPT, Gemini, Llama, Mistral, DeepSeek, gpt-oss. Novos modelos são integrados sem alterar as camadas superiores. Sem vendor lock-in a um único LLM.
Como a arquitetura escala com carga crescente?
Cada camada escala independentemente. Agent Layer e Model Layer podem escalar horizontalmente, sem alterar o Decision Layer ou a integração. Deployment baseado em Kubernetes permite auto-scaling conforme a utilização.
Como o isolamento de inquilinos é garantido?
No nível de banco de dados por Row-Level Security (RLS). Cada inquilino vê exclusivamente seus próprios dados, regras e Audit Trails. A separação é imposta arquitetonicamente, não apenas por lógica de aplicação.
A arquitetura pode ser introduzida gradualmente?
Sim. As camadas são desacopladas. Um início típico: um agente (ex.: Document Agent) com Decision Layer, conectado a um sistema existente. Agentes adicionais, integrações e funções de governança são adicionados gradualmente.
Qual a diferença entre esta página e a de infraestrutura?
Esta página descreve o padrão arquitetônico - quais camadas existem e por quê. A página de infraestrutura descreve a implementação concreta - quais tecnologias, quais regiões de nuvem, qual hardware. Arquitetura é o quê, infraestrutura é o como.
Assessment de arquitetura para sua empresa
Analisamos sua paisagem de sistemas existente e mostramos como a arquitetura de 7 camadas se encaixa na sua infraestrutura.
Agendar reunião