Investir na era da IA
Obra de arte abstrata composta por fitas multicoloridas translúcidas que se entrelaçam sobre um fundo azul-petróleo, com círculos claros ao longo da margem esquerda.
IAArtigos

De que são realmente feitos os sistemas de IA: a arquitetura explicada

Publicado: 20 de abril de 2026
Atualizado: 20 de abril de 2026
Principais conclusões
  • Os sistemas modernos de IA são compostos por quatro camadas distintas — LLM, MCP, competências e agentes —, cada uma delas destinada a resolver um problema diferente. Adquirir uma ferramenta sem compreender quais as camadas que esta abrange é o que leva as organizações a ficarem com demonstrações impressionantes e sistemas de produção pouco fiáveis.
  • Acesso e inteligência não são a mesma coisa. Uma IA capaz de aceder aos seus dados continua a precisar de metodologia e de conhecimentos especializados na área para poder fazer algo útil com eles.
  • Os principais laboratórios de IA adotaram a mesma arquitetura. A terminologia difere, mas as camadas subjacentes são consistentes — o que significa que as integrações e as competências que desenvolve hoje têm menos probabilidades de ficar limitadas a um único fornecedor.

Série sobre Arquitetura de IA – Parte 2

Na primeira parte desta série, explicámos por que razão é importante escolher a arquitetura de IA certa, especialmente em ambientes regulamentados, onde uma decisão errada tem consequências cada vez mais graves ao longo do tempo. Desta vez, vamos abordar os próprios elementos constitutivos.

Os sistemas modernos de IA não são monolíticos. São constituídos por camadas distintas, cada uma com uma função diferente. Compreender a finalidade de cada camada facilita muito a avaliação das ferramentas, permite fazer as perguntas certas e evita o erro de adquirir funcionalidades em vez de infraestrutura.

Os exemplos apresentados neste artigo são intencionalmente simples. O objetivo aqui é mostrar como as camadas se interligam, e não reproduzir fluxos de trabalho reais. No próximo artigo, abordaremos como esta arquitetura se aplica na prática, especificamente no setor dos serviços financeiros.

Camada 1: O LLM, o motor de raciocínio

Um modelo de linguagem de grande escala, ou LLM, é o núcleo da maioria dos sistemas modernos de IA. É o componente que lê, escreve, resume, analisa e gera respostas. Quando as pessoas falam do GPT-4, do Claude ou do Gemini, estão a referir-se aos LLMs.

Pense no LLM como o cérebro. É capaz de raciocinar e gerar conteúdo numa enorme variedade de temas e formatos, mas, por si só, não conhece os seus dados internos, o contexto específico da sua organização nem a metodologia que a sua equipa utiliza. Trata-se de inteligência de uso geral: poderosa, mas em bruto.

As restantes camadas existem para ligar essa inteligência à informação adequada e orientá-la para resultados específicos e consistentes.

NÍVEL 1 – APENAS LLM

A modelo sabe muito

Mas apenas o que aprendeu durante o treino. Sem dados reais. Sem contexto empresarial. Sem ligação ao mundo exterior.

Assistente de IA
Como está o tempo neste momento no nosso escritório de Nova Iorque?
Não tenho acesso a dados meteorológicos em tempo real nem à localização dos escritórios da sua empresa. De um modo geral, em março, o tempo em Nova Iorque pode variar entre frio e ameno – normalmente entre 1,7 °C e 12,8 °C.

⚠️ O que ainda falta

O modelo não tem como aceder a nada além dos seus dados de treino. Não consegue consultar informações em tempo real, fazer consultas aos seus sistemas internos nem conhecer nada específico da sua organização. Trata-se de inteligência de uso geral, sem qualquer ligação ao seu mundo.

Camada 2: MCPs, a camada de ligação

MCP significa Model Context Protocol. Trata-se de um padrão aberto que define a forma como os sistemas de IA se ligam a fontes de dados e ferramentas externas. Originalmente introduzido pela Anthropic e cada vez mais adotado em todo o setor, o MCP substitui um emaranhado de integrações pontuais por um protocolo comum, tal como o USB-C substituiu uma gaveta cheia de cabos incompatíveis.

Na prática, um servidor MCP disponibiliza funcionalidades (consultar uma base de dados, ler a partir de um repositório de documentos, verificar um fluxo de dados em tempo real, executar um trecho de código) de forma que os sistemas de IA possam identificá-las e utilizá-las de maneira consistente. Em vez de criar uma integração personalizada para cada ferramenta à qual a IA precisa de aceder, basta ligá-las através do MCP, e qualquer sistema de IA que suporte o padrão poderá utilizá-las.

Uma coisa que vale a pena salientar: o MCP gere o acesso, não a inteligência. Ele determina até onde a IA pode chegar; o que ela faz com o que encontra continua a depender do modelo e das camadas superiores.

CAMADA 2 – MCP

O MCP proporciona ao modelo uma forma padrão de interagir com o exterior

Aceder a dados em tempo real, APIs e ferramentas internas – sem ter de criar uma ligação personalizada para cada utilização.

Assistente de IA
Como está o tempo neste momento no nosso escritório de Nova Iorque?

Por baixo do capô

MCP 🌤 Serviço Meteorológico – Previsão para os próximos 30 dias
Não tenho acesso a dados meteorológicos em tempo real nem à localização dos escritórios da sua empresa. De um modo geral, em março, o tempo em Nova Iorque pode variar entre frio e ameno – normalmente entre 1,7 °C e 12,8 °C.

⚠️ O que ainda falta

O modelo já consegue aceder a dados externos — mas não tem noção de como a sua organização funciona. Não sabe qual é o seu formato de saída preferido, a metodologia que a sua equipa segue, nem os conhecimentos especializados que tornam a sua análise única. Dados acessíveis não são sinónimo de dados úteis.

Nível 3: Competências, o nível do know-how

Se o MCP responde à pergunta «A que é que a IA pode aceder?», as competências respondem à pergunta «Como é que a IA deve fazer esta coisa em particular?»

Uma «skill» é um pacote reutilizável e portátil que codifica um fluxo de trabalho, uma metodologia ou conhecimentos especializados específicos. Pode reunir instruções, exemplos, modelos e lógica estruturada num formato que um sistema de IA possa carregar e aplicar de forma consistente. E, tal como o MCP, as skills são desenvolvidas como um padrão aberto — o que significa que uma skill bem concebida pode ser partilhada e reutilizada em diferentes sistemas de IA que suportem a especificação, sem estar vinculada a nenhuma plataforma específica.

Uma boa metáfora vem do filme «Matrix»: quando o Neo precisa de aprender kung fu, o conhecimento não é adquirido através de anos de prática; é instalado. As competências funcionam de forma semelhante. Conferem a um sistema de IA uma capacidade reutilizável que codifica os conhecimentos especializados de uma forma que este pode aplicar de imediato e de forma consistente.

Isto revela-se especialmente eficaz em organizações que têm «uma forma específica de fazer as coisas». Por exemplo, os relatórios dos analistas no setor financeiro seguem uma estrutura específica. Os memorandos de conformidade têm requisitos rigorosos em termos de formato e tom. As decisões de aquisição seguem uma metodologia de aprovação predefinida. Sem competências, seria necessário explicar novamente esses requisitos sempre que se realizasse uma tarefa. Com competências, a metodologia é codificada uma vez e aplicada de forma consistente, independentemente de quem a executa ou de qual o modelo subjacente que a alimenta.

Na prática, uma competência é apenas um conjunto estruturado de documentos: instruções, exemplos, modelos e material de referência que o modelo lê e segue, tal como os guias metodológicos ou os procedimentos operacionais normalizados que a sua equipa já mantém. A diferença é que está formatada de forma a que um sistema de IA a possa aplicar de forma consistente e automática, em vez de depender de alguém para se lembrar dos passos corretos.

Nem todas as organizações estão preparadas para criar competências completas desde o primeiro dia. A maioria das principais plataformas oferece uma versão mais simplificada do mesmo conceito através dos projetos: uma forma de organizar e manter o contexto, as instruções e os ficheiros ao longo das conversas, para que o modelo retenha as suas preferências e conhecimentos sem necessidade de ser reorientado de cada vez. Os projetos são menos poderosos e portáteis do que uma competência, mas constituem um ponto de partida prático para equipas que procuram consistência sem o esforço adicional de criar e distribuir competências por toda a organização.

A distinção a ter em conta: MCP = acesso. Competências = método.

NÍVEL 3 – COMPETÊNCIAS

A função indica ao modelo o que deve saber. O MCP indica-lhe onde procurar.

Em conjunto, uma pergunta que teria deixado o modelo sem resposta por si só recebe uma resposta precisa e estruturada.

Assistente de IA
Como está o tempo hoje em cada um dos nossos escritórios?

Por baixo do capô

Habilidade 🏢 Escritórios da empresa – 5 locais
MCP 🌤 Serviço Meteorológico – Previsão para os próximos 30 dias

Eis o tempo em todas as sedes:

Nova Iorque 7 °C Parcialmente nublado Londres 12 °C Nublado São Paulo 24 °C Chuvas

Singapura 31 °C Húmido Madrid 16 °C Céu limpo

⚠️ O que ainda falta

O modelo consegue aceder aos dados certos e aplicar a sua metodologia — mas os fluxos de trabalho complexos e com várias etapas continuam a necessitar de alguém que coordene manualmente cada fase. Quanto mais etapas uma tarefa envolver, maior será o esforço humano necessário para as encadear.

Camada 4: Agentes, a camada de orquestração

Um agente é um sistema que combina um LLM com ferramentas, instruções e lógica para realizar tarefas de várias etapas com um certo grau de autonomia. Enquanto um assistente simples responde a uma pergunta e fica por aí, um agente planeia, recupera, executa, verifica os seus próprios resultados e adapta-se quando algo não corre como esperado.

Se o LLM é o cérebro, o MCP é o tecido conjuntivo que o liga ao mundo e as competências são as capacidades adquiridas a que ele pode recorrer, então o agente é o operador que reúne tudo para que as tarefas sejam efetivamente realizadas.

É aqui que o «assistente de IA» se transforma num «sistema de IA». Um assistente limita-se a responder com base no seu conhecimento pré-definido. Um agente, por sua vez, consegue explorar informações e tomar medidas de forma autónoma.

CAMADA 4 – AGENTE

Os agentes planeiam, decidem e executam

O LLM raciocina, os MCPs estabelecem ligações, as competências fornecem o método e o agente coordena tudo isso com vista a um resultado.

Assistente de IA
Quais são as melhores semanas do próximo mês para visitar cada um dos nossos escritórios?

Por baixo do capô

Habilidade 🏢 Escritórios da empresa – 5 locais encontrados
MCP 🌤 Serviço Meteorológico – Previsão para os próximos 30 dias
Agente 👤 Identificadas as melhores épocas para viajar
MCP 📅 Calendário – Semanas disponíveis encontradas
Agente 👤 Itinerário semanal pronto

Os melhores meses para visitar os escritórios são os seguintes:

7 a 11 de abril Nova Iorque – São Paulo 22 a 24 de abril Singapura

14 a 18 de abril Londres – Madrid

Em todas as quatro camadas, aplica-se um princípio: cada camada resolve um problema diferente. O LLM fornece o raciocínio. O MCP fornece o acesso. As competências fornecem o método. Os agentes fornecem a orquestração. Um sistema que seja forte numa camada, mas fraco noutra, revelará rapidamente as suas lacunas em produção: impressionante numa demonstração, mas pouco fiável em escala.

Como os principais laboratórios de IA estão a implementar estas camadas

Os principais laboratórios de IA acabaram por adotar arquiteturas notavelmente semelhantes, apesar de terem abordado o problema a partir de pontos de partida diferentes.

O sinal mais evidente desta convergência é o próprio MCP. O que começou por ser um protocolo de código aberto da Anthropic foi adotado por todas as principais plataformas. A OpenAI, a Google e a Microsoft suportam o MCP, tornando-o o padrão comum para ligar sistemas de IA a ferramentas e dados externos. Para as organizações que desenvolvem integrações, isto significa que as ligações em que investem hoje têm muito menos probabilidades de ficar limitadas a um único fornecedor.

Para além da camada de ligação, cada laboratório está a completar a pilha à sua maneira:

  • A Anthropic aplicou a mesma filosofia de «padrão aberto» ao lançar o Skills — uma forma portátil de codificar metodologias e conhecimentos especializados que funciona em todas as plataformas. Os Plugins do Claude agrupam ligações MCP e competências em pacotes instaláveis, facilitando a atribuição de acesso e conhecimentos a um sistema de IA num único passo.
  • A OpenAI desenvolveu o seu ecossistema de integrações sob a alçada do Apps, que permite ao ChatGPT aceder a ferramentas e fontes de dados externas.
  • A Microsoft transformou o Copilot Studio na sua plataforma de criação de agentes, com conectores baseados em MCP e uma nova funcionalidade de «Notebooks» para manter o contexto do projeto.
  • A Google suporta o MCP nas suas plataformas para programadores e na nuvem, e introduziu recentemente os «Projetos» como forma de manter o contexto e as instruções ao longo das conversas.

A terminologia varia consoante as plataformas, mas os conceitos subjacentes correspondem às mesmas camadas:

A SÉRIE SOBRE ARQUITETURA DE IA – PARTE 2

Como os principais laboratórios de IA implementam as quatro camadas

A mesma arquitetura, quatro vocabulários diferentes


Antropic OpenAI Microsoft Google
Aplicação principal GenAI Claude ChatGPT Copiloto Gémeos
Contexto persistente Projetos Projetos Cadernos Projetos
Camada de ligação Conectores Aplicações Conectores Extensões; MCP (apenas dev/cloud)
Funcionalidades do agente Claude Cowork Modo Agente Copilot Studio Agente Gemini

Para quem está a desenvolver fluxos de trabalho baseados em IA no setor dos serviços financeiros, esta convergência é uma boa notícia — mas não elimina a questão da governança. A forma como cada plataforma lida com as ligações de dados, a metodologia e a orquestração em várias etapas determina se o sistema que se desenvolve hoje resistirá a um escrutínio amanhã.

O que se segue: agentes que agem e agentes que colaboram

Muitas das ferramentas que as pessoas já utilizam têm agentes a funcionar em segundo plano. Quando o ChatGPT escreve código, pesquisa na Internet e sintetiza uma resposta numa única sessão, é um agente a trabalhar. O mesmo se aplica ao Claude, ao Microsoft Copilot e a um número crescente de produtos empresariais. Mas, atualmente, estes agentes ainda operam dentro dos limites de uma janela de chat e de um conjunto de ligações a ferramentas predefinidas. Isso está a começar a mudar.

A primeira fronteira são os agentes capazes de operar um ambiente informático completo em seu nome: navegar na Internet, clicar, alternar entre aplicações, em vez de se limitarem ao chat. O Cowork da Anthropic e o modo Agent da OpenAI proporcionam à IA o seu próprio espaço de trabalho isolado, onde pode realizar tarefas em quaisquer ferramentas disponíveis, enquanto projetos de código aberto como o OpenClaw adotam uma abordagem diferente, permitindo que um agente de IA seja executado diretamente na sua máquina local com acesso ao seu navegador, ficheiros e aplicações de mensagens.

A segunda fronteira são os agentes que se coordenam entre si. Atualmente, se se quiser que um sistema de IA transfira uma tarefa, por exemplo, de um agente de investigação para um agente de verificação de conformidade desenvolvido numa plataforma diferente, é necessário que alguém configure essa ligação manualmente. O protocolo A2A da Google foi concebido para mudar essa situação, proporcionando aos agentes uma linguagem comum para a delegação de tarefas entre plataformas e fornecedores.

Ambas as frentes seguem o mesmo padrão: maior autonomia, acesso mais amplo, riscos mais elevados. Um agente capaz de navegar na Web e utilizar aplicações em seu nome é muito mais poderoso do que um que se limita a uma janela de chat — mas também acarreta mais riscos. O setor ainda está a tentar descobrir como tornar estes sistemas suficientemente seguros, auditáveis e controláveis para ambientes regulamentados. Para as equipas de serviços financeiros, este é um domínio que vale a pena acompanhar de perto, mas que deve ser abordado com cautela.

Na próxima edição desta série, iremos mostrar como estas quatro camadas se traduzem na prática nos fluxos de trabalho dos serviços financeiros, onde cada camada desempenha tarefas específicas e rastreáveis.

Siga-nos no LinkedIn ou subscreva a nossa newsletter para não perder nada.

Mantenha-se atualizado

Receba análises de mercado dos nossos especialistas diretamente na sua caixa de entrada.

Yago González

Gestor de Produto Sénior, Iniciativas de IA Gerativa, Clarity AI

Yago González lidera a estratégia subjacente às capacidades de IA generativa Clarity AI . Anteriormente, foi pioneiro na integração da IA generativa na Iberia, a companhia aérea de bandeira espanhola, no âmbito do International Airlines Group.

Investigação e Perspicácia

Últimas notícias e artigos

AI

De que são realmente feitos os sistemas de IA: a arquitetura explicada

Os sistemas modernos de IA não são monolíticos. Compreender as quatro camadas que os constituem e o papel de cada uma delas é fundamental para avaliar as ferramentas que realmente se revelam eficazes em ambiente de produção.

Clima

A verdade por trás do orçamento: o que as despesas de capital ecológicas revelam sobre a transição climática

A transição para uma economia de baixo carbono é frequentemente enquadrada em termos de compromissos: metas de emissões líquidas nulas, planos de transição e estratégias de longo prazo. No entanto, o ritmo e a credibilidade desta transição dependem, em última análise, da forma como o capital é alocado. As despesas de capital (CapEx) constituem um dos indicadores mais tangíveis do progresso da transição empresarial. Ao contrário das metas climáticas ou dos planos de transição, as despesas de capital refletem…

AI

Por que é que a maioria das propostas sobre IA não vai ao cerne da questão

Nem todas as ferramentas de IA são concebidas para ambientes regulamentados. Descubra o que distingue a infraestrutura de IA das funcionalidades de IA e as seis perguntas que deve fazer a qualquer fornecedor.