La serie sobre arquitectura de IA – Parte 2
En la primera parte de esta serie, explicamos por qué es importante elegir la arquitectura de IA adecuada, sobre todo en entornos regulados, donde una decisión errónea puede tener consecuencias cada vez más graves con el paso del tiempo. En esta ocasión, nos centraremos en los propios componentes básicos.
Los sistemas modernos de inteligencia artificial no son monolíticos. Están compuestos por distintas capas, cada una de las cuales desempeña una función diferente. Comprender la finalidad de cada capa facilita enormemente la evaluación de las herramientas, permite plantear las preguntas adecuadas y evita caer en la trampa de adquirir funcionalidades en lugar de infraestructura.
Los ejemplos que se incluyen en este artículo son deliberadamente sencillos. El objetivo es mostrar cómo se relacionan las capas, no reproducir flujos de trabajo reales. En el próximo artículo, veremos cómo se aplica esta arquitectura en la práctica, concretamente en el sector de los servicios financieros.
Capa 1: El LLM, el motor de razonamiento
Un modelo de lenguaje a gran escala, o LLM, es el núcleo de la mayoría de los sistemas modernos de inteligencia artificial. Es el componente que lee, escribe, resume, analiza y genera respuestas. Cuando se habla de GPT-4, Claude o Gemini, se está hablando de LLM.
Piensa en el LLM como si fuera un cerebro. Es capaz de razonar y generar contenido sobre una amplia variedad de temas y formatos, pero por sí solo no conoce tus datos internos, el contexto específico de tu organización ni la metodología que utiliza tu equipo. Se trata de una inteligencia de uso general: potente, pero sin refinar.
El resto de las capas sirven para conectar esa inteligencia con la información adecuada y orientarla hacia resultados específicos y coherentes.
NIVEL 1 – SOLO LLM
La modelo sabe mucho
Pero solo lo que aprendió durante el entrenamiento. Sin datos reales. Sin contexto empresarial. Sin conexión con el mundo exterior.
⚠️ Lo que aún falta
El modelo no tiene forma de acceder a nada más allá de sus datos de entrenamiento. No puede consultar información en tiempo real, realizar consultas en tus sistemas internos ni conocer nada específico de tu organización. Se trata de una inteligencia de uso general sin conexión alguna con tu entorno.
Capa 2: MCP, la capa de conexión
MCP son las siglas de «Model Context Protocol». Se trata de un estándar abierto que define cómo se conectan los sistemas de IA a fuentes de datos y herramientas externas. Introducido originalmente por Anthropic y cada vez más extendido en el sector, el MCP sustituye un entramado de integraciones puntuales por un protocolo común, de forma muy similar a como el USB-C sustituyó a un cajón lleno de cables incompatibles.
En la práctica, un servidor MCP ofrece capacidades (consultar una base de datos, leer desde un almacén de documentos, comprobar una fuente de datos en tiempo real, ejecutar un fragmento de código) de tal forma que los sistemas de IA puedan detectarlas y utilizarlas de manera coherente. En lugar de crear una integración personalizada para cada herramienta a la que deba acceder la IA, basta con conectarlas a través de MCP, y cualquier sistema de IA que admita el estándar podrá utilizarlas.
Hay algo que conviene destacar: MCP gestiona el acceso, no la inteligencia. Determina hasta dónde puede llegar la IA; lo que esta haga con lo que encuentre sigue dependiendo del modelo y de las capas superiores.
NIVEL 2 – MCP
MCP proporciona al modelo una forma estándar de interactuar con el exterior
Datos en tiempo real, API y herramientas internas, sin necesidad de crear una conexión específica para cada uso.
Bajo el capó
⚠️ Lo que aún falta
Ahora el modelo puede acceder a datos externos, pero no tiene ni idea de cómo funciona tu organización. No conoce tu formato de salida preferido, la metodología que sigue tu equipo ni los conocimientos especializados que hacen que tu análisis sea único. Que los datos sean accesibles no significa que sean útiles.
Nivel 3: Competencias, el nivel de conocimientos técnicos
Si MCP responde a la pregunta «¿a qué puede acceder la IA?», las habilidades responden a la pregunta «¿cómo debe la IA hacer esta cosa en concreto?».
Una «skill» es un paquete reutilizable y portátil que codifica un flujo de trabajo, una metodología o unos conocimientos especializados específicos. Puede agrupar instrucciones, ejemplos, plantillas y lógica estructurada en un formato que un sistema de IA pueda cargar y aplicar de forma coherente. Al igual que MCP, las skills se desarrollan como un estándar abierto, lo que significa que una skill bien diseñada puede compartirse y reutilizarse en diferentes sistemas de IA que admitan la especificación, sin estar vinculada a ninguna plataforma en concreto.
Una buena metáfora nos la ofrece «Matrix»: cuando Neo necesita aprender kung fu, el conocimiento no se adquiere tras años de práctica, sino que se le instala. Las habilidades funcionan de manera similar. Proporcionan a un sistema de IA una capacidad reutilizable que codifica los conocimientos especializados en un formato que puede aplicar de forma inmediata y coherente.
Esto resulta especialmente eficaz en organizaciones que tienen «una forma específica de hacer las cosas». Por ejemplo, los informes de los analistas del sector financiero siguen una estructura concreta. Los memorandos de cumplimiento normativo tienen requisitos estrictos en cuanto a formato y tono. Las decisiones de adquisición siguen una metodología de aprobación predefinida. Sin habilidades, tendrías que volver a explicar esos requisitos cada vez que realizas una tarea. Con habilidades, la metodología se codifica una vez y se aplica de forma coherente, independientemente de quién la ejecute o de qué modelo subyacente la impulse.
En la práctica, una habilidad no es más que un conjunto estructurado de documentos: instrucciones, ejemplos, plantillas y material de referencia que el modelo lee y sigue, de forma muy similar a las guías metodológicas o los procedimientos operativos estándar que tu equipo ya utiliza. La diferencia radica en que está formateada para que un sistema de IA pueda aplicarla de manera coherente y automática, en lugar de depender de que alguien recuerde los pasos correctos.
No todas las organizaciones están preparadas para desarrollar habilidades completas desde el primer día. La mayoría de las principales plataformas ofrecen una versión más sencilla de este concepto a través de los proyectos: una forma de organizar y conservar el contexto, las instrucciones y los archivos a lo largo de las conversaciones, de modo que el modelo mantenga tus preferencias y conocimientos sin necesidad de volver a configurarlo cada vez. Los proyectos son menos potentes y portátiles que una habilidad, pero constituyen un punto de partida práctico para los equipos que buscan coherencia sin la carga que supone crear y distribuir habilidades por toda la organización.
La distinción que hay que tener presente: MCP = acceso. Habilidades = método.
NIVEL 3 – COMPETENCIAS
La habilidad le indica al modelo qué debe saber. El MCP le indica dónde buscar.
En conjunto, una pregunta que habría dejado perplejo al modelo por sí solo obtiene una respuesta precisa y estructurada.
Bajo el capó
A continuación se indica el tiempo en todas las oficinas:
Nueva York 7 °C, parcialmente nublado Londres 12 °C, nublado São Paulo 24 °C, chubascos
Singapur 31 °C, húmedo Madrid 16 °C, despejado
⚠️ Lo que aún falta
El modelo puede acceder a los datos adecuados y aplicar tu metodología, pero los flujos de trabajo complejos y de varios pasos siguen necesitando a alguien que coordine manualmente cada etapa. Cuantos más pasos implique una tarea, mayor será el esfuerzo humano necesario para encadenarlos.
Capa 4: Agentes, la capa de coordinación
Un agente es un sistema que combina un modelo de lenguaje grande (LLM) con herramientas, instrucciones y lógica para llevar a cabo tareas de varios pasos con cierto grado de autonomía. Mientras que un simple asistente se limita a responder a una pregunta y se detiene ahí, un agente planifica, busca información, ejecuta, comprueba sus propios resultados y se adapta cuando algo no sale como se esperaba.
Si el LLM es el cerebro, el MCP es el tejido conectivo que lo une al mundo y las habilidades son las capacidades adquiridas a las que puede recurrir, entonces el agente es el operador que lo integra todo para llevar a cabo una tarea concreta.
Aquí es donde el «asistente de IA» se convierte en un «sistema de IA». Un asistente se limita a responder basándose en sus conocimientos fijos. Un agente, en cambio, puede buscar información y llevar a cabo acciones de forma autónoma.
NIVEL 4 – AGENTE
Los agentes planifican, deciden y ejecutan
El LLM razona, los MCP conectan, las habilidades aportan el método y el agente coordina todo ello para alcanzar un resultado.
Bajo el capó
Los mejores meses para visitar las oficinas son los siguientes:
7-11 de abril: Nueva York – São Paulo 22-24 de abril: Singapur
14-18 de abril: Londres – Madrid
En las cuatro capas se aplica un principio fundamental: cada capa resuelve un problema distinto. El LLM se encarga del razonamiento. El MCP proporciona el acceso. Las habilidades aportan el método. Los agentes se encargan de la coordinación. Un sistema que sea sólido en una capa pero débil en otra mostrará rápidamente sus carencias en producción: impresionante en una demostración, pero poco fiable a gran escala.
Cómo están implementando estas capas los principales laboratorios de IA
Los principales laboratorios de inteligencia artificial han acabado adoptando arquitecturas notablemente similares, a pesar de que abordaron el problema desde puntos de partida distintos.
La señal más clara de esta convergencia es el propio MCP. Lo que comenzó como un protocolo de código abierto de Anthropic ha sido adoptado por todas las plataformas principales. OpenAI, Google y Microsoft son compatibles con MCP, lo que lo convierte en el estándar común para conectar sistemas de IA con herramientas y datos externos. Para las organizaciones que desarrollan integraciones, esto significa que las conexiones en las que invierten hoy en día tienen muchas menos probabilidades de quedar limitadas a un único proveedor.
Más allá de la capa de conexión, cada laboratorio está completando la pila a su manera:
- Anthropic ha aplicado la misma filosofía de «estándar abierto» al lanzar Skills, una forma portátil de codificar la metodología y los conocimientos especializados que funciona en todas las plataformas. Los complementos de Claude agrupan las conexiones MCP y las habilidades en paquetes instalables, lo que facilita dotar a un sistema de IA tanto de acceso como de conocimientos técnicos en un solo paso.
- OpenAI ha creado su ecosistema de conexiones bajo el paraguas de Apps, que permite a ChatGPT acceder a herramientas y fuentes de datos externas.
- Microsoft ha convertido Copilot Studio en su plataforma de creación de agentes, con conectores basados en MCP y una nueva función de «Notebooks» para mantener el contexto de los proyectos.
- Google es compatible con MCP en todas sus plataformas para desarrolladores y en la nube, y recientemente ha introducido los «Proyectos» como una forma de conservar el contexto y las instrucciones a lo largo de las conversaciones.
La terminología varía según la plataforma, pero los conceptos subyacentes se corresponden con las mismas capas:
LA SERIE SOBRE ARQUITECTURA DE IA – PARTE 2
Cómo aplican los principales laboratorios de IA las cuatro capas
La misma arquitectura, cuatro vocabularios diferentes
| Antropic | OpenAI | Microsoft | ||
|---|---|---|---|---|
| Aplicación principal de GenAI | Claude | ChatGPT | Copiloto | Géminis |
| Contexto persistente | Proyectos | Proyectos | Cuadernos | Proyectos |
| Capa de conexión | Conectores | Aplicaciones | Conectores | Extensiones; MCP (solo para desarrollo y nube) |
| Capacidades del agente | Claude Cowork | Modo Agente | Copilot Studio | Agente Géminis |
Para cualquiera que desarrolle flujos de trabajo basados en IA en el sector de los servicios financieros, esta convergencia es una buena noticia, pero no resuelve la cuestión del control de la gobernanza. La forma en que cada plataforma gestione las conexiones de datos, la metodología y la coordinación de múltiples pasos determinará si el sistema que se desarrolle hoy resistirá el escrutinio del mañana.
Próximos pasos: agentes que actúan y agentes que colaboran
Muchas de las herramientas que la gente ya utiliza cuentan con agentes que funcionan en segundo plano. Cuando ChatGPT escribe código, busca en la web y sintetiza una respuesta en una sola sesión, es un agente el que está trabajando. Lo mismo ocurre con Claude, Microsoft Copilot y un número cada vez mayor de productos empresariales. Sin embargo, a día de hoy, estos agentes siguen operando dentro de los límites de una ventana de chat y de un conjunto de conexiones predefinidas con herramientas. Pero eso está empezando a cambiar.
La primera frontera son los agentes capaces de manejar un entorno informático completo en tu nombre: navegar, hacer clic, desplazarse por las aplicaciones, en lugar de limitarse al chat. Cowork, de Anthropic, y el modo Agente de OpenAI proporcionan a la IA su propio espacio de trabajo aislado, donde puede realizar tareas con cualquier herramienta disponible, mientras que proyectos de código abierto como OpenClaw adoptan un enfoque diferente, permitiendo que un agente de IA se ejecute directamente en tu equipo local con acceso a tu navegador, archivos y aplicaciones de mensajería.
La segunda frontera son los agentes que se coordinan entre sí. Hoy en día, si se quiere que un sistema de IA transfiera una tarea, por ejemplo, de un agente de investigación a un agente de verificación del cumplimiento creado en una plataforma diferente, alguien tiene que configurarlo manualmente. El protocolo A2A de Google está diseñado para cambiar esta situación, proporcionando a los agentes un lenguaje común para delegar tareas entre plataformas y proveedores.
Ambas fronteras siguen el mismo patrón: mayor autonomía, acceso más amplio, mayor riesgo. Un agente capaz de navegar por Internet y manejar aplicaciones en tu nombre es mucho más potente que uno limitado a una ventana de chat, pero también conlleva más riesgos. El sector sigue trabajando para lograr que estos sistemas sean lo suficientemente seguros, auditables y controlables como para su uso en entornos regulados. Para los equipos de servicios financieros, se trata de un ámbito que merece la pena seguir de cerca, pero al que hay que acercarse con cautela.
En el próximo número de esta serie, mostraremos cómo se aplican estas cuatro capas en la práctica a los flujos de trabajo de los servicios financieros, en los que cada capa realiza una tarea específica y trazable.
Síguenos en LinkedIn o suscríbete a nuestro newsletter no perderte nada.




