La série sur l'architecture de l'IA – Partie 2
Dans la première partie de cette série, nous avons expliqué pourquoi il est essentiel de choisir la bonne architecture d'IA, en particulier dans les environnements réglementés où une mauvaise décision peut avoir des conséquences de plus en plus graves au fil du temps. Cette fois-ci, nous allons nous intéresser aux éléments constitutifs de cette architecture.
Les systèmes d'IA modernes ne sont pas monolithiques. Ils sont constitués de couches distinctes, chacune remplissant une fonction différente. Comprendre le rôle de chaque couche permet d'évaluer plus facilement les outils, de poser les bonnes questions et d'éviter le piège qui consiste à acheter des fonctionnalités plutôt qu'une infrastructure.
Les exemples présentés ici sont volontairement simplifiés. L'objectif est de montrer comment les couches s'articulent entre elles, et non de reproduire des flux de travail réels. Dans le prochain article, nous verrons à quoi ressemble cette architecture dans la pratique, en particulier dans le secteur des services financiers.
Couche 1 : le LLM, le moteur de raisonnement
Un grand modèle linguistique, ou LLM, est au cœur de la plupart des systèmes d'IA modernes. C'est le composant qui lit, écrit, résume, analyse et génère des réponses. Lorsque l'on évoque GPT-4, Claude ou Gemini, on parle en fait de LLM.
Considérez le LLM comme un cerveau. Il est capable de raisonner et de produire du contenu sur une vaste gamme de sujets et de formats, mais à lui seul, il ne connaît pas vos données internes, le contexte spécifique de votre organisation ni la méthodologie utilisée par votre équipe. Il s'agit d'une intelligence polyvalente : puissante, mais brute.
Les autres niveaux ont pour rôle de relier cette intelligence aux informations pertinentes et de l'orienter vers des résultats précis et cohérents.
NIVEAU 1 – RÉSERVÉ AUX LLM
Le modèle en sait long
Mais uniquement ce qu'il a appris pendant l'entraînement. Pas de données en temps réel. Pas de contexte d'entreprise. Pas de connexion avec le monde extérieur.
⚠️ Ce qui manque encore
Le modèle n'a aucun moyen d'accéder à des informations autres que celles de ses données d'entraînement. Il ne peut pas consulter d'informations en temps réel, interroger vos systèmes internes ni connaître quoi que ce soit de spécifique à votre organisation. Il s'agit d'une intelligence polyvalente sans aucun lien avec votre environnement.
Couche 2 : les MCP, la couche de connexion
MCP signifie « Model Context Protocol ». Il s'agit d'une norme ouverte qui définit la manière dont les systèmes d'IA se connectent aux sources de données et aux outils externes. Lancé à l'origine par Anthropic et de plus en plus adopté dans le secteur, le MCP remplace un enchevêtrement d'intégrations ponctuelles par un protocole commun, un peu comme l'USB-C a remplacé un tiroir rempli de câbles incompatibles.
Concrètement, un serveur MCP met à disposition des fonctionnalités (interrogation d'une base de données, lecture d'un référentiel de documents, consultation d'un flux de données en temps réel, exécution d'un code) d'une manière qui permet aux systèmes d'IA de les détecter et de les utiliser de manière cohérente. Au lieu de développer une intégration sur mesure pour chaque outil auquel une IA doit accéder, vous les connectez via MCP, et tout système d'IA prenant en charge cette norme peut alors les utiliser.
Il convient de souligner un point : le MCP gère l'accès, pas l'intelligence. Il détermine jusqu'où l'IA peut aller ; ce qu'elle fait ensuite de ce qu'elle trouve dépend toujours du modèle et des couches supérieures.
COUCHE 2 – MCP
Le MCP fournit au modèle un moyen standard d'accéder à des ressources externes
Accéder aux données en temps réel, aux API et aux outils internes – sans avoir à créer une connexion sur mesure pour chaque utilisation.
Sous le capot
⚠️ Ce qui manque encore
Le modèle peut désormais accéder à des données externes, mais il n'a aucune idée du fonctionnement de votre organisation. Il ne connaît ni votre format de sortie préféré, ni la méthodologie suivie par votre équipe, ni l'expertise sectorielle qui fait la spécificité de vos analyses. Des données accessibles ne sont pas forcément des données utiles.
Niveau 3 : Compétences, le niveau du savoir-faire
Si le MCP répond à la question « À quoi l'IA a-t-elle accès ? », les compétences répondent à la question « Comment l'IA doit-elle s'y prendre pour accomplir cette tâche précise ? »
Une « compétence » est un ensemble réutilisable et transférable qui codifie un flux de travail, une méthodologie ou une expertise spécifique à un domaine. Elle peut regrouper des instructions, des exemples, des modèles et une logique structurée en un ensemble qu’un système d’IA peut charger et appliquer de manière cohérente. À l’instar du MCP, les compétences sont conçues selon une norme ouverte, ce qui signifie qu’une compétence bien conçue peut être partagée et réutilisée sur différents systèmes d’IA prenant en charge cette spécification, sans être liée à une plateforme particulière.
Une bonne métaphore nous vient du film Matrix: lorsque Neo doit apprendre le kung-fu, il n’acquiert pas ce savoir au fil des années d’entraînement ; il est « installé ». Les compétences fonctionnent de la même manière. Elles confèrent à un système d’IA une capacité réutilisable qui encode l’expertise sous une forme qu’il peut appliquer immédiatement et de manière cohérente.
C'est dans les organisations qui ont « une manière bien particulière de faire les choses » que cela s'avère particulièrement efficace. Par exemple, les rapports d’analystes dans le secteur financier suivent une structure particulière. Les notes de conformité sont soumises à des exigences strictes en matière de format et de ton. Les décisions d’achat suivent une méthodologie d’approbation prédéfinie. Sans compétences, il faudrait réexpliquer ces exigences à chaque fois que l’on effectue une tâche. Avec des compétences, la méthodologie est codifiée une seule fois et appliquée de manière cohérente, quel que soit l’utilisateur ou le modèle sous-jacent qui la sous-tend.
Concrètement, une compétence n’est qu’un ensemble structuré de documents : des instructions, des exemples, des modèles et des documents de référence que le modèle lit et suit, un peu comme les guides méthodologiques ou les procédures opérationnelles standard que votre équipe utilise déjà. La différence réside dans le fait qu’elle est formatée de manière à ce qu’un système d’IA puisse l’appliquer de manière cohérente et automatique, plutôt que de compter sur quelqu’un pour se souvenir des étapes à suivre.
Toutes les organisations ne sont pas prêtes à développer des compétences complètes dès le premier jour. La plupart des grandes plateformes proposent une version allégée de ce concept sous forme de projets : un moyen d'organiser et de conserver le contexte, les instructions et les fichiers d'une conversation à l'autre, afin que le modèle intègre vos préférences et vos connaissances sans qu'il soit nécessaire de le reconfigurer à chaque fois. Les projets sont moins puissants et moins faciles à transférer qu'une compétence, mais ils constituent un point de départ pratique pour les équipes qui souhaitent garantir la cohérence sans avoir à supporter la charge liée à la création et à la diffusion de compétences à l'échelle de l'organisation.
La distinction à retenir : MCP = accès. Compétences = méthode.
NIVEAU 3 – COMPÉTENCES
La compétence indique au modèle ce qu'il doit savoir. Le MCP lui indique où chercher.
Ensemble, ils parviennent à apporter une réponse précise et structurée à une question qui aurait laissé le modèle seul sans réponse.
Sous le capot
Voici la météo pour tous nos sites :
New York 7 °C, partiellement nuageux Londres 12 °C, ciel couvert São Paulo 24 °C, averses
Singapour 31 °C Humide Madrid 16 °C Temps clair
⚠️ Ce qui manque encore
Le modèle peut accéder aux données pertinentes et appliquer votre méthodologie, mais les flux de travail complexes, comportant plusieurs étapes, nécessitent toujours l'intervention d'une personne pour coordonner manuellement chaque étape. Plus une tâche comporte d'étapes, plus il faut d'intervention humaine pour les enchaîner.
Couche 4 : Agents, la couche d'orchestration
Un agent est un système qui associe un modèle de langage de grande envergure (LLM) à des outils, des instructions et une logique afin d'accomplir des tâches en plusieurs étapes avec un certain degré d'autonomie. Alors qu'un simple assistant se contente de répondre à une question, un agent planifie, recherche, exécute, vérifie ses propres résultats et s'adapte lorsque les choses ne se déroulent pas comme prévu.
Si le LLM est le cerveau, le MCP le tissu conjonctif qui le relie au monde, et les compétences les capacités acquises sur lesquelles il peut s'appuyer, alors l'agent est l'opérateur qui rassemble tous ces éléments pour mener à bien une tâche.
C'est là que l'« assistant IA » devient un « système IA ». Un assistant se contente de répondre en s'appuyant sur ses connaissances prédéfinies. Un agent, quant à lui, est capable d'explorer des informations et de mener des actions de manière autonome.
COUCHE 4 – AGENT
Les agents planifient, décident et mettent en œuvre
Le LLM raisonne, les MCP établissent des liens, les compétences fournissent la méthode, et l'agent coordonne l'ensemble pour parvenir à un résultat.
Sous le capot
Les meilleurs mois pour se rendre dans nos bureaux sont les suivants :
7-11 avril: New York – São Paulo 22-24 avril: Singapour
Du 14 au 18 avril: Londres – Madrid
Dans l'ensemble de ces quatre couches, un principe s'impose : chaque couche résout un problème différent. Le LLM assure le raisonnement. Le MCP assure l'accès. Les compétences fournissent la méthode. Les agents assurent l'orchestration. Un système performant dans une couche mais défaillant dans une autre révélera rapidement ses lacunes en production : impressionnant lors d'une démonstration, mais peu fiable à grande échelle.
Comment les grands laboratoires d'IA mettent en œuvre ces couches
Les principaux laboratoires d'IA ont abouti à des architectures remarquablement similaires, bien qu'ils aient abordé le problème à partir de points de départ différents.
Le signe le plus évident de cette convergence est le MCP lui-même. Ce qui n'était au départ qu'un protocole open source développé par Anthropic a été adopté par toutes les grandes plateformes. OpenAI, Google et Microsoft prennent tous en charge le MCP, ce qui en fait la norme commune pour connecter les systèmes d'IA à des outils et des données externes. Pour les organisations qui développent des intégrations, cela signifie que les connexions dans lesquelles vous investissez aujourd'hui risquent bien moins d'être verrouillées sur un seul fournisseur.
Au-delà de la couche de connexion, chaque laboratoire complète la pile à sa manière :
- Anthropic a appliqué cette même philosophie des « normes ouvertes » lors du lancement de Skills, une solution portable permettant de codifier une méthodologie et une expertise sectorielle compatibles avec toutes les plateformes. Les plugins de Claude regroupent les connexions MCP et les compétences au sein de paquets installables, ce qui permet de doter un système d'IA à la fois d'un accès et d'un savoir-faire en une seule étape.
- OpenAI a développé son écosystème de connexions sous la bannière « Apps », qui permet à ChatGPT d'accéder à des outils et à des sources de données externes.
- Microsoft a fait de Copilot Studio sa plateforme de création d'agents, avec des connecteurs basés sur MCP et une nouvelle fonctionnalité « Notebooks » permettant de conserver le contexte des projets.
- Google prend en charge le MCP sur l'ensemble de ses plateformes de développement et de cloud, et a récemment lancé la fonctionnalité « Projets » afin de conserver le contexte et les instructions d'une conversation à l'autre.
La terminologie varie d'une plateforme à l'autre, mais les concepts sous-jacents correspondent aux mêmes couches :
LA SÉRIE SUR L'ARCHITECTURE DE L'IA – PARTIE 2
Comment les grands laboratoires d'IA mettent en œuvre les quatre couches
Une même architecture, quatre vocabulaires différents
| Anthropique | OpenAI | Microsoft | ||
|---|---|---|---|---|
| Application principale GenAI | Claude | ChatGPT | Copilote | Gémeaux |
| Contexte persistant | Projets | Projets | Cahiers | Projets |
| Couche de liaison | Connecteurs | Applications | Connecteurs | Extensions ; MCP (développement/cloud uniquement) |
| Fonctionnalités de l'agent | Claude Cowork | Mode Agent | Copilot Studio | Agent Gemini |
Pour tous ceux qui développent des flux de travail basés sur l'IA dans le secteur des services financiers, cette convergence est une bonne nouvelle — mais elle ne résout pas pour autant la question de la gouvernance. La manière dont chaque plateforme gère les connexions de données, la méthodologie et l'orchestration en plusieurs étapes déterminera si le système que vous développez aujourd'hui résistera à un examen minutieux demain.
Et ensuite ? Des agents qui agissent et des agents qui collaborent
Bon nombre des outils que les utilisateurs emploient déjà intègrent des agents qui fonctionnent en arrière-plan. Lorsque ChatGPT écrit du code, effectue des recherches sur le Web et génère une réponse en une seule session, c’est un agent à l’œuvre. Il en va de même pour Claude, Microsoft Copilot et un nombre croissant de produits destinés aux entreprises. Mais aujourd’hui, ces agents opèrent encore dans les limites d’une fenêtre de discussion et d’un ensemble de connexions prédéfinies à des outils. Cela commence à changer.
La première étape consiste à mettre au point des agents capables de gérer un environnement informatique complet à votre place : naviguer sur le Web, cliquer, passer d’une application à l’autre, sans se limiter au simple chat. Cowork d'Anthropic et le mode Agent d'OpenAI offrent à l'IA son propre espace de travail isolé où elle peut effectuer des tâches à l'aide de tous les outils disponibles, tandis que des projets open source comme OpenClaw adoptent une approche différente, en permettant à un agent IA de s'exécuter directement sur votre machine locale avec un accès à votre navigateur, vos fichiers et vos applications de messagerie.
La deuxième frontière concerne les agents qui se coordonnent entre eux. Aujourd’hui, si l’on souhaite qu’un système d’IA transfère une tâche, par exemple d’un agent de recherche à un agent de vérification de conformité développé sur une autre plateforme, quelqu’un doit effectuer cette connexion manuellement. Le protocole A2A de Google est conçu pour changer cela, en offrant aux agents un langage commun pour déléguer des tâches entre différentes plateformes et différents fournisseurs.
Ces deux domaines suivent le même schéma : plus d'autonomie, un accès plus large, des enjeux plus importants. Un agent capable de naviguer sur le Web et d'utiliser des applications en votre nom est bien plus puissant qu'un agent limité à une fenêtre de chat — mais il comporte également davantage de risques. Le secteur cherche encore à déterminer comment rendre ces systèmes suffisamment sûrs, vérifiables et contrôlables pour les environnements réglementés. Pour les équipes du secteur des services financiers, il s'agit d'un domaine qu'il convient de suivre de près, mais d'aborder avec prudence.
Dans le prochain numéro de cette série, nous montrerons à quoi ressemblent ces quatre couches dans la pratique pour les flux de travail des services financiers, où chaque couche effectue des tâches spécifiques et traçables.
Suivez-nous sur LinkedIn ou abonnez-vous à notre newsletter pour ne rien manquer.




