Investir à l'ère de l'IA
Œuvre d'art abstraite représentant des rubans translucides multicolores qui s'entrelacent sur un fond bleu sarcelle, avec des cercles clairs le long du bord gauche.
AIArticles

De quoi sont réellement faits les systèmes d'IA : explication de leur architecture

Publié le 20 avril 2026
Dernière mise à jour : 20 avril 2026
Principaux enseignements
  • Les systèmes d'IA modernes s'articulent autour de quatre couches distinctes — les grands modèles de langage (LLM), les modules de contrôle et de planification (MCP), les compétences et les agents —, chacune étant destinée à résoudre un problème différent. En achetant un outil sans comprendre quelles couches il couvre, les entreprises se retrouvent souvent avec des démonstrations impressionnantes, mais des systèmes de production peu fiables.
  • L'accès aux données et l'intelligence ne sont pas la même chose. Une IA capable d'accéder à vos données a tout de même besoin d'une méthodologie et d'une expertise dans le domaine pour en tirer quelque chose d'utile.
  • Les principaux laboratoires d'IA ont adopté la même architecture. La terminologie varie, mais les couches sous-jacentes sont identiques, ce qui signifie que les intégrations et les compétences que vous développez aujourd'hui risquent moins d'être liées à un seul fournisseur.

La série sur l'architecture de l'IA – Partie 2

Dans la première partie de cette série, nous avons expliqué pourquoi il est essentiel de choisir la bonne architecture d'IA, en particulier dans les environnements réglementés où une mauvaise décision peut avoir des conséquences de plus en plus graves au fil du temps. Cette fois-ci, nous allons nous intéresser aux éléments constitutifs de cette architecture.

Les systèmes d'IA modernes ne sont pas monolithiques. Ils sont constitués de couches distinctes, chacune remplissant une fonction différente. Comprendre le rôle de chaque couche permet d'évaluer plus facilement les outils, de poser les bonnes questions et d'éviter le piège qui consiste à acheter des fonctionnalités plutôt qu'une infrastructure.

Les exemples présentés ici sont volontairement simplifiés. L'objectif est de montrer comment les couches s'articulent entre elles, et non de reproduire des flux de travail réels. Dans le prochain article, nous verrons à quoi ressemble cette architecture dans la pratique, en particulier dans le secteur des services financiers.

Couche 1 : le LLM, le moteur de raisonnement

Un grand modèle linguistique, ou LLM, est au cœur de la plupart des systèmes d'IA modernes. C'est le composant qui lit, écrit, résume, analyse et génère des réponses. Lorsque l'on évoque GPT-4, Claude ou Gemini, on parle en fait de LLM.

Considérez le LLM comme un cerveau. Il est capable de raisonner et de produire du contenu sur une vaste gamme de sujets et de formats, mais à lui seul, il ne connaît pas vos données internes, le contexte spécifique de votre organisation ni la méthodologie utilisée par votre équipe. Il s'agit d'une intelligence polyvalente : puissante, mais brute.

Les autres niveaux ont pour rôle de relier cette intelligence aux informations pertinentes et de l'orienter vers des résultats précis et cohérents.

NIVEAU 1 – RÉSERVÉ AUX LLM

Le modèle en sait long

Mais uniquement ce qu'il a appris pendant l'entraînement. Pas de données en temps réel. Pas de contexte d'entreprise. Pas de connexion avec le monde extérieur.

Assistant IA
Quel temps fait-il en ce moment dans nos bureaux de New York ?
Je n'ai pas accès aux données météorologiques en temps réel ni à l'emplacement des bureaux de votre entreprise. D'une manière générale, à New York, en mars, le temps peut varier de froid à doux, avec des températures comprises généralement entre 1,7 et 12,8 °C.

⚠️ Ce qui manque encore

Le modèle n'a aucun moyen d'accéder à des informations autres que celles de ses données d'entraînement. Il ne peut pas consulter d'informations en temps réel, interroger vos systèmes internes ni connaître quoi que ce soit de spécifique à votre organisation. Il s'agit d'une intelligence polyvalente sans aucun lien avec votre environnement.

Couche 2 : les MCP, la couche de connexion

MCP signifie « Model Context Protocol ». Il s'agit d'une norme ouverte qui définit la manière dont les systèmes d'IA se connectent aux sources de données et aux outils externes. Lancé à l'origine par Anthropic et de plus en plus adopté dans le secteur, le MCP remplace un enchevêtrement d'intégrations ponctuelles par un protocole commun, un peu comme l'USB-C a remplacé un tiroir rempli de câbles incompatibles.

Concrètement, un serveur MCP met à disposition des fonctionnalités (interrogation d'une base de données, lecture d'un référentiel de documents, consultation d'un flux de données en temps réel, exécution d'un code) d'une manière qui permet aux systèmes d'IA de les détecter et de les utiliser de manière cohérente. Au lieu de développer une intégration sur mesure pour chaque outil auquel une IA doit accéder, vous les connectez via MCP, et tout système d'IA prenant en charge cette norme peut alors les utiliser.

Il convient de souligner un point : le MCP gère l'accès, pas l'intelligence. Il détermine jusqu'où l'IA peut aller ; ce qu'elle fait ensuite de ce qu'elle trouve dépend toujours du modèle et des couches supérieures.

COUCHE 2 – MCP

Le MCP fournit au modèle un moyen standard d'accéder à des ressources externes

Accéder aux données en temps réel, aux API et aux outils internes – sans avoir à créer une connexion sur mesure pour chaque utilisation.

Assistant IA
Quel temps fait-il en ce moment dans nos bureaux de New York ?

Sous le capot

MCP 🌤 Service météo – Prévisions à 30 jours
Je n'ai pas accès aux données météorologiques en temps réel ni à l'emplacement des bureaux de votre entreprise. D'une manière générale, à New York, en mars, le temps peut varier de froid à doux, avec des températures comprises généralement entre 1,7 et 12,8 °C.

⚠️ Ce qui manque encore

Le modèle peut désormais accéder à des données externes, mais il n'a aucune idée du fonctionnement de votre organisation. Il ne connaît ni votre format de sortie préféré, ni la méthodologie suivie par votre équipe, ni l'expertise sectorielle qui fait la spécificité de vos analyses. Des données accessibles ne sont pas forcément des données utiles.

Niveau 3 : Compétences, le niveau du savoir-faire

Si le MCP répond à la question « À quoi l'IA a-t-elle accès ? », les compétences répondent à la question « Comment l'IA doit-elle s'y prendre pour accomplir cette tâche précise ? »

Une « compétence » est un ensemble réutilisable et transférable qui codifie un flux de travail, une méthodologie ou une expertise spécifique à un domaine. Elle peut regrouper des instructions, des exemples, des modèles et une logique structurée en un ensemble qu’un système d’IA peut charger et appliquer de manière cohérente. À l’instar du MCP, les compétences sont conçues selon une norme ouverte, ce qui signifie qu’une compétence bien conçue peut être partagée et réutilisée sur différents systèmes d’IA prenant en charge cette spécification, sans être liée à une plateforme particulière.

Une bonne métaphore nous vient du film Matrix: lorsque Neo doit apprendre le kung-fu, il n’acquiert pas ce savoir au fil des années d’entraînement ; il est « installé ». Les compétences fonctionnent de la même manière. Elles confèrent à un système d’IA une capacité réutilisable qui encode l’expertise sous une forme qu’il peut appliquer immédiatement et de manière cohérente.

C'est dans les organisations qui ont « une manière bien particulière de faire les choses » que cela s'avère particulièrement efficace. Par exemple, les rapports d’analystes dans le secteur financier suivent une structure particulière. Les notes de conformité sont soumises à des exigences strictes en matière de format et de ton. Les décisions d’achat suivent une méthodologie d’approbation prédéfinie. Sans compétences, il faudrait réexpliquer ces exigences à chaque fois que l’on effectue une tâche. Avec des compétences, la méthodologie est codifiée une seule fois et appliquée de manière cohérente, quel que soit l’utilisateur ou le modèle sous-jacent qui la sous-tend.

Concrètement, une compétence n’est qu’un ensemble structuré de documents : des instructions, des exemples, des modèles et des documents de référence que le modèle lit et suit, un peu comme les guides méthodologiques ou les procédures opérationnelles standard que votre équipe utilise déjà. La différence réside dans le fait qu’elle est formatée de manière à ce qu’un système d’IA puisse l’appliquer de manière cohérente et automatique, plutôt que de compter sur quelqu’un pour se souvenir des étapes à suivre.

Toutes les organisations ne sont pas prêtes à développer des compétences complètes dès le premier jour. La plupart des grandes plateformes proposent une version allégée de ce concept sous forme de projets : un moyen d'organiser et de conserver le contexte, les instructions et les fichiers d'une conversation à l'autre, afin que le modèle intègre vos préférences et vos connaissances sans qu'il soit nécessaire de le reconfigurer à chaque fois. Les projets sont moins puissants et moins faciles à transférer qu'une compétence, mais ils constituent un point de départ pratique pour les équipes qui souhaitent garantir la cohérence sans avoir à supporter la charge liée à la création et à la diffusion de compétences à l'échelle de l'organisation.

La distinction à retenir : MCP = accès. Compétences = méthode.

NIVEAU 3 – COMPÉTENCES

La compétence indique au modèle ce qu'il doit savoir. Le MCP lui indique où chercher.

Ensemble, ils parviennent à apporter une réponse précise et structurée à une question qui aurait laissé le modèle seul sans réponse.

Assistant IA
Quel temps fait-il aujourd'hui dans chacun de nos bureaux ?

Sous le capot

Compétence 🏢 Bureaux de l'entreprise – 5 sites
MCP 🌤 Service météo – Prévisions à 30 jours

Voici la météo pour tous nos sites :

New York 7 °C, partiellement nuageux Londres 12 °C, ciel couvert São Paulo 24 °C, averses

Singapour 31 °C Humide Madrid 16 °C Temps clair

⚠️ Ce qui manque encore

Le modèle peut accéder aux données pertinentes et appliquer votre méthodologie, mais les flux de travail complexes, comportant plusieurs étapes, nécessitent toujours l'intervention d'une personne pour coordonner manuellement chaque étape. Plus une tâche comporte d'étapes, plus il faut d'intervention humaine pour les enchaîner.

Couche 4 : Agents, la couche d'orchestration

Un agent est un système qui associe un modèle de langage de grande envergure (LLM) à des outils, des instructions et une logique afin d'accomplir des tâches en plusieurs étapes avec un certain degré d'autonomie. Alors qu'un simple assistant se contente de répondre à une question, un agent planifie, recherche, exécute, vérifie ses propres résultats et s'adapte lorsque les choses ne se déroulent pas comme prévu.

Si le LLM est le cerveau, le MCP le tissu conjonctif qui le relie au monde, et les compétences les capacités acquises sur lesquelles il peut s'appuyer, alors l'agent est l'opérateur qui rassemble tous ces éléments pour mener à bien une tâche.

C'est là que l'« assistant IA » devient un « système IA ». Un assistant se contente de répondre en s'appuyant sur ses connaissances prédéfinies. Un agent, quant à lui, est capable d'explorer des informations et de mener des actions de manière autonome.

COUCHE 4 – AGENT

Les agents planifient, décident et mettent en œuvre

Le LLM raisonne, les MCP établissent des liens, les compétences fournissent la méthode, et l'agent coordonne l'ensemble pour parvenir à un résultat.

Assistant IA
Quelles sont les semaines du mois prochain les plus propices pour se rendre dans chacune de nos agences ?

Sous le capot

Compétence 🏢 Bureaux de l'entreprise – 5 sites trouvés
MCP 🌤 Service météo – Prévisions à 30 jours
Agent 👤 Les meilleures périodes pour voyager
MCP 📅 Calendrier – Semaines disponibles
Agent 👤 Itinéraire hebdomadaire prêt

Les meilleurs mois pour se rendre dans nos bureaux sont les suivants :

7-11 avril: New York – São Paulo 22-24 avril: Singapour

Du 14 au 18 avril: Londres – Madrid

Dans l'ensemble de ces quatre couches, un principe s'impose : chaque couche résout un problème différent. Le LLM assure le raisonnement. Le MCP assure l'accès. Les compétences fournissent la méthode. Les agents assurent l'orchestration. Un système performant dans une couche mais défaillant dans une autre révélera rapidement ses lacunes en production : impressionnant lors d'une démonstration, mais peu fiable à grande échelle.

Comment les grands laboratoires d'IA mettent en œuvre ces couches

Les principaux laboratoires d'IA ont abouti à des architectures remarquablement similaires, bien qu'ils aient abordé le problème à partir de points de départ différents.

Le signe le plus évident de cette convergence est le MCP lui-même. Ce qui n'était au départ qu'un protocole open source développé par Anthropic a été adopté par toutes les grandes plateformes. OpenAI, Google et Microsoft prennent tous en charge le MCP, ce qui en fait la norme commune pour connecter les systèmes d'IA à des outils et des données externes. Pour les organisations qui développent des intégrations, cela signifie que les connexions dans lesquelles vous investissez aujourd'hui risquent bien moins d'être verrouillées sur un seul fournisseur.

Au-delà de la couche de connexion, chaque laboratoire complète la pile à sa manière :

  • Anthropic a appliqué cette même philosophie des « normes ouvertes » lors du lancement de Skills, une solution portable permettant de codifier une méthodologie et une expertise sectorielle compatibles avec toutes les plateformes. Les plugins de Claude regroupent les connexions MCP et les compétences au sein de paquets installables, ce qui permet de doter un système d'IA à la fois d'un accès et d'un savoir-faire en une seule étape.
  • OpenAI a développé son écosystème de connexions sous la bannière « Apps », qui permet à ChatGPT d'accéder à des outils et à des sources de données externes.
  • Microsoft a fait de Copilot Studio sa plateforme de création d'agents, avec des connecteurs basés sur MCP et une nouvelle fonctionnalité « Notebooks » permettant de conserver le contexte des projets.
  • Google prend en charge le MCP sur l'ensemble de ses plateformes de développement et de cloud, et a récemment lancé la fonctionnalité « Projets » afin de conserver le contexte et les instructions d'une conversation à l'autre.

La terminologie varie d'une plateforme à l'autre, mais les concepts sous-jacents correspondent aux mêmes couches :

LA SÉRIE SUR L'ARCHITECTURE DE L'IA – PARTIE 2

Comment les grands laboratoires d'IA mettent en œuvre les quatre couches

Une même architecture, quatre vocabulaires différents


Anthropique OpenAI Microsoft Google
Application principale GenAI Claude ChatGPT Copilote Gémeaux
Contexte persistant Projets Projets Cahiers Projets
Couche de liaison Connecteurs Applications Connecteurs Extensions ; MCP (développement/cloud uniquement)
Fonctionnalités de l'agent Claude Cowork Mode Agent Copilot Studio Agent Gemini

Pour tous ceux qui développent des flux de travail basés sur l'IA dans le secteur des services financiers, cette convergence est une bonne nouvelle — mais elle ne résout pas pour autant la question de la gouvernance. La manière dont chaque plateforme gère les connexions de données, la méthodologie et l'orchestration en plusieurs étapes déterminera si le système que vous développez aujourd'hui résistera à un examen minutieux demain.

Et ensuite ? Des agents qui agissent et des agents qui collaborent

Bon nombre des outils que les utilisateurs emploient déjà intègrent des agents qui fonctionnent en arrière-plan. Lorsque ChatGPT écrit du code, effectue des recherches sur le Web et génère une réponse en une seule session, c’est un agent à l’œuvre. Il en va de même pour Claude, Microsoft Copilot et un nombre croissant de produits destinés aux entreprises. Mais aujourd’hui, ces agents opèrent encore dans les limites d’une fenêtre de discussion et d’un ensemble de connexions prédéfinies à des outils. Cela commence à changer.

La première étape consiste à mettre au point des agents capables de gérer un environnement informatique complet à votre place : naviguer sur le Web, cliquer, passer d’une application à l’autre, sans se limiter au simple chat. Cowork d'Anthropic et le mode Agent d'OpenAI offrent à l'IA son propre espace de travail isolé où elle peut effectuer des tâches à l'aide de tous les outils disponibles, tandis que des projets open source comme OpenClaw adoptent une approche différente, en permettant à un agent IA de s'exécuter directement sur votre machine locale avec un accès à votre navigateur, vos fichiers et vos applications de messagerie.

La deuxième frontière concerne les agents qui se coordonnent entre eux. Aujourd’hui, si l’on souhaite qu’un système d’IA transfère une tâche, par exemple d’un agent de recherche à un agent de vérification de conformité développé sur une autre plateforme, quelqu’un doit effectuer cette connexion manuellement. Le protocole A2A de Google est conçu pour changer cela, en offrant aux agents un langage commun pour déléguer des tâches entre différentes plateformes et différents fournisseurs.

Ces deux domaines suivent le même schéma : plus d'autonomie, un accès plus large, des enjeux plus importants. Un agent capable de naviguer sur le Web et d'utiliser des applications en votre nom est bien plus puissant qu'un agent limité à une fenêtre de chat — mais il comporte également davantage de risques. Le secteur cherche encore à déterminer comment rendre ces systèmes suffisamment sûrs, vérifiables et contrôlables pour les environnements réglementés. Pour les équipes du secteur des services financiers, il s'agit d'un domaine qu'il convient de suivre de près, mais d'aborder avec prudence.

Dans le prochain numéro de cette série, nous montrerons à quoi ressemblent ces quatre couches dans la pratique pour les flux de travail des services financiers, où chaque couche effectue des tâches spécifiques et traçables.

Suivez-nous sur LinkedIn ou abonnez-vous à notre newsletter pour ne rien manquer.

Restez informé

Recevez les analyses de marché de nos experts directement dans votre boîte mail.

Yago González

Responsable produit senior, Initiatives GenAI, Clarity AI

Yago González dirige la stratégie relative aux capacités d'IA générative Clarity AI . Auparavant, il a été l'un des pionniers de l'intégration de l'IA générative chez Iberia, la compagnie aérienne nationale espagnole, au sein du groupe International Airlines Group.

Recherche et perspectives

Dernières nouvelles et articles

AI

De quoi sont réellement faits les systèmes d'IA : explication de leur architecture

Les systèmes d'IA modernes ne sont pas monolithiques. C'est en comprenant les quatre couches qui les composent et le rôle de chacune d'entre elles que l'on peut évaluer les outils qui font réellement leurs preuves en production.

Climat

La vérité sur le budget : ce que les dépenses d'investissement vertes révèlent sur la transition climatique

La transition vers une économie à faible intensité carbone s'articule souvent autour d'engagements : objectifs de zéro émission nette, plans de transition et stratégies à long terme. Cependant, le rythme et la crédibilité de cette transition dépendent en fin de compte de la manière dont les capitaux sont alloués. Les dépenses d'investissement (CapEx) constituent l'un des indicateurs les plus concrets des progrès réalisés par les entreprises en matière de transition. Contrairement aux objectifs climatiques ou aux plans de transition, les dépenses d'investissement reflètent…

AI

Pourquoi la plupart des présentations sur l'IA passent à côté de l'essentiel

Tous les outils d'IA ne sont pas conçus pour les environnements réglementés. Découvrez ce qui distingue l'infrastructure d'IA des fonctionnalités d'IA, ainsi que les six questions à poser à tout fournisseur.