La série sur l'architecture de l'IA – Partie 3
Le goulot d'étranglement dans les processus d'investissement ne réside souvent pas dans l'analyse elle-même, mais plutôt dans toutes les étapes qui doivent être franchies avant que celle-ci puisse commencer : effectuer des contrôles de conformité, mettre en correspondance les positions du portefeuille avec les critères du mandat, classer un fonds selon une norme réglementaire, mettre en évidence les cas litigieux au sein d'un univers, parmi bien d'autres tâches de ce type.
Il ne s'agit pas là de tâches analytiques. Ce sont des tâches de recherche et de mise en forme qui se dissimulent sous le couvert du travail analytique. L'architecture que nous avons décrite dans l'article précédent a été conçue précisément pour résoudre ce problème.
Dans les parties 1 et 2 de la série consacrée à l'architecture de l'IA, nous avons expliqué pourquoi les choix architecturaux s'accumulent au fil du temps et comment les quatre couches (le LLM, les MCP, les compétences et les agents) s'articulent entre elles en théorie. Dans cet article, nous passons à la pratique en examinant ce que chaque couche apporte aux flux de travail d'investissement réels, ce qu'un cas d'utilisation concret révèle des possibilités actuelles, ainsi que les contraintes des protocoles de contexte des modèles (MCP).
Le problème qu'il convient de mentionner dans l'analyse des investissements
Autrefois, la disponibilité des données constituait un frein à l'analyse des investissements et à la conformité. Cependant, à mesure que la communication d'informations par les entreprises s'est développée et que les sources de données se sont multipliées, cette contrainte s'est inversée pour de nombreuses entreprises. La quantité de données à leur disposition a dépassé leur capacité à les exploiter. Il en résulte une sorte de « connaissance inutilisée », caractérisée par le fossé entre les informations présentes dans un système et les décisions qui peuvent réellement être prises à partir de celles-ci.
Prenons l'exemple d'un analyste chargé de vérifier la conformité aux mandats. Les étapes qui précèdent son analyse consistent à accéder à l'ensemble de données ou au fichier approprié, à sélectionner le bon portefeuille, à identifier le mandat concerné, à lancer le contrôle de conformité, à interpréter les résultats au niveau des indicateurs et à identifier les non-conformités ainsi que leurs causes . Aucune de ces étapes ne nécessite un jugement approfondi ni une réflexion critique. Il s'agit simplement de savoir où cliquer et d'être capable de reproduire le processus de manière fiable.
Il ne s'agit pas ici de critiquer les systèmes existants. Il s'agit simplement de décrire le mode de fonctionnement habituel de la plupart des produits de données structurées: des systèmes puissants qui exigent des utilisateurs qu'ils sachent s'en servir.
L'IA, et plus particulièrement l'architecture vers laquelle s'est orientée cette série d'articles, nous permet de repenser ce statu quo. Le raisonnement général d’un LLM, associé aux données et méthodologies spécifiques à un domaine d’un MCP spécialisé, réduit considérablement la distance entre la question et la réponse. Le travail « administratif » qui occupait autrefois toute la matinée d’un analyste (navigation, filtrage, exportation, mise en forme) disparaît. Ce qui reste, c’est le jugement : le travail à valeur ajoutée pour lequel l’analyste a été embauché.
Le raisonnement général d'un LLM, associé aux données et aux méthodologies spécifiques à un domaine d'un MCP spécialisé, réduit considérablement l'écart entre la question et la réponse.
Suivi des mandats basé sur l'IA : un exemple concret
En tant qu'entreprise technologique, la philosophie Clarity AIconsiste à aller à la rencontre de ses clients là où ils travaillent, plutôt que de leur demander de venir à nous.
Notre approche axée sur les API fait de la couche agent une extension naturelle de ce principe directeur. Notre suite de MCP, dont l’un est spécialement conçu pour contrôler la conformité des portefeuilles aux mandats d’investissement, intègre les données et la méthodologie Clarity AIdirectement dans les applications d’IA ou les systèmes internes que nos clients utilisent déjà. Ces MCP facilitent des flux de travail de bout en bout grâce à de simples commandes en langage naturel telles que « Vérifiez la conformité de mon portefeuille avec mon mandat d’investissement ».
Bonjour, Austin
Veuillez vérifier la conformité de mon portefeuille avec mon mandat d'investissement.
Une simple phrase rédigée en langage clair suffit à déclencher l'ensemble du processus. En l'absence de précisions supplémentaires de la part de l'utilisateur, Claude analyse les exigences formulées dans les instructions et, en réponse, fait appel à une série d'outils distincts : il récupère les directives de l'utilisateur et les titres de son portefeuille, effectue les contrôles de conformité au niveau des indicateurs et compile les résultats.
Les résultats s'affichent sous la forme d'un tableau structuré et interactif au sein de la discussion, comprenant les résultats de conformité ou de non-conformité au niveau des indicateurs ainsi que la liste des entreprises en infraction. Toutes les valeurs peuvent être approfondies grâce à des questions complémentaires ou à un lien direct vers l'application web Clarity AIpour une analyse plus détaillée.
Ce qui nécessitait auparavant de naviguer sur un portail de données, de trouver le bon portefeuille et le bon mandat, d'interpréter les résultats au niveau des indicateurs, de mettre en forme les résultats et de filtrer les cas non conformes se règle désormais en un seul échange.
Fonds iShares SDG · Mandat de responsabilité en matière de réputation de Ritzel Trust
Indicateurs
Entreprises de démolition
Une application web bien conçue est l'outil idéal pour explorer des données, en particulier pour les questions ouvertes où un cadre visuel aide l'utilisateur à naviguer dans un environnement riche en possibilités. Après tout, bon nombre des meilleures questions naissent simplement de l'exploration des données. Cependant , le processus décrit ci-dessus n'est pas de nature exploratoire.
Le gestionnaire de portefeuille connaît la question, le portefeuille et le mandat, et souhaite obtenir la réponse. Pour ce type de tâche axée sur des résultats concrets, même l'interface la mieux conçue impose une étape de traduction au cours de laquelle l'utilisateur doit convertir une question formulée en langage courant en une séquence de clics. L'architecture MCP supprime cette étape de traduction et raccourcit le chemin menant de la question à la réponse. L'utilisateur pose la question dans le langage qu'il aurait utilisé avec un analyste, et le système lui fournit la réponse en quelques secondes.
Cette intégration repose sur le fait que le MCP accomplit une tâche que le LLM ne peut pas réaliser seul. Les modèles de base tels que Claude possèdent certes une immense base de connaissances générales, mais ils ne disposent pas des données spécialisées et triées sur le volet, ni des informations fondées sur une méthodologie rigoureuse dont dépendent les secteurs réglementés.
Les modèles de base tels que Claude possèdent une immense base de connaissances générales, mais ne disposent pas des données spécialisées et triées sur le volet, ni des informations fondées sur une méthodologie rigoureuse dont dépendent les secteurs réglementés.
Imaginons un gestionnaire de portefeuille chargé de gérer un mandat fondé sur des valeurs religieuses à partir d'un portefeuille de fonds.
Un modèle de langage généraliste (LLM) disposant d'un accès à Internet devrait identifier les positions de chaque fonds (rarement divulguées publiquement et généralement obsolètes d'un trimestre), harmoniser les conventions de nommage entre les PDF et les fiches d'information, localiser vingt valeurs métriques pour chacun des quelque cent titres détenus par chaque fonds, décomposer les indicateurs composites déclarés de manière incohérente d'une société à l'autre, estimer les valeurs des sociétés ne divulguant pas leurs données, normaliser les unités selon les normes de reporting et les calendriers fiscaux, et conserver une piste d'audit défendable auprès des régulateurs à chaque étape. Cela représente 2 000 points de données par fonds, dans un portefeuille pouvant en contenir des dizaines, sans couche de gouvernance pour arbitrer les définitions et sans moyen de savoir quels titres ont été silencieusement ignorés parce que les données étaient introuvables ou que la page n'était pas accessible.
Cette tâche est structurellement impossible à réaliser pour un modèle fonctionnant uniquement à partir d'un accès Web. Ainsi, le MCP spécialisé agit comme un « booster » qui dote le raisonneur général de compétences spécifiques au domaine, en l'occurrence concernant les avoirs vérifiés des fonds, les critères de mandat, le contexte réglementaire et les données codées selon la méthodologie requises par le flux de travail.
Il ne s'agit là que d'une première étape rudimentaire vers une valeur véritablement transformatrice. Comme ce processus s'exécute désormais au sein d'une puissante couche applicative regorgeant de connexions potentielles (plannings, boîtes de réception, CRM, agendas, etc.), il peut être intégré à un flux de travail automatisé de bout en bout. Une tâche planifiée dans Claude peut effectuer la même vérification chaque matin en semaine, signaler et justifier les changements pertinents, rédiger un résumé conformément à vos directives de style, adapter les visuels d’alerte au style graphique de votre entreprise, et l’envoyer dans la boîte de réception du gestionnaire de portefeuille avant 9 h.
Ce processus, qui nécessitait auparavant des outils spécialisés ou un travail manuel considérable, peut désormais être configuré en moins de trente minutes. C'est ce que rend possible la couche d'agents, qui combine un LLM, des MCP et des compétences.
Anatomie du flux de travail d'un agent : les quatre éléments fondamentaux
Le flux de travail décrit ci-dessus se décompose en quatre éléments de base. Chacun remplit une fonction spécifique. Pris isolément, aucun d'entre eux n'est suffisant ; c'est leur combinaison qui leur permet de fonctionner. Vous trouverez ci-dessous ces éléments appliqués à un flux de travail de suivi des mandats. Chaque élément de base est associé à un exemple concret que vous pouvez tester vous-même.
Claude, le LLM, est le moteur de raisonnement. Il interprète la requête, détermine les outils à utiliser, les enchaîne, analyse les résultats et rédige la réponse. L'utilisateur n'a pas besoin de définir ces paramètres à l'avance.
Demandez à Claude ce qu'il faudrait pour effectuer un contrôle approfondi de la conformité de votre portefeuille. Veillez à désactiver au préalable les MCP concernés. Les lacunes qu'il identifie, telles que vos positions réelles, les méthodologies de mesure et les données extra-financières effectives, correspondent exactement à ce que le reste de cette architecture est en mesure de fournir.
C'est reparti, Austin
De quoi auriez-vous besoin pour effectuer un contrôle de conformité approfondi de mon portefeuille, qui comprend à la fois des fonds et des actions individuelles ?
Les MCP gèrent les accès. Par exemple, un MCP dédié aux bases de données récupère les informations relatives au portefeuille et aux placements, ainsi que les données extra-financières et les méthodologies associées, puis effectue le contrôle de conformité. Un connecteur Gmail ou Outlook transmet l'alerte. Des outils déterminent les systèmes auxquels le LLM peut accéder.
Une fois le MCP concerné connecté (par exemple, Clarity AI), demandez à Claude de « vérifier la conformité de mon portefeuille par rapport à mon mandat d'investissement ». Le système effectuera plusieurs appels d'outils sans que vous ayez à les spécifier. C'est la couche MCP qui fait exactement ce qui a été décrit dans la deuxième partie de cette série : gérer les accès afin que le modèle puisse se concentrer sur le raisonnement.
Les compétences déterminent la manière dont le système doit exécuter le travail. Elles permettent au LLM d'accomplir une tâche de manière reproductible, selon un ensemble de critères précis, plutôt que de procéder au cas par cas à chaque fois. Dans un exemple où Claude dispose à la fois d’une compétence de rédaction d’e-mails et d’une compétence de mise en forme de rapports, la première encode le ton privilégié par l’entreprise ; la seconde encode la manière dont l’entreprise communique ses analyses, comme la structure d’une note du comité d’investissement, l’ordre dans lequel les risques sont mis en évidence et la façon dont les recommandations sont présentées. Les compétences permettent aux LLM de mettre réellement en œuvre les méthodes de travail institutionnelles des entreprises.
Demandez à Claude de rédiger trois notes d'information destinées aux gestionnaires de portefeuille sur des sujets de votre choix. Lancez ensuite une nouvelle conversation, collez-y trois notes d'information réelles rédigées par votre équipe, puis demandez à Claude de produire ces trois mêmes brouillons en respectant la structure et le ton des originaux. Le deuxième essai sera bien plus conforme à vos standards. Lorsque vous serez satisfait de la cohérence du résultat, demandez à Claude d'intégrer ce processus sous forme de compétence. Il appliquera alors automatiquement ces directives la prochaine fois que vous demanderez un livrable similaire.
La planification est le déclencheur. Elle fait passer le flux de travail d'un mode réactif (vous demandez) à un mode proactif (le système agit selon la cadence que vous avez définie). Sans elle, la création du briefing de cet exemple reste en suspens, dans l'attente que quelqu'un s'en souvienne.
Configurez une tâche planifiée dans Claude afin d'effectuer une vérification régulière de la conformité de votre portefeuille par rapport à votre mandat d'investissement. Précisez les compétences que vous souhaitez que Claude utilise, le cas échéant.
Créer une tâche planifiée
✕Nom *
Description *
Sera enregistré sous le nom « daily-investment-mandate-briefing »
Effectuez un contrôle de conformité du Global Innovators Equity Fund par rapport à notre mandat sur le risque de réputation. Signalez toute nouvelle infraction survenue depuis le contrôle d'hier. Rédigez le rapport sous forme d'e-mail « Daily Mandates Briefing » en utilisant la compétence de rédaction d'e-mails et la compétence de mise en forme de rapports Northbridge. Envoyez le document final à compliance@northbridge.com.
Fréquence
Les tâches planifiées utilisent un délai aléatoire de plusieurs minutes afin de préserver les performances du serveur.
Le résultat ci-dessous correspond à ce que ces éléments de base génèrent lorsqu’ils sont assemblés par un utilisateur : une note d’information sur la conformité, à l’image de la marque, qui arrive dans la boîte de réception du gestionnaire de portefeuille avant 9 heures du matin, rédigée dans le style propre à l’entreprise, mise en forme selon ses normes, et s’appuyant sur des données vérifiées concernant les positions, le mandat et les critères extra-financiers issues du système connecté à MCP, sans que personne n’ait eu à en donner l’impulsion.
Prise isolément, chaque fonction de base a ses limites, mais lorsqu’elles sont combinées, leurs effets se multiplient. Si l’on supprime le calendrier, l’analyste doit tout de même penser à déclencher le flux de travail. Sans les compétences nécessaires, le briefing reste générique, inapplicable et aléatoire. Si l’on abandonne le MCP, les données sont soit totalement indisponibles, soit complètement peu fiables.
Anatomie du flux de travail d'un agent
Quatre fonctions de base permettent de transformer une requête unique en un rapport récurrent
Planification
Le déclencheur
Tous les jours de la semaine à 9 h
Claude (titulaire d'un LL.M.)
Le moteur de raisonnement
Décide de ce qu'il faut faire, puis passe à l'action
MCP
L'accès
Relie Claude aux systèmes
🗄️ Données extra-financières MCP
Gmail / Outlook MCP
Compétences
Le style
Reflète l'identité et la philosophie de votre cabinet
📋 Rédaction d'e-mails
📋⚙️ Mise en forme des rapports
Résultat
Résumé de conformité personnalisé dans la boîte de réception du chef de projet avant 9 h
Pourquoi la qualité des données constitue le véritable obstacle dans les flux de travail basés sur l'IA
Les MCP ne sont pas une solution miracle. La qualité des résultats qu'ils produisent dépend directement de la qualité des données en amont. Dans l'exemple de flux de travail décrit ci-dessus, ce qui compte, c'est la qualité des données extra-financières et des données sur les participations. Si ces données sont douteuses, l'ensemble du flux de travail perd toute sa valeur.
Chaque aspect essentiel de la qualité des données constitue une discipline à part entière :
- La couverture des données nécessite une puissance de calcul considérable et des opérations de recherche de terrain, ainsi que des compétences en apprentissage automatique pour les estimations.
- La fraîcheur des données nécessite des opérations de gestion des données continues et dédiées, couvrant les cycles d'ingestion, de validation et d'actualisation sur des milliers de sources.
- La rigueur méthodologique exige un suivi réglementaire, une expertise approfondie du domaine et une gestion rigoureuse des versions pour des milliers d'indicateurs.
- La traçabilité nécessite une infrastructure qui préserve la traçabilité tout au long de chaque transformation, de sorte que chaque donnée puisse être retracée jusqu'à sa source.
LA SÉRIE SUR L'ARCHITECTURE DE L'IA – 3e PARTIE
Les éléments qui font un MCP digne de confiance
| Ce que cela détermine | Ce qu'il faut | |
|---|---|---|
| Couverture | Que la réponse soit exhaustive ou tacitement incomplète | Puissance de calcul dédiée, opérations de recherche de base, modèles d'apprentissage automatique pour les estimations et la fiabilité des données |
| Fraîcheur | Que la réponse porte sur le présent ou sur le passé | Opérations continues sur les données, notamment la surveillance, l'ingestion, la validation et les cycles de mise à jour, s'exécutant sur des milliers de sources |
| Rigueur méthodologique | La question est de savoir si l’expression « violation du Pacte des Nations unies pour les entreprises et le développement durable » correspond bien à ce que votre mandat (ou l’autorité de régulation) visait réellement | Un suivi réglementaire constant, une expertise sectorielle pointue, une gestion rigoureuse des versions pour des milliers d'indicateurs |
| Traçabilité | La réponse résistera-t-elle à l'examen minutieux des autorités de régulation ou des parties prenantes ? | Une infrastructure qui garantit la traçabilité tout au long des différentes étapes de transformation, de sorte que chaque donnée puisse être retracée jusqu'à sa source |
Ces disciplines ne découlent pas d'un modèle plus performant. Elles se développent au contraire lentement et de manière réfléchie, grâce à un savoir-faire qui ne se résume pas à une simple fenêtre contextuelle. L'implication est d'ordre structurel. À mesure que les modèles banalisent le raisonnement, l'avantage concurrentiel se déplace vers le substrat : les données.
Au-delà de l'architecture : quatre questions à poser à tout fournisseur d'IA
L'architecture présentée dans cet article est en pleine expansion. Tous les fournisseurs sérieux proposeront une version de celle-ci d'ici quelques années. Les questions qu'il convient donc de poser lors des entretiens avec les fournisseurs devraient porter sur les éléments qui viennent étayer cette architecture.
LA SÉRIE SUR L'ARCHITECTURE DE L'IA – 3e PARTIE
Quatre questions à poser à tout fournisseur de données pour l'IA
Avant de vous fier aux résultats
Couverture
Quel pourcentage de votre population concernée a été exclu de la réponse du système et pourquoi ?
Avez-vous un moyen de vérifier ces chiffres ?
Les omissions silencieuses constituent une forme particulièrement dangereuse d'échec.
Fraîcheur
Quelle est la donnée la plus ancienne qui sert de base à un résultat ?
Y a-t-il un moyen de le savoir ?
Quel est le délai entre la publication de la source et sa mise à disposition ?
Méthodologie
Les données sous-jacentes et les résultats finaux s'appuient-ils sur des méthodologies transparentes, conformes aux réglementations et normes applicables ?
Provenance
Pour chaque chiffre figurant dans le document final, pouvez-vous remonter jusqu'au document source ?
Savez-vous faire la différence entre les valeurs estimées et les valeurs déclarées ?
C'est le modèle qui effectue le raisonnement. Ce sont les données qui déterminent si ce raisonnement est fiable.
Suivez-nous sur LinkedIn ou abonnez-vous à notre newsletter pour recevoir Clarity AI .





