Die KI-Architektur-Reihe – Teil 3
Der Engpass bei Anlageprozessen liegt oft nicht in der Analyse selbst, sondern in all den Schritten, die vor Beginn der Analyse erfolgen müssen: die Durchführung von Compliance-Prüfungen, der Abgleich von Portfolio-Positionen mit den Mandatskriterien, die Einstufung eines Fonds nach einem regulatorischen Standard, die Ermittlung von Kontroversen innerhalb eines gesamten Universums und viele weitere Aufgaben dieser Art.
Das sind keine analytischen Aufgaben. Es handelt sich um Abfrage- und Formatierungsaufgaben, die sich nur vordergründig als analytische Arbeit tarnen. Die Architektur, die wir im vorherigen Beitrag beschrieben haben, wurde entwickelt, um genau dieses Problem zu lösen.
In den Teilen 1 und 2 der Reihe „KI-Architektur“ haben wir dargelegt, warum sich architektonische Entscheidungen im Laufe der Zeit summieren und wie die vier Schichten (LLM, MCPs, Skills und Agenten) theoretisch zusammenwirken. In diesem Beitrag wenden wir uns der Praxis zu und untersuchen, welchen Beitrag die einzelnen Schichten zu realen Investitionsabläufen leisten, was ein konkreter Anwendungsfall über die derzeitigen Möglichkeiten aussagt und welche Einschränkungen bei Modellkontextprotokollen (MCPs) bestehen.
Das Problem, das in der Anlageanalyse besonders hervorzuheben ist
Früher stellte die Datenverfügbarkeit ein Hindernis für die Investitionsanalyse und die Einhaltung von Vorschriften dar. Mit der Weiterentwicklung der Unternehmensberichterstattung und der zunehmenden Vielfalt an Datenquellen kehrte sich diese Situation für viele Unternehmen jedoch um. Die Menge der ihnen zur Verfügung stehenden Daten überstieg ihre Fähigkeit, darauf zu reagieren. Das Ergebnis ist eine Art „gestrandete Erkenntnis“, die durch die Kluft zwischen den in einem System vorhandenen Informationen und den Entscheidungen, die tatsächlich auf deren Grundlage getroffen werden können, gekennzeichnet ist.
Nehmen wir einen Analysten, der die Einhaltung von Mandaten überprüft. Zu den Schritten, die seiner Analyse vorausgehen, gehören das Aufrufen des richtigen Datensatzes oder der richtigen Datei, die Auswahl des richtigen Portfolios, das Auffinden des relevanten Mandats, das Starten der Compliance-Prüfung, die Interpretation der Ergebnisse auf Metrikebene sowie das Ermitteln der Verstöße und der damit verbundenen Ursachen. Keiner dieser Schritte erfordert tiefgreifendes Urteilsvermögen oder kritisches Denken. Es geht vielmehr darum, zu wissen, wo man klicken muss, und den Prozess zuverlässig wiederholen zu können.
Das ist keine Kritik an bestehenden Systemen. Es ist eine Beschreibung dessen, wie die meisten Produkte für strukturierte Daten schon immer funktioniert haben: leistungsstarke Systeme, deren Bedienung von den Nutzern entsprechende Kenntnisse erfordert.
KI – und insbesondere die Architektur, auf die diese Artikelserie hinarbeitet – ermöglicht es uns, diesen Status quo neu zu überdenken. Das allgemeine Schlussfolgerungsvermögen eines LLM, gepaart mit den domänenspezifischen Daten und Methoden eines spezialisierten MCP, überbrückt die Kluft zwischen Frage und Antwort. Der „Aufwand“, der einst den Vormittag eines Analysten in Anspruch nahm (Navigieren, Filtern, Exportieren, Formatieren), entfällt. Was bleibt, ist die Urteilsfähigkeit – jene differenzierte Arbeit, für die der Analyst eingestellt wurde.
Die allgemeine Schlussfolgerungsfähigkeit eines LLM in Verbindung mit den fachspezifischen Daten und Methoden eines spezialisierten MCP überbrückt die Kluft zwischen Frage und Antwort.
KI-gestützte Mandatsüberwachung: Ein Beispiel aus der Praxis
Als Technologieunternehmen verfolgt Clarity AIdie Philosophie, die Kunden dort abzuholen, wo sie arbeiten, anstatt von ihnen zu verlangen, dass sie zu uns kommen.
Unsere API-first-Strategie macht die Agent-Ebene zu einer logischen Erweiterung dieses Leitprinzips. Unsere Suite von MCPs, darunter ein Modul zur Überwachung der Übereinstimmung des Portfolios mit den Anlagevorgaben, integriert die Daten und Methoden Clarity AIdirekt in die bevorzugten KI-Anwendungen oder internen Systeme, die unsere Kunden bereits nutzen. Diese MCPs ermöglichen durchgängige Arbeitsabläufe, die mit einfachen Befehlen in natürlicher Sprache wie „Bitte überprüfe die Übereinstimmung meines Portfolios mit meinen Anlagevorgaben“ gesteuert werden .
Guten Tag, Austin
Bitte überprüfen Sie, ob mein Portfolio meinem Anlageauftrag entspricht.
Ein einziger Satz in einfacher Sprache setzt einen kompletten Arbeitsablauf in Gang. Ohne weitere Vorgaben seitens des Benutzers analysiert Claude die Anforderungen der Eingabeaufforderungen und ruft daraufhin eine Reihe verschiedener Tools auf, um die Mandate und Portfoliobestände des Benutzers abzurufen, die Compliance-Prüfungen auf Metrikebene durchzuführen und die Ergebnisse zusammenzustellen.
Die Ergebnisse werden im Chat als strukturierte, interaktive Tabelle dargestellt, einschließlich der Ergebnisse auf Metrikebene (bestanden/nicht bestanden) und einer Auflistung der Unternehmen, bei denen Verstöße festgestellt wurden. Alle Werte lassen sich über Folgefragen oder einen direkten Link zur Webanwendung Clarity AInachverfolgen, um sie genauer zu untersuchen.
Was früher das Durchsuchen eines Datenportals, das Auffinden des richtigen Portfolios und Mandats, das Auswerten der Kennzahlen, das Aufbereiten der Ergebnisse und das Filtern nach Abweichungen erforderte, lässt sich nun mit einem einzigen Datenaustausch erledigen.
iShares SDG ETF · Ritzel Trust – Mandat zur Reputationsverantwortung
Kennzahlen
Unternehmen, die gegen Vorschriften verstoßen
Eine gut konzipierte Webanwendung ist das richtige Werkzeug zur Datenexploration, insbesondere bei offenen Fragen, bei denen visuelle Hilfestellungen dem Nutzer helfen, sich in einer Umgebung voller Möglichkeiten zurechtzufinden. Schließlich entstehen viele der besten Fragen gerade durch die bloße Datenexploration. Der oben beschriebene Arbeitsablauf ist jedoch nicht explorativ.
Der Portfoliomanager kennt die Frage, das Portfolio und das Mandat und möchte die Antwort darauf. Bei dieser Art von Arbeit, bei der es um konkrete Ergebnisse geht, erfordert selbst die am besten gestaltete Benutzeroberfläche einen zusätzlichen Übersetzungsschritt, bei dem der Nutzer eine Frage in Alltagssprache in eine Abfolge von Klicks umwandeln muss. Die MCP-Architektur macht diesen Übersetzungsschritt überflüssig und verkürzt den Weg von der Frage zur Antwort. Der Nutzer stellt die Frage in der Sprache, die er auch gegenüber einem Analysten verwenden würde, und das System liefert die Antwort innerhalb von Sekunden.
Diese Komprimierung hängt davon ab, dass das MCP etwas leistet, was das LLM allein nicht bewältigen kann. Grundmodelle wie Claude verfügen zwar über ein enormes Allgemeinwissen, es fehlen ihnen jedoch die spezialisierten, kuratierten Daten und methodisch fundierten Informationen, auf die regulierte Branchen angewiesen sind.
Grundlagemodelle wie Claude verfügen zwar über ein enormes Allgemeinwissen, es fehlen ihnen jedoch die spezialisierten, kuratierten Daten und methodisch fundierten Informationen, auf die regulierte Branchen angewiesen sind.
Stellen Sie sich einen Portfoliomanager vor, der ein auf religiösen Werten basierendes Mandat für ein Fondsportfolio verwaltet.
Ein universell einsetzbares LLM mit Internetzugang müsste die Bestände jedes Fonds ermitteln (die selten öffentlich bekannt gegeben werden und meist ein Quartal alt sind), Namenskonventionen in PDFs und Factsheets abgleichen, zwanzig Kennzahlen für jede der vielleicht hundert Positionen pro Fonds ermitteln, zusammengesetzte Kennzahlen, die von Unternehmen uneinheitlich ausgewiesen werden, aufschlüsseln, Werte für nicht offenlegende Unternehmen schätzen, Einheiten über Berichtsstandards und Geschäftsjahre hinweg normalisieren und bei jedem Schritt einen gegenüber Aufsichtsbehörden vertretbaren Prüfpfad aufrechterhalten. Das sind 2.000 Datenpunkte pro Fonds in einem Portfolio, das Dutzende von Fonds enthalten kann, ohne Governance-Ebene zur Festlegung von Definitionen und ohne Möglichkeit zu erkennen, welche Bestände stillschweigend übersprungen wurden, weil die Daten nicht auffindbar oder die Seite nicht abrufbar war.
Für ein Modell, das ausschließlich auf Webzugriffen basiert, ist diese Aufgabe strukturell unmöglich. Daher fungiert das spezialisierte MCP als „Power-Up“, das dem allgemeinen Schlussfolgerungsmodul domänenspezifische Kompetenzen verleiht – in diesem Fall hinsichtlich der verifizierten Fondsbestände, der Mandatskriterien, des regulatorischen Kontexts und der methodisch kodierten Daten, die der Arbeitsablauf benötigt.
Dies ist nur der erste, noch sehr einfache Schritt auf dem Weg zu einem wirklich transformativen Mehrwert. Da diese Aufgabe nun innerhalb einer leistungsstarken Anwendungsschicht läuft, die zahlreiche Anbindungsmöglichkeiten bietet (Zeitpläne, Posteingänge, CRMs, Kalender usw.), lässt sie sich in einen durchgängig automatisierten Workflow integrieren. Eine geplante Aufgabe in Claude kann jeden Wochentagmorgen dieselbe Überprüfung durchführen, relevante Änderungen markieren und begründen, eine Zusammenfassung gemäß Ihren Sprachrichtlinien erstellen, die visuelle Darstellung der Benachrichtigungen an den Designstil Ihres Unternehmens anpassen und diese bis 9 Uhr morgens an den Posteingang des Portfoliomanagers senden.
Dieser Arbeitsablauf, der zuvor spezielle Tools oder einen erheblichen manuellen Aufwand erforderte, lässt sich in weniger als dreißig Minuten konfigurieren. Dies wird durch die Agent-Ebene ermöglicht, die eine Kombination aus LLM, MCPs und Skills darstellt.
Aufbau eines Agenten-Workflows: Die vier Grundelemente
Der oben beschriebene Arbeitsablauf lässt sich in vier Grundelemente unterteilen. Jedes erfüllt eine bestimmte Aufgabe. Für sich genommen reicht keines davon aus; erst durch ihre Kombination entfalten sie ihre Wirkung. Im Folgenden werden diese Elemente im Rahmen eines Arbeitsablaufs zur Mandatsüberwachung vorgestellt. Zu jedem Grundelement wird ein konkretes Beispiel genannt, das Sie selbst ausprobieren können.
Claude, das LLM, ist die Logik-Engine. Es interpretiert die Eingabeaufforderung, entscheidet, welche Tools aufgerufen werden sollen, ordnet sie in die richtige Reihenfolge, liest die Ergebnisse aus und erstellt den Entwurf der Ausgabe. Der Benutzer muss nichts davon im Voraus festlegen.
Fragen Sie Claude, was erforderlich wäre, um eine aussagekräftige Mandats-Compliance-Prüfung Ihres Portfolios durchzuführen. Achten Sie darauf, die entsprechenden MCPs zuvor zu deaktivieren. Die dabei identifizierten Lücken – wie Ihre tatsächlichen Bestände, die Methoden zur Kennzahlenberechnung und die tatsächlichen nichtfinanziellen Daten – sind genau das, was der Rest dieser Architektur bereitstellt.
Wieder voll dabei, Austin
Was wäre erforderlich, um eine aussagekräftige Compliance-Prüfung meines Portfolios durchzuführen, das sowohl Fonds als auch Einzelaktien umfasst?
MCPs regeln den Zugriff. So ruft beispielsweise ein Datenbank-MCP das Portfolio und die Fondsbestände sowie die zugehörigen nichtfinanziellen Daten und Methoden ab und führt die Compliance-Prüfung durch. Ein Gmail- oder Outlook-Konnektor übermittelt die Benachrichtigung. Über Tools wird geregelt, auf welche Systeme das LLM zugreifen darf.
Wenn das entsprechende MCP verbunden ist (zum Beispiel das MCP Clarity AI), bitten Sie Claude, „die Übereinstimmung meines Portfolios mit meinem Anlagemandat zu überprüfen“. Das System führt verschiedene Tool-Aufrufe durch, ohne dass Sie diese einzeln angeben müssen. Das ist die MCP-Ebene, die genau das tut, was in Teil 2 dieser Serie beschrieben wurde: Sie regelt den Zugriff, damit sich das Modell auf das logische Schlussfolgern konzentrieren kann.
Fähigkeiten legen fest, wie das System die Arbeit ausführen soll. Sie leiten das LLM dazu an, eine Aufgabe nach einem bestimmten Kriterienkatalog reproduzierbar auszuführen, anstatt jedes Mal ad hoc vorzugehen. In einem Beispiel, in dem Claude sowohl mit einer Kompetenz zum Verfassen von E-Mails als auch mit einer Kompetenz zur Formatierung von Berichten ausgestattet ist, kodiert die erstere den bevorzugten Stil des Unternehmens; die letztere kodiert, wie das Unternehmen Analysen kommuniziert, beispielsweise die Struktur eines Memos des Investitionsausschusses, die Reihenfolge, in der Risiken aufgezeigt werden, und die Art und Weise, wie Empfehlungen präsentiert werden. Kompetenzen ermöglichen es LLMs, die institutionellen Arbeitsweisen von Unternehmen tatsächlich umzusetzen.
Bitten Sie Claude, drei Briefings für Portfoliomanager zu Themen Ihrer Wahl zu entwerfen. Starten Sie dann einen neuen Chat, fügen Sie drei echte Briefings ein, die Ihr Team erstellt hat, und bitten Sie um dieselben drei Entwürfe in der Struktur und im Stil der Originale. Der zweite Durchgang wird Ihren Standards schon viel näher kommen. Wenn Sie mit der Konsistenz zufrieden sind, bitten Sie Claude, den Prozess als „Skill“ zu speichern. Dieser wendet dann automatisch diese Richtlinien an, wenn Sie das nächste Mal ein ähnliches Ergebnis anfordern.
Die Zeitplanung ist der Auslöser. Sie verwandelt den Arbeitsablauf von einem reaktiven (Sie fragen nach) in einen proaktiven (das System handelt entsprechend dem von Ihnen festgelegten Rhythmus). Ohne sie bleibt die Erstellung des Briefings in diesem Beispiel unberührt und wartet darauf, dass sich jemand daran erinnert.
Richten Sie in Claude eine geplante Aufgabe ein, um regelmäßig zu überprüfen, ob Ihr Portfolio Ihrem Anlageauftrag entspricht. Geben Sie gegebenenfalls an, welche Funktionen Claude dabei nutzen soll.
Geplante Aufgabe erstellen
✕Name *
Beschreibung *
Wird unter dem Namen „daily-investment-mandate-briefing“ gespeichert
Führen Sie eine Konformitätsprüfung des Global Innovators Equity Fund anhand unseres Mandats zum Reputationsrisiko durch. Markieren Sie alle neuen Verstöße, die seit der gestrigen Überprüfung aufgetreten sind. Verfassen Sie das Ergebnis als E-Mail-Bericht zum täglichen Mandatsbriefing unter Verwendung der Funktion zum Verfassen von E-Mails und der Funktion zur Formatierung von Northbridge-Berichten. Senden Sie das endgültige Ergebnis an compliance@northbridge.com.
Häufigkeit
Geplante Aufgaben verwenden aus Gründen der Serverleistung eine zufällige Verzögerung von mehreren Minuten.
Die folgende Ausgabe zeigt, was diese Bausteine erzeugen, wenn sie von einem Nutzer zusammengeführt werden: ein auf die Marke abgestimmtes Compliance-Briefing, das bis 9 Uhr morgens im Posteingang des Portfoliomanagers eintrifft, im Stil des Unternehmens verfasst und nach dessen Standards formatiert ist und das auf verifizierten Beständen, dem Mandat sowie nichtfinanziellen Daten basiert, die aus dem mit MCP verbundenen System stammen – ohne dass jemand den Vorgang initiiert hätte.
Für sich genommen ist jede einzelne Komponente begrenzt, doch im Zusammenspiel verstärken sie sich gegenseitig. Wenn man den Zeitplan weglässt, muss der Analyst dennoch daran denken, den Workflow auszulösen. Ohne die entsprechenden Fähigkeiten ist das Briefing allgemein gehalten, nicht umsetzbar und stochastisch. Verzichtet man auf das MCP, sind die Daten entweder gar nicht verfügbar oder völlig unzuverlässig.
Aufbau eines Agenten-Workflows
Vier Grundfunktionen verwandeln eine Eingabeaufforderung in einen wiederkehrenden Bericht
Terminplanung
Der Auslöser
Jeden Werktag um 9 Uhr
Claude (der LLM)
Die Schlussfolgerungsmaschine
Entscheidet, was zu tun ist, und handelt dann
MCPs
Der Zugang
Verbindet Claude mit den Systemen
🗄️ Nichtfinanzielle Daten MCP
Gmail / Outlook MCP
Fähigkeiten
Der Stil
Spiegelt den Ton und den Ansatz Ihres Unternehmens wider
📋 Verfassen von E-Mails
📋⚙️ Formatierung von Berichten
Ausgabe
Zusammenfassung der Compliance-Maßnahmen mit Firmenlogo bis 9 Uhr im Posteingang des Projektleiters
Warum die Datenqualität das eigentliche Hindernis in KI-gestützten Arbeitsabläufen ist
MCPs sind keine Zaubermittel. Die Qualität der von ihnen erzeugten Ergebnisse spiegelt direkt die Qualität der Daten wider, die ihnen als Grundlage dienen. In dem oben beschriebenen Workflow-Beispiel kommt es auf die Qualität der nichtfinanziellen Daten und der Bestandsdaten an. Sind diese Daten zweifelhaft, ist der gesamte Workflow wertlos.
Jedes für die Datenqualität erforderliche Element stellt eine eigene Disziplin dar:
- Die Datenabdeckung erfordert enorme Rechenleistung und Primärforschungsmaßnahmen sowie Kompetenzen im Bereich des maschinellen Lernens für die Schätzungen.
- Aktualität erfordert einen kontinuierlichen, gezielten Datenbetrieb, der die Erfassung, Validierung und Aktualisierung von Daten aus Tausenden von Quellen umfasst.
- Methodische Genauigkeit erfordert eine regulatorische Überwachung, fundiertes Fachwissen und eine konsequente Versionierung über Tausende von Kennzahlen hinweg.
- Die Nachvollziehbarkeit erfordert eine Infrastruktur, die die Herkunft bei jeder Umwandlung bewahrt, sodass jede Zahl bis zu ihrer Quelle zurückverfolgt werden kann.
DIE KI-ARCHITEKTUR-REIHE – TEIL 3
Die Zutaten für ein vertrauenswürdiges MCP
| Was damit bestimmt wird | Was dafür erforderlich ist | |
|---|---|---|
| Umfang | Ob die Antwort nun umfassend ist oder stillschweigend unvollständig | Spezielle Rechenleistung, primäre Forschungsabläufe, Modelle des maschinellen Lernens für Schätzungen und Datenzuverlässigkeit |
| Frische | Ob die Antwort die Gegenwart oder die Vergangenheit widerspiegelt | Kontinuierliche Datenverarbeitungsprozesse, einschließlich Überwachung, Erfassung, Validierung und Aktualisierungszyklen, die über Tausende von Quellen hinweg ablaufen |
| Methodische Stringenz | Ob „Verstoß gegen den UNGC“ das bedeutet, was Ihr Auftrag (oder die Aufsichtsbehörde) tatsächlich beabsichtigt hat | Kontinuierliche regulatorische Überwachung, fundiertes Fachwissen und eine konsequente Versionierung über Tausende von Kennzahlen hinweg |
| Nachprüfbarkeit | Ob die Antwort einer genauen Prüfung durch die Aufsichtsbehörden oder Interessengruppen standhält | Eine Infrastruktur, die die Herkunft bei jeder Umwandlung bewahrt, sodass jede Zahl bis zu ihrem Ursprung zurückverfolgt werden kann |
Diese Disziplinen lassen sich nicht einfach aus einem leistungsfähigeren Modell ableiten. Vielmehr entwickeln sie sich langsam und bewusst, gestützt auf eine Fachkompetenz, die sich nicht in ein Kontextfenster pressen lässt. Die Konsequenz daraus ist struktureller Natur. In dem Maße, wie Modelle das logische Denken zur Massenware machen, verlagert sich der Wettbewerbsvorteil auf die Grundlage: die Daten.
Über die Architektur hinaus: Vier Fragen, die man jedem KI-Anbieter stellen sollte
Die in diesem Artikel beschriebene Architektur ist zukunftsweisend. Jeder seriöse Anbieter wird in den nächsten Jahren eine Variante davon anbieten. Die Fragen, die man in Gesprächen mit Anbietern stellen sollte, sollten sich daher darauf konzentrieren, welche Komponenten diese Architektur unterstützen.
DIE KI-ARCHITEKTUR-REIHE – TEIL 3
Vier Fragen, die Sie jedem Anbieter von KI-Daten stellen sollten
Bevor Sie den Ergebnissen vertrauen
Umfang
Welcher Prozentsatz Ihres relevanten Universums wurde aus der Antwort des Systems ausgeschlossen und warum?
Gibt es überhaupt eine Möglichkeit, diese Zahlen zu ermitteln?
Stillschweigende Auslassungen sind eine besonders gefährliche Form des Versagens.
Frische
Welcher ist der veraltetste Datenpunkt, der in die Ausgabe einfließt?
Gibt es eine Möglichkeit, das herauszufinden?
Wie lange dauert es von der Veröffentlichung der Quelle bis zur Verfügbarkeit?
Methodik
Werden die zugrunde liegenden Daten und die Endergebnisse durch transparente Methoden gestützt, die mit den einschlägigen Vorschriften und Normen im Einklang stehen?
Herkunft
Können Sie jede einzelne Zahl in der Ausgabe auf das Quelldokument zurückführen?
Können Sie zwischen geschätzten und gemeldeten Werten unterscheiden?
Das Modell führt die Schlussfolgerungen durch. Die Daten entscheiden darüber, ob man den Schlussfolgerungen trauen kann.
Folgen Sie uns auf LinkedIn oder abonnieren Sie unseren Newsletter, um Clarity AI zu erhalten.





