Spotlight: Datenqualität - Dimension 5, Erklärbarkeit

Datenqualität 8. Juni 2023 Ángel Agudo, Patricia Pina, Juan Diego Martin, Ron Potok, Chris Ciompi

Eine Interviewreihe mit dem Clarity AI Executive Team über die 8 Dimensionen der Datenqualität

Wie wird sichergestellt, dass die Daten von Clarity AI von höchster Qualität sind?

Clarity AI verwendet einen achtdimensionalen Rahmen, um sicherzustellen, dass die Daten von höchster Qualität sind. Diese Dimensionen sind Erfassungsgrad, Frische / Aktualität, Genauigkeit, Datenaktualisierung, Erklärbarkeit, Konsistenz, Zeitpunkt und Feedback. In dieser Reihe von Interviews mit Führungskräften von Clarity AI wird jede dieser Dimensionen erforscht und erläutert. Clarity AIDas Expertenteam des Unternehmens entwickelt wissenschaftliche und evidenzbasierte Methoden, die dann leistungsstarke, skalierbare künstliche Intelligenz (z. B. maschinelles Lernen) nutzen, um bestehende Datensätze zu sammeln, zu bereinigen, zu analysieren und zu erweitern, um die Sustainability-Tech-Plattform zu betreiben oder direkt in die bestehenden Arbeitsabläufe der Nutzer zu integrieren.

Dimension 5 - Erklärbarkeit

Clarity AIÁngel Agudo, VP of Product, Patricia Pina, Head of Product Research & Innovation, Juan Diego Martin, Head of Data Strategy, und Ron Potok, Head of Data Science, diskutieren mit Chris Ciompi, Chief Marketing Officer von Clarity AI, über die entscheidende Dimension der Erklärbarkeit und ihre Beziehung zur Datenqualität. 

Chris Ciompi: Hallo noch einmal an alle. Ángel, könnten Sie bitte die Erklärbarkeit in Bezug auf die Datenqualität definieren, wie Sie sie sehen?

Ángel Agudo: Sicher. Die Erklärbarkeit ist eine entscheidende Dimension, denn sie ermöglicht es, die Daten zu verstehen und ihnen zu vertrauen. Sie ist untrennbar mit der Datenqualität verbunden. Das bedeutet, dass wir manchmal Erklärungen über den Grund für einen Datenpunkt liefern müssen. Wir können qualitative und nicht unbedingt quantitative Informationen bereitstellen, die vielleicht leichter zu verstehen sind. Es könnte zum Beispiel damit zusammenhängen, warum ein Unternehmen einer bestimmten Tätigkeit ausgesetzt ist oder warum es eine bestimmte Politik verfolgt. Es ist wichtig, eine Erklärung dafür zu finden, warum ein Unternehmen in etwas verwickelt ist, das auf den ersten Blick vielleicht nicht ersichtlich ist. Ein weiterer Aspekt der Erklärbarkeit ist die Möglichkeit, die Quelle der Wahrheit oder, anders gesagt, die Quelle für jeden Datenpunkt zu finden. Auf diese Weise können wir den Informationen kontinuierlich vertrauen und sie überprüfen. Wir stellen sicher, dass das, was wir präsentieren, genau dem entspricht, was das Unternehmen berichtet oder zur Verfügung stellt, oder wo der Datenpunkt, den wir zeigen, verwendet wurde. Zum Beispiel in einem bestimmten Nachrichtenartikel. Die Kombination all dieser Aspekte trägt dazu bei, Vertrauen in die Daten zu schaffen, was in einem Kontext, in dem unsere Kunden oft keine Klarheit über ESG-Daten haben, besonders wichtig ist.

Chris Ciompi: Ich verstehe. Das ist sehr interessant. Bevor ich Sie nach dem Vertrauen frage, Ángel, können Sie mir sagen, wie die Plattform Clarity AI die einzige Quelle der Wahrheit offenbart?

Ángel Agudo: Wir fügen Links zu den Berichten ein, in denen die Informationen offengelegt werden. Die Nutzer können sie anklicken und die tatsächlichen Informationen des Unternehmens abrufen. In den Fällen, in denen die Informationen nicht direkt vom Unternehmen stammen, sondern aus einer externen Quelle wie einer Zeitung oder einem NRO-Bericht, stellen wir auch Kontextinformationen zur Verfügung, damit sie überprüfen können, ob die Quelle der Wahrheit entspricht und das, was wir präsentieren, genau das ist, was die Originalquelle sagt.

Chris Ciompi: Okay, ich verstehe. Patricia, warum ist Erklärbarkeit für die Verbraucher von Nachhaltigkeitsdaten wichtig?

Patricia Pina: Analysten werden heutzutage mit Informationen überschüttet. In vielen Fällen werden ihnen ESG-Daten aufgedrängt, und sie wissen nicht so recht, was sie damit anfangen sollen. Die erste Frage, die sie sich beim Betrachten der Daten stellen, ist: Woher kommen diese Daten? Warum hat dieses Unternehmen dieses Ergebnis oder diesen Wert für diese Kennzahl? Wenn sie die Informationen nicht verstehen und ihnen nicht vertrauen, ist es unwahrscheinlich, dass sie sie im Investitionsprozess verwenden. Transparenz und Erklärbarkeit sind daher von zentraler Bedeutung, um das Wachstum nachhaltiger Investitionen und nachhaltiger Produkte zu fördern. Darüber hinaus hat die ESG-Branche das erforderliche Maß an Transparenz nicht erreicht. Infolgedessen verstehen viele Finanzmarktteilnehmer nicht, was ESG-Daten messen und wie ESG-Bewertungen berechnet werden, was zu deren Missbrauch und weit verbreiteter Verwirrung führt. Nicht alle Daten und Analysen sind zweckmäßig, jeder Anwendungsfall und jede Anlagestrategie erfordert andere Informationen. Das Management von Risiken, die sich aus ESG-Faktoren ableiten, um die risikobereinigten Renditen eines Portfolios zu maximieren, unterscheidet sich beispielsweise stark von der Entwicklung von Produkten, die zur Förderung bestimmter ökologischer oder sozialer Ziele beitragen.

Chris Ciompi: Danke. Ron, lassen Sie uns mit den geschätzten Daten weitermachen. Wie erklärt Clarity AI geschätzte Daten?

Ron Potok: Für uns ist es wichtig, dass wir transparent machen, wann wir Daten schätzen oder imputieren. Wir unterscheiden klar zwischen Schätzung, Imputation und berichteten Daten. Wir beginnen damit, dass wir unsere Methodik offenlegen, wie wir Modelle für maschinelles Lernen erstellen, die Merkmale, die wir nutzen, und das Vertrauen, das wir in die Schätzung haben. Wir versuchen, alle diese Merkmale zu erläutern, denn das ist es, was Sie am meisten interessiert. Wir machen transparent, ob es sich um eine Schätzung handelt oder nicht. Wir erklären, welche Merkmale wir verwenden und ob die Verwendung dieser Merkmale sinnvoll ist. Und schließlich erklären wir, wie gut diese Schätzungen im Durchschnitt auf nicht berichtende Unternehmen passen. All dies ist branchenspezifisch, da viele Umweltparameter davon abhängen, was Sie herstellen und wo Sie es herstellen. Wir nutzen diese Art von Merkmalen und sind uns darüber im Klaren, wie wir sie zur Erstellung von Modellen für maschinelles Lernen verwenden. Ein weiteres wichtiges Thema im Zusammenhang mit Schätzungen ist die Häufigkeit, mit der wir unsere Schätzmodelle ändern. Einige unserer Konkurrenten trainieren ihre Modelle jedes Quartal neu, aber wir versuchen, dasselbe Modell über die Zeit beizubehalten. Wir testen es jedes Jahr, um sicherzustellen, dass es immer noch genaue Vorhersagen für das betreffende Jahr macht und dass die Leistung nicht nachgelassen hat. Wir versuchen, das gleiche Modell Jahr für Jahr beizubehalten, um die Konsistenz zu wahren. Neue Merkmale, z. B. wenn das Unternehmen ein anderes Unternehmen übernommen hat oder wenn sich der Umsatz oder der Produktionsstandort ändert, führen zu anderen Antworten für das jeweilige Jahr, aber wir versuchen immer, dasselbe Modell beizubehalten.

Chris Ciompi: Juan Diego, wie wird sichergestellt, dass die Daten von Clarity AI erklärbar sind?

Juan Diego Martín: Das Schlüsselelement der Erklärbarkeit ist die Möglichkeit für unsere Nutzer oder Kunden, die Daten abzufragen. Wir verfügen über ein sehr leistungsfähiges Instrument, nämlich unsere Benutzeroberfläche, eine Webanwendung oder ein Terminal, und wir sind sehr bekannt dafür, dass wir eine hervorragende Benutzererfahrung bieten. Die Nutzer können die Daten abfragen, um zu verstehen, wie sie unter verschiedenen methodischen Gesichtspunkten aufgebaut sind. Wir erklären, wie die Methodik entwickelt und verwendet wurde, um eine bestimmte Information zu liefern. Außerdem stellen wir so viele Rohdaten wie möglich zur Verfügung, z. B. die wichtigsten Elemente, die es uns ermöglicht haben, diese Bewertung und diese Dateninformationen zu erstellen. Der dritte Punkt ist der Kontext zu den Daten, z. B. woher die Daten stammen, der eigentliche Inhalt, der Bericht, die spezifischen Informationen, die wir dafür verwenden, und das Datum der Untersuchung. Wir arbeiten an weiteren Funktionen, die den Nutzern helfen sollen, Veränderungen zu antizipieren und zu verstehen, warum diese Veränderungen eintreten. Im Grunde geht es darum, dass die Nutzer Fragen stellen können und das System bereit ist, sie zu beantworten.

Chris Ciompi: Gut, ich höre also, dass es eine Menge Nutzerfeedback gibt. Ist das richtig?

Juan Diego Martín: Es handelt sich um Daten von Nutzern, und aus Compliance-Gründen können wir diese Informationen nicht immer verwenden. Aber natürlich wird die Aggregation der Benutzerfreundlichkeitsaspekte berücksichtigt, um sie im Laufe der Zeit zu verbessern.

Chris Ciompi: Okay, ich verstehe. Okay, Ron, wir haben bereits ein wenig über Schätzungen gesprochen. Aber gibt es noch andere Möglichkeiten?

Ron Potok: Ja, wir nutzen jetzt die Leistung der neuen generativen KI-Modelle, um die Daten, die wir über Unternehmen in ihren Nachhaltigkeits- und/oder Finanzberichten usw. gefunden haben, effizienter zu erklären. Wir nutzen unsere Daten in Kombination mit den generativen KI-Technologien, um die Informationen, die wir zu liefern versuchen, farbiger und effizienter zu erklären. Das macht Sinn und scheint zu funktionieren.

Chris Ciompi: Vielen Dank an alle!

Geben Sie Ihre E-Mail-Adresse ein, um mehr zu erfahren

Demo anfordern