Riflettori puntati: Qualità dei dati - Dimensione 5, spiegabilità

Qualità dei dati
Pubblicato: 8 giugno 2023
Aggiornato: 9 settembre 2024
Riflettori puntati: Qualità dei dati - Dimensione 5, spiegabilità

Una serie di interviste con il team esecutivo di Clarity AI sulle 8 dimensioni della qualità dei dati

Come fa Clarity AI a garantire che i suoi dati siano della massima qualità?

Clarity AI utilizza una struttura a 8 dimensioni per garantire la massima qualità dei dati. Tali dimensioni sono: copertura, freschezza / tempestività, accuratezza, aggiornamento dei dati, spiegabilità, coerenza, puntualità e feedback. In questa serie di interviste ai dirigenti di Clarity AI , ciascuna di queste dimensioni viene esplorata e spiegata. Clarity AIIl team di esperti di crea metodologie scientifiche e basate su prove che poi sfruttano un'intelligenza artificiale potente e scalabile (ad esempio, l'apprendimento automatico) per raccogliere, pulire, analizzare ed espandere i set di dati esistenti per alimentare la sua piattaforma tecnologica per la sostenibilità o per integrarla direttamente nei flussi di lavoro esistenti degli utenti.

Dimensione 5 - Spiegabilità

Clarity AIÁngel Agudo, VP Product, Patricia Pina, Head of Product Research & Innovation, Juan Diego Martin, Head of Data Strategy, e Ron Potok, Head of Data Science, discutono con Chris Ciompi, Chief Marketing Officer di Clarity AI, la dimensione critica della spiegabilità e la sua relazione con la qualità dei dati. 

Chris Ciompi: Salve di nuovo a tutti. Ángel, potresti definire la spiegabilità in relazione alla qualità dei dati, come la vedi tu?

Ángel Agudo: Certo. La spiegabilità è una dimensione critica perché fornisce la capacità di comprendere e fidarsi dei dati. È intrinsecamente legata alla qualità dei dati. Significa che a volte dobbiamo fornire spiegazioni sul perché di un dato. Possiamo fornire informazioni qualitative e non necessariamente quantitative, che potrebbero essere più facili da comprendere. Ad esempio, potrebbero essere legate al motivo per cui un'azienda è esposta a un'attività specifica o perché sta generando una certa politica. È essenziale trovare una spiegazione del perché un'azienda è collegata a qualcosa che potrebbe non essere evidente all'inizio. Un altro aspetto della spiegabilità è la capacità di trovare la fonte della verità o, in altre parole, la fonte per ogni punto di dati. In questo modo, possiamo fidarci e verificare continuamente le informazioni. Ci assicuriamo che ciò che stiamo presentando sia esattamente ciò che l'azienda sta riportando o fornendo, o dove è stato utilizzato il punto di dati che stiamo mostrando. Ad esempio, in un particolare articolo di cronaca. La combinazione di tutti questi aspetti contribuisce a creare fiducia nei dati, il che è particolarmente importante in un contesto in cui i nostri clienti spesso non hanno chiarezza sui dati ESG.

Chris Ciompi: Capisco. È interessante. Prima di chiederti della fiducia, Ángel, puoi dirmi come la piattaforma Clarity AI rivela la singola fonte di verità?

Ángel Agudo: Includiamo i link ai rapporti in cui vengono divulgate le informazioni. Gli utenti possono cliccarci sopra e accedere alle informazioni effettivamente fornite dall'azienda. Nei casi in cui le informazioni non sono fornite direttamente dall'azienda, ma da una fonte esterna come un giornale o un rapporto di una ONG, forniamo anche informazioni contestuali, in modo che gli utenti possano verificare che la fonte di verità sia corretta e che ciò che stiamo presentando sia esattamente ciò che dice la fonte originale.

Chris Ciompi: Ok, capisco. Patricia, perché la spiegabilità è importante per i consumatori di dati sulla sostenibilità?

Patricia Pina: Al giorno d'oggi gli analisti sono sommersi di informazioni, in molti casi i dati ESG sono stati loro imposti e non sanno bene cosa farsene. La prima domanda che si pongono quando guardano i dati è: da dove vengono questi dati? Perché questa azienda ha questo punteggio o valore per questa metrica? Se non comprendono le informazioni e non si fidano di esse, è improbabile che le utilizzino nel processo di investimento. La trasparenza e la spiegabilità sono quindi fondamentali per sostenere la crescita degli investimenti sostenibili e dei prodotti sostenibili. Inoltre, il settore ESG non è stato all'altezza del livello di trasparenza richiesto. Di conseguenza, molti partecipanti al mercato finanziario non capiscono cosa misurano i dati ESG e come vengono calcolati i punteggi ESG, il che porta a un uso improprio di tali dati e a una confusione diffusa. Non tutti i dati e le analisi sono adatti allo scopo, ogni caso d'uso e strategia d'investimento richiederà informazioni diverse. Ad esempio, gestire i rischi derivanti dai fattori ESG per massimizzare i rendimenti corretti per il rischio di un portafoglio è molto diverso dal creare prodotti orientati all'impatto che contribuiscano a promuovere specifici obiettivi ambientali o sociali.

Chris Ciompi: Grazie. Ron, passiamo ai dati stimati. Come spiega Clarity AI i dati stimati?

Ron Potok: Per noi è fondamentale essere trasparenti quando stimiamo o imputiamo i dati. Facciamo una chiara distinzione tra stima, imputazione e dati riportati. Iniziamo rivelando la nostra metodologia, come costruiamo i modelli di apprendimento automatico, le caratteristiche che sfruttiamo e la fiducia che abbiamo nella stima. Cerchiamo di spiegare tutte queste caratteristiche, che sono quelle che vi interessano di più. Siamo trasparenti sul fatto che si tratti di una stima o meno. Spieghiamo quali caratteristiche stiamo usando e se queste caratteristiche sono ragionevoli da usare. Infine, spieghiamo quanto queste stime si adattino in media alle aziende non dichiaranti. Tutto ciò è specifico per il settore, poiché ciò che si produce e dove si produce tende a determinare molti dei parametri ambientali. Sfruttiamo questo tipo di caratteristiche e spieghiamo chiaramente come le usiamo per costruire modelli di apprendimento automatico. Un altro argomento importante relativo alle stime è la frequenza con cui cambiamo i modelli di stima. Alcuni dei nostri concorrenti riqualificano i loro modelli ogni trimestre, ma noi cerchiamo di mantenere lo stesso modello nel tempo. Lo testiamo ogni anno per verificare che continui a prevedere con precisione per quell'anno e che le prestazioni non siano diminuite. Cerchiamo di mantenere lo stesso modello anno dopo anno per mantenere la coerenza. Le novità, come l'acquisizione di un'altra società o la variazione dei ricavi o della sede di produzione, daranno risposte diverse per quell'anno, ma cerchiamo sempre di mantenere lo stesso modello.

Chris Ciompi: Juan Diego, come fa Clarity AI a garantire che i suoi dati siano spiegabili?

Juan Diego Martín: L'elemento chiave della spiegabilità è la capacità dei nostri utenti o clienti di interrogare i dati. Abbiamo uno strumento molto potente che è la nostra interfaccia utente, un'applicazione web o un terminale, e siamo ben noti per offrire un'esperienza utente superiore. Gli utenti possono interrogare i dati per capire come sono stati costruiti da diverse prospettive metodologiche. Spieghiamo come la metodologia è stata sviluppata e utilizzata per fornire una specifica informazione. Inoltre, forniamo il maggior numero possibile di dati grezzi, come gli elementi principali che ci hanno permesso di creare questo punteggio e queste informazioni sui dati. La terza cosa è il contesto dei dati, come ad esempio il luogo in cui sono stati raccolti, il contenuto effettivo, il rapporto, le informazioni specifiche che stiamo utilizzando e la data della ricerca. Stiamo lavorando a molte altre funzioni legate alla spiegabilità che aiuteranno gli utenti ad anticipare i cambiamenti e a capire perché avvengono. In sostanza, si tratta di consentire agli utenti di porre domande e di rendere il sistema pronto a rispondere.

Chris Ciompi: Va bene, quindi ho sentito un sacco di feedback da parte degli utenti. È corretto?

Juan Diego Martín: Si tratta di dati provenienti dagli utenti e, per motivi di conformità, non possiamo sempre utilizzare queste informazioni. Ma naturalmente l'aggregazione degli aspetti di usabilità viene presa in considerazione per migliorare nel tempo.

Chris Ciompi: Ok, capisco. Ok, Ron, abbiamo già parlato un po' di stime. Ma ci sono altri modi?

Ron Potok: Sì, ora stiamo sfruttando la potenza dei nuovi modelli di IA generativa per fornire spiegazioni più efficienti in base ai dati che abbiamo trovato sulle aziende dai loro rapporti di sostenibilità e/o finanziari, ecc. Stiamo utilizzando i nostri dati in combinazione con le tecnologie di intelligenza artificiale generativa per fornire spiegazioni più colorate ed efficienti delle informazioni che stiamo cercando di fornire. Questo ha senso e sembra funzionare.

Chris Ciompi: Grazie a tutti!

Inserisci il tuo indirizzo e-mail per saperne di più

Richiedi una demo