Foco de atención: Calidad de los datos - Dimensión 5, Explicabilidad

Calidad de los datos 8 de junio de 2023 Ángel Agudo, Patricia Pina, Juan Diego Martin, Ron Potok, Chris Ciompi

Serie de entrevistas con el equipo ejecutivo de Clarity AI sobre las 8 dimensiones de la calidad de datos

¿Cómo garantiza Clarity AI que sus datos son de la máxima calidad?

Clarity AI utiliza un marco de 8 dimensiones para garantizar la máxima calidad de los datos. Estas dimensiones son: cobertura, actualidad, exactitud, actualización de datos, explicabilidad, coherencia, puntualidad y retroalimentación. En esta serie de entrevistas con ejecutivos de Clarity AI , se explora y explica cada una de estas dimensiones. Clarity AIEl equipo de expertos de la empresa crea metodologías científicas y basadas en pruebas que luego aprovechan una inteligencia artificial potente y escalable (por ejemplo, el aprendizaje automático) para recopilar, limpiar, analizar y ampliar los conjuntos de datos existentes con el fin de impulsar su plataforma tecnológica de sostenibilidad o integrarla directamente en los flujos de trabajo existentes de los usuarios.

Dimensión 5 - Explicabilidad

Clarity AIÁngel Agudo, Vicepresidente de Producto, Patricia Pina, Directora de Investigación e Innovación de Producto, Juan Diego Martín, Director de Estrategia de Datos, y Ron Potok, Director de Ciencia de Datos, debaten con Chris Ciompi, Director de Marketing de Clarity AI, la dimensión crítica de la explicabilidad y su relación con la calidad de los datos. 

Chris Ciompi: Hola de nuevo a todos. Ángel, ¿podrías definir la explicabilidad en relación con la calidad de los datos tal y como tú la ves?

Ángel Agudo: Claro. La explicabilidad es una dimensión crítica porque proporciona la capacidad de entender y confiar en los datos. Está intrínsecamente relacionada con la calidad de los datos. Significa que a veces tenemos que dar explicaciones sobre la razón de un dato. Podemos proporcionar información cualitativa y no necesariamente cuantitativa, que podría ser más fácil de entender. Por ejemplo, podría estar relacionada con la razón por la que una empresa está expuesta a una actividad específica, o por qué está generando una determinada política. Es esencial encontrar una explicación de por qué una empresa está relacionada con algo que podría no ser evidente en un primer momento. Otro aspecto de la explicabilidad es poder encontrar la fuente de la verdad o, en otras palabras, la fuente de cada punto de datos. Así podemos confiar y verificar continuamente la información. Nos aseguramos de que lo que estamos presentando es exactamente lo que la empresa está informando o proporcionando, o dónde se ha utilizado el punto de datos que estamos mostrando. Por ejemplo, en un artículo periodístico concreto. La combinación de todos estos aspectos contribuye a generar confianza en los datos, lo que es especialmente importante en un contexto en el que nuestros clientes a menudo carecen de claridad sobre los datos ASG.

Chris Ciompi: Entiendo. Es interesante. Antes de preguntarte por la confianza, Ángel, ¿puedes decirme cómo la plataforma Clarity AI revela la única fuente de verdad?

Ángel Agudo: Incluimos enlaces a los informes donde se divulga la información. Los usuarios pueden pinchar en ellos y acceder a la información real facilitada por la empresa. En los casos en los que la información no procede directamente de la empresa, sino de una fuente externa como un periódico o un informe de una ONG, proporcionamos también información contextual, para que puedan verificar que la fuente de la verdad es correcta y lo que estamos presentando es exactamente lo que dice la fuente original.

Chris Ciompi: Vale, ya veo. Patricia, ¿por qué es importante la explicabilidad para los consumidores de datos de sostenibilidad?

Patricia Pina: Hoy en día, los analistas están abrumados de información; en muchos casos, los datos ESG les han llegado a empujones y no saben muy bien qué hacer con ellos. La primera pregunta que se hacen al examinar los datos es: ¿de dónde proceden? ¿Por qué esta empresa tiene esta puntuación o valor para esta métrica? A menos que entiendan la información y confíen en ella, es poco probable que la utilicen en el proceso de inversión. Por lo tanto, la transparencia y la capacidad de explicación son fundamentales para apoyar el crecimiento de la inversión sostenible y los productos sostenibles. Por otra parte, el sector ESG no ha estado a la altura del nivel de transparencia requerido. Como consecuencia, muchos participantes en los mercados financieros no entienden qué miden los datos ASG ni cómo se calculan las puntuaciones ASG, lo que conduce a un uso incorrecto de los mismos y a una confusión generalizada. No todos los datos y análisis son adecuados para su finalidad, cada caso de uso y estrategia de inversión requerirá una información diferente. Por ejemplo, gestionar los riesgos derivados de factores ASG para maximizar la rentabilidad ajustada al riesgo de una cartera es muy diferente de crear productos impulsados por el impacto que contribuyan a avanzar en objetivos medioambientales o sociales específicos.

Chris Ciompi: Gracias. Ron, pasemos a los datos estimados. ¿Cómo explica Clarity AI los datos estimados?

Ron Potok: Para nosotros es fundamental ser transparentes cuando estimamos o imputamos datos. Distinguimos claramente entre estimación, imputación y datos notificados. Empezamos revelando nuestra metodología, cómo construimos los modelos de aprendizaje automático, las características que aprovechamos y la confianza que tenemos en la estimación. Intentamos explicar todas esas características, que es lo que más le interesa. Somos transparentes sobre si se trata de una estimación o no. Explicamos qué características utilizamos y si es razonable utilizarlas. Por último, explicamos hasta qué punto estas estimaciones se ajustan, por término medio, a las empresas no declarantes. Todo ello es específico del sector, ya que lo que se fabrica y dónde se fabrica suele determinar muchos de los parámetros medioambientales. Aprovechamos este tipo de características y explicamos claramente cómo las utilizamos para crear modelos de aprendizaje automático. Otro tema importante sobre las estimaciones es la frecuencia con la que cambiamos los modelos de estimación. Algunos de nuestros competidores vuelven a entrenar sus modelos cada trimestre, pero nosotros intentamos mantener el mismo modelo a lo largo del tiempo. Lo probamos cada año para asegurarnos de que sigue haciendo predicciones precisas para ese año y de que el rendimiento no ha disminuido. Intentamos mantener el mismo modelo año tras año para mantener la coherencia. Las novedades, como que la empresa adquiera otra compañía o que cambien sus ingresos o su lugar de producción, darán respuestas diferentes para ese año, pero siempre intentamos mantener el mismo modelo.

Chris Ciompi: Juan Diego, ¿cómo se asegura Clarity AI de que sus datos son explicables?

Juan Diego Martín: El elemento clave de la explicabilidad es la capacidad de nuestros usuarios o clientes para interrogar los datos. Tenemos una herramienta muy potente que es nuestra interfaz de usuario, una aplicación web o terminal, y somos muy reconocidos por ofrecer una experiencia de usuario superior. Los usuarios pueden interrogar los datos para entender cómo se construyen desde diferentes perspectivas metodológicas. Explicamos cómo se ha desarrollado y utilizado la metodología para proporcionar un dato concreto. También proporcionamos tantos datos brutos como sea posible, como los principales elementos que nos han permitido crear esta puntuación y esta información de datos. Lo tercero es el contexto de los datos, como de dónde se han recogido, el contenido real, el informe, la información específica que utilizamos para ello y la fecha de la investigación. Estamos trabajando en muchas más funciones relacionadas con la explicabilidad que ayudarán a los usuarios a anticiparse a los cambios y a entender por qué se producen esos cambios. Básicamente, se trata de que los usuarios puedan hacer preguntas y de que el sistema esté preparado para responderlas.

Chris Ciompi: Muy bien, así que un montón de comentarios de los usuarios es lo que estoy escuchando. ¿Es eso correcto?

Juan Diego Martín: Son datos de los usuarios y, por motivos de cumplimiento, no siempre podemos utilizar esa información. Pero, por supuesto, la agregación de los aspectos de usabilidad se tiene en cuenta para mejorar con el tiempo.

Chris Ciompi: Bueno, entiendo. Vale, Ron, ya hemos hablado un poco sobre las estimaciones. ¿Pero hay otras formas?

Ron Potok: Sí, ahora estamos aprovechando el poder de los nuevos modelos generativos de IA para dar explicaciones más eficientes dados los datos que hemos encontrado sobre las empresas a partir de sus informes de sostenibilidad y/o financieros, etc. Estamos utilizando nuestros datos en combinación con las tecnologías de IA generativa para dar más color y explicaciones más eficientes de la información que estamos tratando de proporcionar. Esto tiene sentido y parece estar funcionando.

Chris Ciompi: ¡Gracias a todos!

Introduzca su dirección de correo electrónico para leer más