Em destaque: Qualidade dos dados - Dimensão 5, Explicabilidade

Qualidade dos dados
Publicado: 8 de junho de 2023
Atualizado: 9 de setembro de 2024
Em destaque: Qualidade dos dados - Dimensão 5, Explicabilidade

Uma série de entrevistas com a equipa executiva do Clarity AI sobre as 8 dimensões da qualidade dos dados

Como é que Clarity AI garante que os seus dados são da mais elevada qualidade?

Clarity AI utiliza um quadro de 8 dimensões para garantir que os dados são da mais elevada qualidade. Essas dimensões são a cobertura, a atualidade , a exatidão, as actualizações de dados, a explicabilidade, a consistência, o ponto no tempo e o feedback. Nesta série de entrevistas com executivos da Clarity AI , cada uma destas dimensões é explorada e explicada. Clarity AIA equipa de especialistas da cria metodologias científicas e baseadas em evidências que, em seguida, utilizam inteligência artificial poderosa e escalável (por exemplo, aprendizagem automática) para recolher, limpar, analisar e expandir conjuntos de dados existentes para alimentar a sua plataforma tecnológica de sustentabilidade ou para integrar diretamente nos fluxos de trabalho existentes dos utilizadores.

Dimensão 5 - Explicabilidade

Clarity AIÁngel Agudo, Diretor de Investigação e Inovação de Produtos, Patricia Pina, Diretor de Estratégia de Dados, Juan Diego Martin, e Ron Potok, Diretor de Ciência de Dados, discutem - com Chris Ciompi, Diretor de Marketing de Clarity AI- a dimensão crítica da explicabilidade e a sua relação com a qualidade dos dados. 

Chris Ciompi: Olá a todos. Ángel, podes definir a explicabilidade em relação à qualidade dos dados, na tua opinião?

Ángel Agudo: Claro. A explicabilidade é uma dimensão fundamental porque permite compreender e confiar nos dados. Está intrinsecamente ligada à qualidade dos dados. Significa que, por vezes, precisamos de fornecer explicações sobre a razão de ser de um ponto de dados. Podemos fornecer informações qualitativas e não necessariamente quantitativas, que podem ser mais fáceis de compreender. Por exemplo, pode estar relacionada com a razão pela qual uma empresa está exposta a uma atividade específica, ou porque está a gerar uma determinada política. É essencial encontrar uma explicação para o facto de uma empresa estar ligada a algo que pode não ser aparente à primeira vista. Outro aspeto da explicabilidade é a capacidade de encontrar a fonte da verdade ou, por outras palavras, a fonte de cada ponto de dados. Desta forma, podemos confiar e verificar continuamente a informação. Asseguramos que o que estamos a apresentar é exatamente o que a empresa está a reportar ou a fornecer, ou onde o ponto de dados que estamos a mostrar foi utilizado. Por exemplo, num determinado artigo noticioso. A combinação de todos estes aspectos contribui para criar confiança nos dados, o que é especialmente importante num contexto em que os nossos clientes carecem frequentemente de clareza relativamente aos dados ESG.

Chris Ciompi: Compreendo. Isso é interessante. Antes de te perguntar sobre a confiança, Ángel, podes dizer-me como é que a plataforma Clarity AI revela a única fonte de verdade?

Ángel Agudo: Incluímos ligações para os relatórios onde a informação é divulgada. Os utilizadores podem clicar neles e aceder à informação real fornecida pela empresa. Nos casos em que a informação não é fornecida diretamente pela empresa, mas por uma fonte externa, como um jornal ou um relatório de uma ONG, também fornecemos informações contextuais, para que possam verificar se a fonte da verdade está correcta e se o que estamos a apresentar é exatamente o que diz a fonte original.

Chris Ciompi: Está bem, estou a ver. Patricia, porque é que a explicabilidade é importante para os consumidores de dados sobre sustentabilidade?

Patricia Pina: Atualmente, os analistas estão sobrecarregados de informação. Em muitos casos, os dados ESG foram-lhes empurrados e eles não sabem bem o que fazer com eles. A primeira pergunta que fazem a si próprios quando analisam os dados é: de onde vêm estes dados? Porque é que esta empresa tem esta pontuação ou valor para esta métrica? A menos que compreendam a informação e confiem nela, é pouco provável que a utilizem no processo de investimento. A transparência e a explicabilidade são, por conseguinte, fundamentais para apoiar o crescimento do investimento sustentável e dos produtos sustentáveis. Além disso, o sector ESG não tem estado à altura do nível de transparência exigido. Consequentemente, muitos participantes no mercado financeiro não compreendem o que medem os dados ESG e como são calculadas as pontuações ESG, o que conduz a uma utilização incorrecta dos mesmos e a uma confusão generalizada. Nem todos os dados e análises são adequados ao objetivo, cada caso de utilização e estratégia de investimento exigirá informações diferentes. Por exemplo, gerir os riscos decorrentes de factores ESG para maximizar os rendimentos ajustados ao risco de uma carteira é muito diferente de criar produtos orientados para o impacto que contribuam para a promoção de objectivos ambientais ou sociais específicos.

Chris Ciompi: Obrigado. Ron, vamos passar para os dados estimados. Como o site Clarity AI explica os dados estimados?

Ron Potok: É crucial para nós sermos transparentes quando estamos a estimar ou a imputar dados. Fazemos uma distinção clara entre estimativa, imputação e dados comunicados. Começamos por revelar a nossa metodologia, como criamos modelos de aprendizagem automática, as características que utilizamos e a confiança que temos na estimativa. Tentamos explicar todas essas características, que é o que mais interessa aos utilizadores. Somos transparentes quanto ao facto de o valor ser estimado ou não. Explicamos quais as características que estamos a utilizar e se é razoável utilizá-las. Por último, explicamos até que ponto estas estimativas se adequam, em média, às empresas não declarantes. Tudo isto é específico do sector, uma vez que o que se faz e onde se faz tende a determinar muitos dos parâmetros ambientais. Aproveitamos esse tipo de características e explicamos claramente como as utilizamos para criar modelos de aprendizagem automática. Outro tópico importante sobre estimativas é a frequência com que alteramos os modelos de estimativa. Alguns dos nossos concorrentes treinam novamente os seus modelos a cada trimestre, mas nós tentamos manter o mesmo modelo ao longo do tempo. Testamo-lo todos os anos para garantir que continua a fazer previsões exactas para esse ano e que o desempenho não diminuiu. Tentamos manter o mesmo modelo ano após ano para manter a consistência. Novas características, como o facto de a empresa ter adquirido uma empresa diferente ou se as suas receitas ou localização da produção mudarem, darão respostas diferentes para esse ano, mas tentamos sempre manter o mesmo modelo.

Chris Ciompi: Juan Diego, como é que o Clarity AI garante que os seus dados são explicáveis?

Juan Diego Martín: O elemento-chave da explicabilidade é a capacidade de os nossos utilizadores ou clientes interrogarem os dados. Temos uma ferramenta muito poderosa que é a nossa interface de utilizador, uma aplicação web ou terminal, e somos muito reconhecidos por oferecer uma experiência de utilizador superior. Os utilizadores podem interrogar os dados para compreender como são construídos a partir de diferentes perspectivas metodológicas. Explicamos como a metodologia foi desenvolvida e utilizada para fornecer uma informação específica. Também fornecemos o máximo de dados em bruto possível, como os principais elementos que nos permitiram criar esta pontuação e estas informações de dados. O terceiro aspeto é o contexto dos dados, como o local de onde foram recolhidos, o conteúdo real, o relatório, as informações específicas que estamos a utilizar para o efeito e a data da investigação. Estamos a trabalhar em muito mais funcionalidades relacionadas com a explicabilidade que ajudarão os utilizadores a antecipar alterações e a compreender por que razão essas alterações ocorrem. Basicamente, trata-se de permitir que os utilizadores façam perguntas e que o sistema esteja preparado para lhes responder.

Chris Ciompi: Muito bem, o que estou a ouvir é que há muito feedback dos utilizadores. Está correto?

Juan Diego Martín: São dados dos utilizadores e, por razões de conformidade, nem sempre podemos utilizar essa informação. Mas, claro, a agregação dos aspectos de usabilidade é tida em conta para melhorar ao longo do tempo.

Chris Ciompi: Está bem, estou a perceber. Muito bem, Ron, já falámos um pouco sobre estimativas. Mas existem outras formas?

Ron Potok: Sim, estamos agora a aproveitar o poder dos novos modelos de IA generativa para dar explicações mais eficientes, tendo em conta os dados que encontrámos sobre as empresas a partir dos seus relatórios de sustentabilidade e/ou financeiros, etc. Estamos a utilizar os nossos dados em combinação com as tecnologias de IA generativa para dar explicações mais coloridas e mais eficientes sobre as informações que estamos a tentar fornecer. Isto faz sentido e parece estar a funcionar.

Chris Ciompi: Obrigado a todos!

Introduza o seu endereço de correio eletrónico para ler mais

Solicite uma demonstração