Écoutez sur votre réseau préféré
Au cours de l'année écoulée, plus de 400 sociétés cotées en bourse d'une valeur supérieure à 1 milliard de dollars américains ont divulgué des risques liés à l'IA dans leurs déclarations, soit un bond de 46 % par rapport à 2024. Dans le même temps, les centres de données aux États-Unis ont consommé 183 térawattheures en 2024 (plus de 4 % de la consommation nationale d'électricité) et devraient plus que doubler d'ici à 2030.
Ces points de données constituent un rappel puissant pour les investisseurs institutionnels et les gestionnaires d'actifs : L'IA peut être un outil permettant de réaliser des gains, mais c'est aussi un facteur de risque systémique qui touche à tout, de l'approvisionnement en énergie et de la surveillance de la gouvernance à l'approvisionnement en données éthiques et à la viabilité du modèle d'affaires.
Rencontrer les experts

Lorenzo Saa
Responsable du développement durable
Clarity AI

Alex Rayón
PDG
Brain and Code
Dans cet épisode de Sustainability Wired, l'animateur Lorenzo Saa s'entretient avec Alex Rayón, directeur général de Brain & Code, pour explorer les risques souvent négligés qui accompagnent le déploiement rapide de l'IA.
Alors que de nombreuses conversations dans le secteur se concentrent sur la productivité, l'automatisation ou les gains d'efficacité, Alex nous incite à élargir la discussion. Selon lui, l'IA comporte des risques économiques, sociaux, culturels et éthiques, et les investisseurs ne peuvent pas se permettre de les traiter de manière unidimensionnelle.
Écoutez maintenant l'intégralité de la conversation.
Moments clés
| 00:00 - 02:11 | Introduction |
| 02:12 - 05:13 | Comment l'aventure d'Alex en matière d'IA a-t-elle commencé et quel est son lien avec le développement durable ? |
| 05:14 - 08:21 | Les risques réels de l'IA pour les entreprises, les individus et la société |
| 08:22 - 10:04 | Pourquoi la cybersécurité est la nouvelle frontière |
| 10:05 - 12:20 | Droits d'auteur, propriété des données et mythe de l'inspiration |
| 12:21 - 14:35 | Explicabilité et confiance : Pouvons-nous encore utiliser ce que nous ne comprenons pas entièrement ? |
| 14:36 - 17:54 | Le coût environnemental de l'IA et l'illusion d'une informatique bon marché |
| 17:55 - 20:15 | Des modèles plus intelligents, des données plus propres et la responsabilité des entreprises |
| 20:16 - 22:27 | L'IA peut-elle réduire ou renforcer les préjugés ? |
| 22:28 - 23:59 | Taches culturelles aveugles et dominance des données occidentales |
| 24:00 - 25:45 | Sommes-nous en train d'externaliser notre intelligence ? Les risques du déchargement cognitif |
| 25:46 - 27:46 | La nouvelle génération et l'évolution de la nature du travail |
| 27:47 - 29:51 | Concentration du pouvoir : Big Tech, grands risques |
| 29:52 - 31:36 | Réglementation européenne et américaine : Deux mondes, une technologie |
| 31:37 - 34:36 | L'AGI et le mythe de la conscience de la machine |
| 34:37 - 36:47 | L'impact net de l'IA : positif, mais seulement si elle nous complète |
| 36:48 - 37:35 | L'art de la durabilité |
| 37:36 - 38:11 | Le dernier message d'Alex : S'engager de manière responsable, rester informé |
| 38:12 - 39:48 | Questions rapides |
| 39:49 | Remarques finales |
Citations et réflexions importantes sur l'IA et l'investissement durable
Dans cet épisode, Alex expose les principaux défis que les investisseurs négligent lorsqu'ils parlent d'IA, allant au-delà des gains de productivité pour explorer les risques multidimensionnels, les pressions économiques cachées, les problèmes de données profondément enracinés, et les raisons pour lesquelles l'industrie est encore loin de tout ce qui ressemble à l'intelligence générale.
1. L'IA introduit des risques multidimensionnels
Alex explique pourquoi les entreprises doivent cesser de considérer l'IA comme un simple risque financier et commencer à reconnaître les responsabilités sociales et culturelles plus larges qu'elle engendre.
"Le plus important, du point de vue du risque économique d'une entreprise, c'est la peur de manquer. La peur de manquer, d'être hors jeu. Mais d'une manière générale, l'entreprise n'est pas seulement une identité économique, c'est aussi un agent social, un agent culturel. Nous devons ouvrir notre esprit à de nouvelles dimensions. Nous ne pouvons pas dire que nous n'avons qu'un seul risque. Nous avons de nombreux risques multidimensionnels que nous devons également prendre en compte dans la responsabilité que toute entreprise a dans la société.
2. Le coût réel de l'IA n'a pas encore été atteint
Alex explique pourquoi la tarification actuelle de l'IA ne reflète pas les coûts réels de l'énergie et de l'infrastructure et comment cette réalité pourrait bouleverser des modèles économiques entiers.
"Le prix que nous payons pour ces machines ne correspond pas au coût de production réel. Il s'agit d'une stratégie de mise sur le marché. Et lorsque les prix augmenteront pour refléter la véritable consommation d'énergie, certains modèles d'entreprise risquent de ne plus être viables".
3. Les biais dans l'IA commencent à partir des données
Alex souligne la manière dont la propriété des données et les incitations influencent le parti pris de l'IA, faisant de la provenance des données un défi fondamental pour toute organisation adoptant l'IA.
"Il est impossible de lutter contre les préjugés parce que le problème n'est pas lié à l'IA, mais aux données. Qui génère les données ? Qui a un intérêt économique dans les données ? Le problème fondamental est que nous ne savons pas qui génère les données et que nous ne nous battons pas pour qu'elles ne soient pas biaisées."
4. L'intelligence artificielle générale est encore un objectif lointain, mais très ambitieux.
Alex s'oppose à l'engouement pour l'intelligence artificielle générale (AGI) et nous rappelle que sans une compréhension claire de la conscience, l'idée d'une "IA de niveau humain" reste très éloignée de la réalité.
"Nous sommes très loin de l'intelligence artificielle générale. J'explique généralement cette idée par l'une des capacités les plus distinctives de l'être humain : la conscience. Lorsque je demande à un public de définir ce qu'est la conscience, je reçois généralement entre 15 et 30 réponses différentes. Ce n'est qu'une métaphore pour dire que nous ne comprenons pas vraiment ce qu'est la conscience. Alors, quelqu'un peut-il m'expliquer comment nous pouvons expliquer à une machine de présenter ce point de vue hautement intelligent ? Je pense que nous sommes très, très loin d'avoir quelque chose qui puisse imiter l'intelligence humaine.









