Escuche en su red favorita
El año pasado, más de 400 empresas que cotizan en bolsa por valor de más de 1.000 millones de dólares revelaron en sus declaraciones riesgos relacionados con la IA, lo que supone un aumento del 46 % con respecto a 2024. Al mismo tiempo, los centros de datos de Estados Unidos consumieron 183 teravatios-hora en 2024 (más del 4 % del consumo nacional de electricidad) y se prevé que se dupliquen con creces de aquí a 2030.
Estos datos sirven de poderoso recordatorio para los inversores institucionales y los gestores de activos: La IA puede ser una herramienta para obtener beneficios, pero también es un factor de riesgo sistémico que afecta a todos los ámbitos, desde el suministro de energía y la supervisión de la gobernanza hasta la obtención ética de datos y la viabilidad del modelo de negocio.
Conozca a los expertos

Lorenzo Saa
Director de Sostenibilidad
Clarity AI

Alex Rayón
Director General
Brain and Code
En este episodio de Sustainability Wired, el presentador Lorenzo Saa se sienta con Alex Rayón, Consejero Delegado de Brain & Code, para analizar los riesgos, a menudo pasados por alto, que conlleva el rápido despliegue de la IA.
Mientras que muchas conversaciones en el sector se centran en la productividad, la automatización o el aumento de la eficiencia, Alex nos empuja a ampliar el debate. En su opinión, la IA conlleva riesgos económicos, sociales, culturales y éticos, y los inversores no pueden permitirse tratarlos de forma unidimensional.
Escuche ahora la conversación completa.
Momentos clave
| 00:00 - 02:11 | Introducción |
| 02:12 - 05:13 | Cómo empezó el viaje de Alex por la IA y su relación con la sostenibilidad |
| 05:14 - 08:21 | Los verdaderos riesgos empresariales, individuales y sociales de la IA |
| 08:22 - 10:04 | Por qué la ciberseguridad es la nueva frontera |
| 10:05 - 12:20 | Derechos de autor, propiedad de los datos y el mito de la "inspiración" |
| 12:21 - 14:35 | Explicabilidad frente a confianza: ¿Podemos seguir utilizando lo que no entendemos del todo? |
| 14:36 - 17:54 | El coste medioambiental de la IA y la ilusión de una informática barata |
| 17:55 - 20:15 | Modelos más inteligentes, datos más limpios y responsabilidad empresarial |
| 20:16 - 22:27 | ¿Puede la IA reducir o reforzar los prejuicios? |
| 22:28 - 23:59 | Los puntos ciegos culturales y el dominio de los datos occidentales |
| 24:00 - 25:45 | ¿Estamos externalizando nuestra inteligencia? Los riesgos de la descarga cognitiva |
| 25:46 - 27:46 | La nueva generación y la naturaleza cambiante del trabajo |
| 27:47 - 29:51 | Concentración de poder: grandes tecnologías, grandes riesgos |
| 29:52 - 31:36 | Normativa de la UE frente a la de EE.UU: Dos mundos, una tecnología |
| 31:37 - 34:36 | AGI y el mito de la conciencia de las máquinas |
| 34:37 - 36:47 | El impacto neto de la IA: positivo, pero sólo si nos complementa |
| 36:48 - 37:35 | El arte de la sostenibilidad |
| 37:36 - 38:11 | El mensaje final de Alex: Comprométase responsablemente, manténgase informado |
| 38:12 - 39:48 | Preguntas rápidas |
| 39:49 | Observaciones finales |
Citas y reflexiones destacadas sobre la IA y la inversión sostenible
En este episodio, Alex expone los principales retos que los inversores pasan por alto cuando hablan de IA, yendo más allá de las ganancias de productividad para explorar los riesgos multidimensionales, las presiones económicas ocultas, los problemas de datos profundamente arraigados y por qué la industria aún está lejos de cualquier cosa que se parezca a la inteligencia general.
1. La IA introduce riesgos multidimensionales
Alex explica por qué las empresas deben dejar de tratar la IA como un único riesgo financiero y empezar a reconocer las responsabilidades sociales y culturales más amplias que genera.
"Así que lo más importante, hablando de riesgo en el aspecto económico de una empresa, es el FOMO. Miedo a perderse algo, a estar fuera de juego. Pero hablando en general, la empresa no es sólo una identidad económica, también es un agente social, un agente cultural. Tenemos que abrir nuestra mente a nuevas dimensiones. No podemos decir que sólo tenemos un riesgo. Tenemos un montón de riesgos multidimensionales que tenemos que incorporar también a la responsabilidad que cualquier empresa tiene en la sociedad."
2. El verdadero coste de la IA aún no ha llegado
Alex explica por qué los precios actuales de la IA no reflejan los verdaderos costes de la energía y las infraestructuras, y cómo esta realidad podría poner patas arriba modelos empresariales enteros.
"El precio que estamos pagando por estas máquinas no es el coste real de producción. Es una estrategia de mercado. Y cuando los precios suban para reflejar el verdadero uso de la energía, algunos modelos de negocio dejarán de ser sostenibles."
3. El sesgo en la IA empieza en los datos
Alex destaca cómo la propiedad de los datos y los incentivos determinan el sesgo de la IA, haciendo de la procedencia de los datos un reto fundamental para cualquier organización que adopte la IA.
"Es imposible luchar contra los prejuicios porque el problema no está en la inteligencia artificial, sino en los datos. ¿Quién genera los datos? ¿Quién tiene intereses económicos en los datos? El problema de fondo es que no sabemos quién está generando los datos y luchando para que no haya sesgos en ellos."
4. La inteligencia artificial general sigue siendo un objetivo lejano y exagerado
Alex se opone al bombo y platillo de la Inteligencia Artificial General (IAG), recordándonos que sin una comprensión clara de la conciencia, la idea de una "IA a nivel humano" sigue estando muy lejos de nuestro alcance.
"Estamos bastante lejos de la inteligencia artificial general. Suelo explicar esta idea con una de las capacidades más distinguibles de los humanos: la conciencia. Cuando pido a un auditorio que defina qué es la conciencia, suelo recibir entre 15 y 30 respuestas diferentes. Esto no es más que una metáfora para decir que no entendemos realmente qué es la conciencia. Entonces, ¿alguien puede explicarme cómo podemos explicar a una máquina que exhiba este punto de vista tan inteligente? Creo que estamos muy, muy lejos de tener siquiera algo cercano a imitar nuestra inteligencia humana".









