Ascoltate sulla vostra rete preferita
Nell'ultimo anno, più di 400 società quotate in borsa con un valore superiore a 1 miliardo di dollari hanno reso noti i rischi legati all'IA nei loro documenti, con un aumento del 46% rispetto al 2024. Allo stesso tempo, i data center negli Stati Uniti hanno consumato 183 terawattora nel 2024 (oltre il 4% dell'uso nazionale di elettricità) e si prevede che raddoppieranno entro il 2030.
Questi dati sono un potente promemoria per gli investitori istituzionali e i gestori patrimoniali: L'IA può essere uno strumento di guadagno, ma è anche un fattore di rischio sistemico che tocca tutto, dalla fornitura di energia alla supervisione della governance, dall'approvvigionamento di dati etici alla sostenibilità del modello di business.
Incontro con gli esperti

Lorenzo Saa
Chief Sustainability Officer
Clarity AI

Alex Rayón
CEO
Brain and Code
In questa puntata di Sustainability Wired, il conduttore Lorenzo Saa si confronta con Alex Rayón, Chief Executive Officer di Brain & Code, per esplorare i rischi, spesso trascurati, legati alla rapida diffusione dell'IA.
Mentre molte conversazioni nel settore si concentrano sulla produttività, l'automazione o i guadagni di efficienza, Alex ci spinge ad ampliare la discussione. L'IA, sostiene, comporta rischi economici, sociali, culturali ed etici e gli investitori non possono permettersi di trattarli in modo unidimensionale.
Ascoltate ora la conversazione completa.
Momenti chiave
| 00:00 - 02:11 | Introduzione |
| 02:12 - 05:13 | Come è iniziato il viaggio di Alex nell'intelligenza artificiale e il suo legame con la sostenibilità |
| 05:14 - 08:21 | I rischi reali dell'IA per l'azienda, l'individuo e la società |
| 08:22 - 10:04 | Perché la cybersecurity è la nuova frontiera |
| 10:05 - 12:20 | Copyright, proprietà dei dati e il mito dell'ispirazione |
| 12:21 - 14:35 | Spiegabilità e fiducia: Possiamo ancora utilizzare ciò che non comprendiamo appieno? |
| 14:36 - 17:54 | Il costo ambientale dell'IA e l'illusione del calcolo a basso costo |
| 17:55 - 20:15 | Modelli più intelligenti, dati più puliti e responsabilità aziendale |
| 20:16 - 22:27 | L'IA può ridurre o rafforzare i pregiudizi? |
| 22:28 - 23:59 | Punti ciechi culturali e predominio dei dati occidentali |
| 24:00 - 25:45 | Stiamo esternalizzando la nostra intelligenza? I rischi dell'offloading cognitivo |
| 25:46 - 27:46 | La nuova generazione e il cambiamento della natura del lavoro |
| 27:47 - 29:51 | Concentrazione di potere: Big Tech, grandi rischi |
| 29:52 - 31:36 | Normativa UE e USA: Due mondi, una tecnologia |
| 31:37 - 34:36 | AGI e il mito della coscienza delle macchine |
| 34:37 - 36:47 | L'impatto netto dell'IA: positivo, ma solo se è complementare a noi |
| 36:48 - 37:35 | L'arte della sostenibilità |
| 37:36 - 38:11 | Il messaggio finale di Alex: Impegnarsi responsabilmente, rimanere informati |
| 38:12 - 39:48 | Domande a raffica |
| 39:49 | Osservazioni conclusive |
Citazioni e approfondimenti di rilievo su IA e investimenti sostenibili
In questo episodio, Alex illustra le sfide principali che gli investitori trascurano quando si parla di IA, andando oltre i guadagni di produttività per esplorare i rischi multidimensionali, le pressioni economiche nascoste, i problemi radicati dei dati e il motivo per cui il settore è ancora lontano da qualcosa che assomigli all'intelligenza generale.
1. L'intelligenza artificiale introduce rischi multidimensionali
Alex spiega perché le aziende devono smettere di trattare l'IA come un unico rischio finanziario e iniziare a riconoscere le più ampie responsabilità sociali e culturali che essa crea.
"Il rischio più importante, dal punto di vista economico, è la FOMO. La paura di perdersi, di essere fuori dai giochi. Ma parlando in senso lato, l'azienda non è solo un'identità economica, è anche un agente sociale, un agente culturale. Dobbiamo aprire la nostra mente a nuove dimensioni. Non possiamo dire che abbiamo un solo rischio. Abbiamo un sacco di rischi multidimensionali che dobbiamo far rientrare nella responsabilità che ogni azienda ha nella società".
2. Il vero costo dell'IA non è ancora stato raggiunto
Alex spiega perché l'attuale tariffazione dell'IA non riflette i costi reali dell'energia e delle infrastrutture e come questa realtà potrebbe sconvolgere interi modelli di business.
"Il prezzo che paghiamo per queste macchine non è il vero costo di produzione. È una strategia di mercato. E quando i prezzi aumenteranno per riflettere il reale consumo di energia, alcuni modelli di business potrebbero non essere più sostenibili".
3. Il pregiudizio nell'IA parte dai dati
Alex sottolinea come la proprietà dei dati e gli incentivi influenzino le tendenze dell'IA, rendendo la provenienza dei dati una sfida fondamentale per qualsiasi organizzazione che adotta l'IA.
"È impossibile combattere i pregiudizi perché il problema non è l'IA, ma i dati. Chi genera i dati? Chi ha interessi economici nei dati? Il problema principale è che non sappiamo chi sta generando i dati e stiamo lottando per garantire che non ci siano pregiudizi."
4. L'intelligenza artificiale generalizzata è ancora un obiettivo lontano, ma propagandato
Alex si scaglia contro il clamore dell'Intelligenza Artificiale Generale (AGI), ricordandoci che senza una chiara comprensione della coscienza, l'idea di una "AI di livello umano" rimane molto lontana dalla nostra portata.
"Siamo abbastanza lontani da un'intelligenza artificiale generale. Di solito spiego questa idea con una delle capacità più distinguibili degli esseri umani: la coscienza. Quando chiedo a un pubblico di definire cos'è la coscienza, di solito ricevo tra le 15 e le 30 risposte diverse. Questa è solo una metafora per dire che non capiamo bene cosa sia la coscienza. Quindi, qualcuno può spiegarmi, come possiamo spiegare a una macchina di esibire questo punto di vista altamente intelligente? Credo che siamo molto, molto lontani dall'avere qualcosa che si avvicini all'intelligenza umana".









