Hören Sie auf Ihrem Lieblingsnetz
Im vergangenen Jahr haben mehr als 400 börsennotierte Unternehmen mit einem Wert von mehr als 1 Milliarde US-Dollar in ihren Berichten KI-bezogene Risiken offengelegt - ein Anstieg um 46 % gegenüber 2024. Gleichzeitig verbrauchten Rechenzentren in den Vereinigten Staaten im Jahr 2024 183 Terawattstunden (über 4 % des nationalen Stromverbrauchs) und werden sich bis 2030 voraussichtlich mehr als verdoppeln.
Diese Daten sind eine deutliche Mahnung für institutionelle Anleger und Vermögensverwalter: KI kann ein Werkzeug für Gewinne sein, aber sie ist auch ein systemischer Risikotreiber, der alles berührt, von der Energieversorgung und der Aufsicht über die Unternehmensführung bis hin zur ethischen Datenbeschaffung und der Tragfähigkeit von Geschäftsmodellen.
Treffen Sie die Experten

Lorenzo Saa
Verantwortlicher für Nachhaltigkeit
Clarity AI

Alex Rayón
CEO
Gehirn und Code
In dieser Folge von Sustainability Wired setzt sich Gastgeber Lorenzo Saa mit Alex Rayón, Chief Executive Officer von Brain & Code, zusammen, um die oft übersehenen Risiken zu erforschen, die mit dem schnellen Einsatz von KI einhergehen.
Während sich viele Gespräche in der Branche auf Produktivität, Automatisierung oder Effizienzgewinne konzentrieren, drängt uns Alex dazu, die Diskussion zu erweitern. KI, so argumentiert er, birgt wirtschaftliche, soziale, kulturelle und ethische Risiken, und Investoren können es sich nicht leisten, sie eindimensional zu behandeln.
Hören Sie sich jetzt das vollständige Gespräch an.
Schlüsselmomente
| 00:00 - 02:11 | Einführung |
| 02:12 - 05:13 | Wie Alex' KI-Reise begann und was sie mit Nachhaltigkeit zu tun hat |
| 05:14 - 08:21 | Die tatsächlichen geschäftlichen, individuellen und gesellschaftlichen Risiken der KI |
| 08:22 - 10:04 | Warum Cybersicherheit die neue Grenze ist |
| 10:05 - 12:20 | Urheberrecht, Dateneigentum und der Mythos der "Inspiration" |
| 12:21 - 14:35 | Erklärbarkeit vs. Vertrauen: Können wir noch nutzen, was wir nicht ganz verstehen? |
| 14:36 - 17:54 | Die Umweltkosten der KI und die Illusion von billigen Rechnern |
| 17:55 - 20:15 | Klügere Modelle, sauberere Daten und unternehmerische Verantwortung |
| 20:16 - 22:27 | Kann KI Vorurteile verringern oder verstärken? |
| 22:28 - 23:59 | Kulturelle blinde Flecken und die Dominanz westlicher Daten |
| 24:00 - 25:45 | Lagern wir unsere Intelligenz aus? Die Risiken der kognitiven Auslagerung |
| 25:46 - 27:46 | Die nächste Generation und der Wandel der Arbeitswelt |
| 27:47 - 29:51 | Machtkonzentration: Große Technologie, große Risiken |
| 29:52 - 31:36 | EU vs. US-Regulierung: Zwei Welten, eine Technologie |
| 31:37 - 34:36 | AGI und der Mythos des Maschinenbewusstseins |
| 34:37 - 36:47 | Die Nettoauswirkungen der KI: Positiv, aber nur, wenn sie uns ergänzt |
| 36:48 - 37:35 | Die Kunst der Nachhaltigkeit |
| 37:36 - 38:11 | Alex' letzte Botschaft: Engagieren Sie sich verantwortungsbewusst, bleiben Sie informiert |
| 38:12 - 39:48 | Fragen im Schnelldurchlauf |
| 39:49 | Schlussbemerkungen |
Bemerkenswerte Zitate und Einsichten zu AI und nachhaltigem Investieren
In dieser Folge legt Alex die zentralen Herausforderungen dar, die Investoren übersehen, wenn sie über KI sprechen. Dabei geht er über Produktivitätssteigerungen hinaus und untersucht mehrdimensionale Risiken, versteckte wirtschaftliche Zwänge, tief verwurzelte Datenprobleme und warum die Branche noch weit von einer allgemeinen Intelligenz entfernt ist.
1. KI führt zu mehrdimensionalen Risiken
Alex erklärt, warum Unternehmen aufhören müssen, KI als ein einziges finanzielles Risiko zu betrachten, und anfangen müssen, die umfassendere soziale und kulturelle Verantwortung anzuerkennen, die sie mit sich bringt.
"Das wichtigste Risiko auf der wirtschaftlichen Seite eines Unternehmens ist die FOMO. Die Angst, etwas zu verpassen, aus dem Spiel zu sein. Aber ganz allgemein gesprochen ist das Unternehmen nicht nur eine wirtschaftliche Identität, sondern auch ein sozialer und kultureller Akteur. Wir müssen unseren Geist für neue Dimensionen öffnen. Wir können nicht sagen, dass wir nur ein Risiko haben. Es gibt viele mehrdimensionale Risiken, die wir in die Verantwortung, die jedes Unternehmen in der Gesellschaft hat, einbeziehen müssen.
2. Die wahren Kosten der KI sind noch nicht bekannt
Alex erläutert, warum die heutige Preisgestaltung für KI nicht die wahren Energie- und Infrastrukturkosten widerspiegelt und wie diese Tatsache ganze Geschäftsmodelle auf den Kopf stellen könnte.
"Der Preis, den wir für diese Maschinen zahlen, entspricht nicht den tatsächlichen Produktionskosten. Es ist eine Vermarktungsstrategie. Und wenn die Preise steigen, um den tatsächlichen Energieverbrauch widerzuspiegeln, sind einige Geschäftsmodelle möglicherweise nicht mehr tragfähig.
3. Voreingenommenheit in der KI fängt bei den Daten an
Alex hebt hervor, wie Dateneigentum und Anreize die Vorurteile gegenüber KI beeinflussen, was die Datenprovenienz zu einer grundlegenden Herausforderung für jedes Unternehmen macht, das KI einsetzt.
"Es ist unmöglich, die Vorurteile zu bekämpfen, denn das Problem liegt nicht bei der KI, sondern bei den Daten. Wer generiert die Daten? Wer hat ein wirtschaftliches Interesse an den Daten? Das eigentliche Problem besteht darin, dass wir nicht wissen, wer die Daten generiert und dafür kämpfen, dass sie nicht voreingenommen sind."
4. Allgemeine künstliche Intelligenz ist noch ein weit entferntes, aber hochgejubeltes Ziel
Alex wehrt sich gegen den Hype um künstliche allgemeine Intelligenz (AGI) und erinnert uns daran, dass ohne ein klares Verständnis des Bewusstseins die Idee einer "KI auf menschlichem Niveau" weit außerhalb der Reichweite liegt.
"Wir sind ziemlich weit von einer allgemeinen künstlichen Intelligenz entfernt. Ich erkläre diese Idee gewöhnlich mit einer der am meisten unterscheidbaren Fähigkeiten des Menschen: dem Bewusstsein. Wenn ich ein Publikum bitte, zu definieren, was Bewusstsein ist, erhalte ich normalerweise zwischen 15 und 30 verschiedene Antworten. Das ist nur eine Metapher, um zu sagen, dass wir nicht wirklich verstehen, was Bewusstsein ist. Kann mir jemand erklären, wie wir einer Maschine erklären können, dass sie diese hochintelligente Sichtweise hat? Ich denke, dass wir sehr, sehr weit davon entfernt sind, unsere menschliche Intelligenz auch nur annähernd zu imitieren."









