Amerikanische Tech-Unternehmen investieren Milliarden in künstliche Intelligenz. Damit schaffen sie ein Stromproblem


Immer mehr und immer bessere künstliche Intelligenz (KI), dieses Ziel verfolgen die grossen Tech-Unternehmen der USA. Der Reihe nach kündigten Open AI, Amazon, Meta in den vergangenen Wochen Milliardeninvestitionen in KI an. Sogar Donald Trump sprach gleich an seinem zweiten Tag im Amt über das Thema. Ein grosser Teil dieses Geldes soll in die Infrastruktur fliessen, die das Rückgrat der KI bildet: die Rechenzentren.
NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.
Bitte passen Sie die Einstellungen an.
100 Milliarden Dollar sollen in das Projekt «Stargate» von Open AI und Microsoft fliessen, Alphabet plant, dieses Jahr 75 Milliarden in die Entwicklung von KI zu investieren, Amazon lässt sich die Investition in Infrastruktur 86 Milliarden kosten, Meta 65 Milliarden. Auch in Europa und vor allem in Frankreich sollen neue Rechenzentren gebaut werden. Der französische Präsident Emmanuel Macron kündigt an einem KI-Gipfel in Paris Investitionen in Höhe von 109 Milliarden Euro an. Der Energiebedarf wird mit dem Ausbau der KI-Infrastruktur steigen, um wie viel, ist strittig.
In den USA stehen dabei weit mehr Rechenzentren als in Europa. Dort trainieren und betreiben hochspezialisierte Chips rund um die Uhr KI-Modelle. Diese Rechenzentren verbrauchen sehr viel Strom. Im Gliedstaat Virginia verantworten Rechenzentren bereits ein Viertel des gesamten Strombedarfs. Doch wo soll diese Energie möglichst umweltfreundlich und verlässlich herkommen?
Künstliche Intelligenz lässt den Energiebedarf steigenKI verbraucht mehrmals Strom: grosse Mengen, wenn das KI-Modell trainiert wird. Und jedes Mal wieder, wenn ein Nutzer eine Anfrage an das Modell stellt. Je nachdem, ob Text, Bilder oder Videos erstellt werden sollen, verbraucht jede Anfrage an einen Chatbot wie Chat-GPT zehn bis dreissig Mal so viel Energie wie eine Online-Suche per Suchmaschine.
Die Computerchips, die zum Training und zur Verwendung von KI benötigt werden, sind darüber hinaus auch noch grössere Stromfresser als klassische Chips, die man zum Beispiel für Cloud-Anwendungen braucht. Denn um ein KI-Modell zu trainieren oder eine Abfrage abzuwickeln, muss ein Chip vor allem rechnen, nicht nur Informationen speichern. Das erzeugt zusätzlich auch noch Hitze. Deshalb müssen die Rechenzentren speziell gekühlt werden. Gerade in heissen Regionen wie Texas oder Arizona benötigt das viel zusätzlichen Strom.
Das schlägt sich auch in den Projektionen für den zukünftigen Energieverbrauch von Rechenzentren nieder. Eine Studie des Beratungsunternehmens McKinsey schätzt ihn in den USA im Jahr 2030 auf 80 Gigawatt. Vergangenes Jahr lag dieser Wert noch bei 25 Gigawatt. Auch die Boston Consulting Group (BCG) rechnet mit einer Verdreifachung des Energiebedarfs. Dass KI immer effizienter werde, sei in die Kalkulation mit eingepreist, vermeldete BCG. Nicht nur in den USA werden Rechenzentren gebaut, weltweit investieren Staaten und Unternehmen in den Ausbau. Das Beratungsunternehmen Bain schreibt, dass sich der Energieverbrauch von Rechenzentren weltweit von 2019 bis 2023 um 72 Prozent erhöht habe und sich bis 2027 noch einmal verdoppeln dürfte.
Heute verantworten Rechenzentren ein Prozent des weltweiten Energiebedarfs. Wenn die Schätzungen stimmen, würden Rechenzentren im Jahr 2027 volle 2,6 Prozent des weltweiten Energiebedarfs ausmachen. Das mag noch immer ein kleiner Anteil sein, doch der rapide Anstieg verdeutlicht den Bedarf an verlässlichen Energiequellen.
Grundsätzlich sind Chips in den vergangenen Jahren immer effizienter geworden. Doch gerade bei KI-Chips geht der Trend in Richtung mehr Stromverbrauch. Nvidias neuster Blackwell-Chip wird 15 Kilowatt Energie brauchen. Füllt man ein ganzes Rechenzentrum mit solchen Chips, verschlingt es locker so viel Energie wie eine mittelgrosse Stadt. Babak Falsafi ist Professor an der EPFL und befasst sich mit der Effizienz von Rechenzentren. Er sagt: «Bei den Chips, die speziell für KI entwickelt werden, verdoppelt sich der Energieverbrauch mit jeder neuen Generation.»
Bereits vor einem Jahr warnte Sam Altman, CEO von Open AI, davor, dass ein Energieengpass die Entwicklung der KI gefährde.
Bessere Chips können KI effizienter werden lassenDer Erfolg der KI des chinesischen Startups Deepseek liess Zweifel an der Annahme aufkommen, dass KI wirklich immer mehr Rechenkapazität braucht. Laut dem Unternehmen hat Deepseek seinen Chatbot mit weniger und leistungsschwächeren Chips trainiert und erreichte trotzdem ähnliche Leistungen wie das Spitzenmodell von Open AI. In einem Forschungspapier erklärt Deepseek, mit welchen Techniken sie effizientere KI erreicht haben. Andere KI-Entwickler können diese Innovationen für ihre eigenen Modelle übernehmen.
Wenn Rechenleistung eingespart werden kann, verbrauchen die Rechenzentren auch weniger Strom. Auch Babak Falsafi sagt: «Verbesserungen der Algorithmen könnten diese effizienter machen und so Energie sparen.»
Tatsächlich senken Algorithmen, die KI effizienter trainieren, nicht unbedingt den Energiebedarf, der für KI-Anwendungen insgesamt benötigt wird. Sie machen die KI günstiger und damit attraktiver für Anwender. Wenn mehr Menschen und Unternehmen KI verwenden, steigt der Stromverbrauch wieder. Die Kosten und der Energiebedarf verschieben sich dann nur vom Training zur Anwendung.
Die Tech-Konzerne investiert in neue EnergietechnologieDeshalb setzt Microsoft auf Kernenergie und finanziert die Wiederinbetriebnahme des Kernkraftwerks Three Mile Island, das 2019 stillgelegt wurde. Das Kraftwerk war nicht mehr rentabel. Amazon und Google kündigten im Herbst hohe Investition in sogenannte «Small Modular Reactors» an. Diese kleinen, modularen Atomkraftwerke erbringen bis zu 300 Megawatt Leistung und können Rechenzentren direkt mit Strom speisen. Noch ist in den USA keines dieser Mini-AKW am Netz oder auch schon nahe einer Inbetriebnahme.
Sam Altman selbst setzt auf Startups wie Oklo, das kleine Kernreaktoren entwickelt, die mit Atommüll als Brennstoff betrieben werden. Er investiert auch in Helion, ein Unternehmen, das sich auf Kernfusion spezialisiert hat. Hunderte Millionen von Dollars lässt sich Altman die Energiewetten kosten, in der Hoffnung auf einen Durchbruch.
Dieser Durchbruch lässt aber noch auf sich warten. Bis neue Arten der Energieproduktion genügend Strom zur Verfügung stellen, könnten Jahre bis Jahrzehnte vergehen. Bis dahin werden die Rechenzentren vielfach mit Energie aus fossilen Brennstoffen angetrieben. Denn der KI-Hype verbraucht den Strom heute.
nzz.ch