Mi.. Sep. 24th, 2025
Die wachsende Bedeutung von Rechenzentren im Zeitalter der KI

Das Ausmaß ist überwältigend. Prognosen deuten darauf hin, dass zwischen heute und 2029 weltweit etwa 3 Billionen Dollar in Rechenzentren investiert werden, die künstliche Intelligenz unterstützen.

Diese Schätzung von Morgan Stanley präzisiert weiter, dass etwa die Hälfte dieses Kapitals für Baukosten aufgewendet wird, während der verbleibende Teil für die High-End-Hardware bestimmt ist, die für die KI-Revolution unerlässlich ist.

Um diese Zahl zu kontextualisieren, entspricht sie ungefähr der gesamten Wirtschaftsleistung Frankreichs im Jahr 2024.

Im Vereinigten Königreich wird erwartet, dass in den kommenden Jahren zusätzlich 100 Rechenzentren gebaut werden, um der wachsenden Nachfrage nach KI-Verarbeitungskapazitäten gerecht zu werden.

Bemerkenswerterweise werden einige dieser Einrichtungen für Microsoft entwickelt, das kürzlich eine Investition von 30 Milliarden Dollar in die KI-Infrastruktur des Vereinigten Königreichs angekündigt hat.

Dies wirft die Frage auf: Was unterscheidet diese KI-zentrierten Rechenzentren von herkömmlichen Einrichtungen, die Computer-Server beherbergen, die alltägliche Aktivitäten wie das Speichern persönlicher Fotos, die Verwaltung von Social-Media-Konten und das Ausführen von Geschäftsanwendungen unterstützen?

Darüber hinaus, ist diese erhebliche Investition gerechtfertigt?

Rechenzentren expandieren seit Jahren in ihrer Größe. Der Begriff „Hyperscale“ wurde eingeführt, um Standorte zu kategorisieren, die Dutzende Megawatt Leistung benötigen, was inzwischen von „Gigawatt“ übertroffen wurde, was einer tausendmal größeren Kapazität entspricht.

KI hat diesen Trend jedoch dramatisch beschleunigt. Die meisten KI-Modelle stützen sich auf spezielle Computerchips von Nvidia, um komplexe Aufgaben auszuführen.

Diese Nvidia-Chips sind in großen Schränken untergebracht, die jeweils etwa 4 Millionen Dollar kosten, und sind entscheidend für das Verständnis der einzigartigen Eigenschaften von KI-Rechenzentren.

Große Sprachmodelle (LLMs), die zum Trainieren von KI-Software verwendet werden, erfordern das Aufschlüsseln von Sprache in kleinste Bedeutungskomponenten. Dies erfordert ein Netzwerk von Computern, die zusammen und in unmittelbarer physischer Nähe arbeiten.

Nähe ist entscheidend, da jeder Meter, der zwei Chips trennt, eine Nanosekunde – eine Milliardstel Sekunde – zur Verarbeitungszeit hinzufügt.

Obwohl scheinbar unbedeutend, summieren sich diese Verzögerungen in einem Lagerhaus voller Computer und verringern die Gesamtleistung, die für KI-Anwendungen unerlässlich ist.

KI-Verarbeitungsschränke sind eng gepackt, um die Latenz zu minimieren und die Parallelverarbeitung zu ermöglichen, wodurch das System als einheitlicher Hochleistungscomputer fungieren kann. Diese Betonung der Dichte ist ein Schlüsselfaktor im Design von KI-Rechenzentren.

Diese Dichte mildert Verarbeitungsengpässe, die in herkömmlichen Rechenzentren auftreten, in denen die Prozessoren mehrere Meter voneinander entfernt sind.

Diese dichten Schrankanordnungen verbrauchen jedoch erhebliche Mengen an Strom, wobei das LLM-Training zu erheblichen Strombedarfsspitzen führt.

Diese Spitzen sind vergleichbar mit Tausenden von Haushalten, die gleichzeitig alle paar Sekunden Wasserkocher ein- und ausschalten.

Solch ein schwankender Bedarf erfordert eine sorgfältige Steuerung des lokalen Stromnetzes.

Daniel Bizo, ein Analyst bei The Uptime Institute, einem Ingenieurbüro für Rechenzentren, untersucht Rechenzentren beruflich.

„Im Vergleich zur konstanten Last von Standard-Rechenzentren stellen die Energieanforderungen von KI-Workloads eine einzigartige Belastung für das Netz dar.“

Herr Bizo beschreibt diese plötzlichen KI-Spitzen als ein singuläres Problem, ähnlich dem synchronisierten Wasserkocher-Beispiel.

„Das Ausmaß des Workloads ist beispiellos“, sagt Herr Bizo. „Die Bewältigung dieser extremen technischen Herausforderung ist vergleichbar mit dem Apollo-Programm.“

Rechenzentrumsbetreiber erforschen verschiedene Lösungen, um energiebezogene Herausforderungen zu mindern.

Im Gespräch mit der BBC Anfang dieses Monats schlug Nvidia-CEO Jensen Huang vor, mehr netzunabhängige Gasturbinen im Vereinigten Königreich einzusetzen, um das öffentliche Netz zu entlasten.

Er merkte auch an, dass KI selbst das Design von Gasturbinen, Solarmodulen, Windturbinen und Fusionsenergiesystemen optimieren und eine kostengünstigere nachhaltige Energieerzeugung fördern könnte.

Microsoft investiert stark in Energieprojekte, einschließlich einer Zusammenarbeit mit Constellation Energy, um die Kernenergieerzeugung bei Three Mile Island wieder einzuführen.

Alphabet’s Google investiert ebenfalls in Kernenergie im Rahmen seines Ziels, bis 2030 mit kohlenstofffreier Energie zu arbeiten.

Inzwischen behauptet Amazon Web Services (AWS), dass es bereits der größte Unternehmensabnehmer von erneuerbarer Energie weltweit ist.

Die Rechenzentrumsbranche ist sich der behördlichen Kontrolle hinsichtlich der potenziellen Auswirkungen von KI-Einrichtungen auf die lokale Infrastruktur und die Umwelt, insbesondere in Bezug auf den hohen Energieverbrauch, bewusst.

Ein weiteres Umweltproblem ist die erhebliche Wasserversorgung, die zum Kühlen der Hochleistungs-Chips erforderlich ist.

In Virginia, einem US-Bundesstaat mit einer wachsenden Konzentration von Rechenzentren, die große Technologieunternehmen wie Amazon und Google bedienen, wird eine Gesetzgebung in Betracht gezogen, die die Genehmigung neuer Standorte an den Wasserverbrauch koppelt.

Im Vereinigten Königreich ist eine geplante KI-Einrichtung in Nord-Lincolnshire auf Einwände von Anglian Water, dem regionalen Wasserversorger, gestoßen.

Anglian Water betont, dass es nicht verpflichtet ist, Wasser für nicht-häusliche Zwecke bereitzustellen, und schlägt vor, recyceltes Wasser aus der Abwasserbehandlung anstelle von Trinkwasser als Kühlmittel zu verwenden.

Angesichts dieser praktischen Herausforderungen und erheblichen Kosten, ist die KI-Rechenzentrumsbewegung eine potenzielle Blase?

Während einer kürzlich stattgefundenen Rechenzentrumskonferenz verwendete ein Sprecher den Begriff „Bragawatts“, um die übertriebenen Behauptungen der Branche in Bezug auf die Größe der vorgeschlagenen KI-Standorte zu beschreiben.

Zahl Limbuwala, ein Rechenzentrumsspezialist beim Technologie-Investmentunternehmen DTCP, räumt ein, dass es erhebliche Fragen zur langfristigen Tragfähigkeit der KI-Rechenzentrumsausgaben gibt.

„Die aktuelle Entwicklung scheint nicht nachhaltig zu sein. Es wurde viel übertrieben. Investitionen müssen jedoch Renditen generieren, oder der Markt wird sich selbst korrigieren.“

Trotz dieser Vorbehalte ist er der Ansicht, dass KI in Anlagestrategien besondere Berücksichtigung verdient. „KI wird einen größeren Einfluss haben als frühere Technologien, einschließlich des Internets. Daher ist es denkbar, dass wir all diese Gigawatt benötigen werden.“

Er merkt an, dass KI-Rechenzentren, Hyperbel beiseite, „die Immobilien der Technologiebranche sind“. Im Gegensatz zu spekulativen Technologieblasen wie dem Dotcom-Boom der 1990er Jahre stellen KI-Rechenzentren materielle Vermögenswerte dar. Dennoch ist die aktuelle Ausgabenwelle wahrscheinlich nicht von Dauer.

Die neue Stelle wird sich auf die Entwicklung und Regulierung von künstlicher Intelligenz auf der Insel konzentrieren.

Nvidia sagt, es wird Hochleistungs-Chips liefern, die für die Rechenzentren von OpenAI benötigt werden.

Stockton testet KI in Bereichen wie Betrugserkennung und Prognose des Bedarfs an sozialer Betreuung.

Die Einführung ist Teil einer Partnerschaft zwischen der Institution und OpenAI, die ChatGPT entwickelt.

Die Arbeiten sollen im Dezember beginnen, da ein britisches Technologieunternehmen „2 GW Supercomputing-Kapazität“ schaffen will.

Von ProfNews