Moderner Serverraum eines Rechenzentrums im Innenbereich. Verbindung und Cybernetzwerk in dunklen Servern. Backup, Mining, Hosting, Mainframe, Farm, Cloud und Computerrack mit gespeicherten Informationen. 3D-Rendering | Bildnachweis: Mikhail Konoplev / Getty Images Für den Betrieb eines AI-Produkts ist enorm viel Rechenleistung erforderlich – und während die Technologiebranche sich eilig bemüht, das Potenzial von KI-Modellen zu erschließen, läuft parallel ein Wettlauf um den Aufbau der dafür notwendigen Infrastruktur. In einem aktuellen Earnings Call schätzte Nvidia-CEO Jensen Huang, dass bis Ende des Jahrzehnts zwischen 3 und 4 Billionen Dollar für KI-Infrastruktur ausgegeben werden – ein Großteil dieses Geldes stammt von KI-Unternehmen selbst. Dabei belasten sie die Stromnetze enorm und bringen die Baukapazitäten der Branche an ihre Grenzen.
Im Folgenden haben wir alles zusammengetragen, was wir über die größten KI-Infrastrukturprojekte wissen, einschließlich der bedeutenden Investitionen durch Meta, Oracle, Microsoft, Google und OpenAI. Wir halten diese Übersicht auf dem neuesten Stand, während der Boom weiter anhält und die Zahlen immer höher steigen.
Dies ist vermutlich der Deal, der den aktuellen KI-Boom ausgelöst hat: 2019 investierte Microsoft 1 Milliarde US-Dollar in eine viel beachtete Non-Profit-Organisation namens OpenAI, die vor allem durch ihre Verbindung zu Elon Musk bekannt war. Entscheidend war, dass Microsoft durch diese Vereinbarung exklusiver Cloud-Provider für OpenAI wurde – und als die Anforderungen an das Training der Modelle stiegen, floss ein immer größerer Teil von Microsofts Investition in Form von Azure-Cloud-Guthaben statt Bargeld.
Für beide Seiten war es ein großartiger Deal: Microsoft konnte mehr Azure-Umsätze verbuchen, und OpenAI erhielt mehr Mittel für seine größte Einzelkostenstelle. In den darauffolgenden Jahren baute Microsoft seine Investition auf fast 14 Milliarden Dollar aus – eine Maßnahme, die sich enorm auszahlen dürfte, wenn OpenAI in ein gewinnorientiertes Unternehmen umgewandelt wird.
Die Partnerschaft der beiden Unternehmen hat sich in letzter Zeit gelockert. Im vergangenen Jahr kündigte OpenAI an, Microsofts Cloud nicht mehr exklusiv zu nutzen, sondern dem Unternehmen ein Erstzugriffsrecht auf künftige Infrastrukturbedarfe einzuräumen, aber auch andere Optionen zu verfolgen, falls Azure die Anforderungen nicht erfüllen kann. Microsoft hat zudem begonnen, andere Foundation-Modelle für seine KI-Produkte zu evaluieren und sich dadurch noch unabhängiger von OpenAI zu machen.
Das Modell von OpenAI und Microsoft war so erfolgreich, dass es mittlerweile gängige Praxis ist, dass KI-Dienstleister sich an einen bestimmten Cloud-Anbieter binden. Anthropic erhielt 8 Milliarden Dollar von Amazon und nahm Kernel-Modifikationen an der Hardware des Unternehmens vor, um diese besser fürs KI-Training zu optimieren. Google Cloud konnte kleinere KI-Unternehmen wie Lovable und Windsurf als „Primary Computing Partners“ gewinnen, auch wenn diese Deals keine Investitionen beinhalteten. Und selbst OpenAI kehrte zurück und erhielt im September eine 100-Milliarden-Dollar-Investition von Nvidia, um noch mehr GPUs des Unternehmens kaufen zu können.
Am 30. Juni 2025 gab Oracle in einer SEC-Meldung bekannt, einen Cloud-Service-Vertrag in Höhe von 30 Milliarden Dollar mit einem nicht genannten Partner abgeschlossen zu haben; das übertraf die gesamten Cloud-Umsätze des Unternehmens im vorangegangenen Geschäftsjahr. Letztlich wurde OpenAI als Partner bestätigt, wodurch Oracle neben Google zu einem der Hosting-Partner von OpenAI nach Microsoft aufstieg. Wenig überraschend schoss der Aktienkurs des Unternehmens in die Höhe.
Wenige Monate später geschah es erneut. Am 10. September verkündete Oracle einen fünfjährigen Vertrag im Wert von 300 Milliarden Dollar für Rechenleistung, der 2027 beginnen soll. Oracles Aktie stieg noch weiter, was den Gründer Larry Ellison kurzzeitig zum reichsten Mann der Welt machte. Die schiere Größenordnung dieses Deals ist erstaunlich: OpenAI verfügt gar nicht über 300 Milliarden Dollar, sodass diese Summe auf enormes Wachstum beider Unternehmen und viel Vertrauen setzt.
Doch bevor auch nur ein Dollar ausgegeben wurde, hat dieser Deal Oracle bereits als einen der führenden KI-Infrastruktur-Anbieter und als finanzielle Macht etabliert, mit der zu rechnen ist.
Während KI-Labore fieberhaft an ihrer Infrastruktur bauen, kaufen sie vor allem GPUs von einem Unternehmen: Nvidia. Dieses Geschäft hat Nvidia mit Geld überhäuft – und das Unternehmen investiert diese Mittel immer unkonventioneller zurück in die Branche. Im September 2025 erwarb Nvidia einen 4%-Anteil am Rivalen Intel für 5 Milliarden Dollar – doch noch überraschender waren die Deals mit den eigenen Kunden. Eine Woche nach dem Intel-Deal verkündete Nvidia eine 100-Milliarden-Dollar-Investition in OpenAI, bezahlt in Form von GPUs, die in OpenAIs laufenden Rechenzentrumsprojekten eingesetzt werden sollen. Inzwischen kündigte Nvidia einen ähnlichen Deal mit Elon Musks xAI an, und OpenAI startete ein separates GPU-gegen-Aktien-Abkommen mit AMD.
Falls das zirkulär klingt, liegt das daran, dass es das ist. Nvidias GPUs sind so wertvoll, weil sie so rar sind – und indem Nvidia sie direkt in ein stetig wachsendes Rechenzentrumssystem einbringt, sorgt das Unternehmen dafür, dass das so bleibt. Gleiches gilt für OpenAIs nicht börsennotierte Aktien, deren Wert ebenfalls durch ihre Unerreichbarkeit auf öffentlichen Märkten steigt. Noch reiten OpenAI und Nvidia auf der Erfolgswelle und niemand scheint sich zu sorgen – doch sollte das Momentum nachlassen, wird dieses Konstrukt deutlich stärker hinterfragt werden.
Für Unternehmen wie Meta, die bereits über umfangreiche Legacy-Infrastruktur verfügen, ist die Geschichte komplexer – und mindestens genauso teuer. Meta-CEO Mark Zuckerberg erklärte, dass das Unternehmen plant, bis Ende 2028 600 Milliarden Dollar in US-Infrastruktur zu investieren.
In der ersten Hälfte von 2025 gab Meta 30 Milliarden Dollar mehr als im Vorjahr aus – angetrieben vor allem von den wachsenden KI-Ambitionen des Unternehmens. Ein Teil dieser Ausgaben fließt in große Cloud-Verträge, etwa einen aktuellen 10-Milliarden-Deal mit Google Cloud, aber noch mehr Ressourcen werden in zwei riesige neue Rechenzentren investiert.
Ein neues, 2.250 Hektar großes Gelände in Louisiana, genannt Hyperion, wird schätzungsweise 10 Milliarden Dollar kosten und voraussichtlich 5 Gigawatt Rechenleistung bereitstellen. Bemerkenswert: Der Standort beinhaltet eine Vereinbarung mit einem lokalen Atomkraftwerk zur Versorgung des erhöhten Energiebedarfs. Ein kleineres Gelände in Ohio, Prometheus genannt, soll 2026 ans Netz gehen und wird mit Erdgas betrieben.
Ein solcher Ausbau bringt erhebliche Umweltbelastungen mit sich. Elon Musks xAI errichtete ein eigenes hybrides Rechenzentrum samt Kraftwerk in South Memphis, Tennessee. Die Anlage wurde rasch zu einem der größten Emittenten von Smog verursachenden Chemikalien im Bezirk, vor allem durch eine Reihe von Gasturbinen, die laut Experten gegen den Clean Air Act verstoßen.
Nur zwei Tage nach seiner zweiten Amtseinführung im Januar kündigte Präsident Trump ein Joint Venture zwischen SoftBank, OpenAI und Oracle an, das 500 Milliarden Dollar in den Bau von KI-Infrastruktur in den USA investieren soll. Das Projekt, benannt nach dem Film „Stargate“ von 1994, wurde mit enormem Hype vorgestellt – Trump nannte es „das größte KI-Infrastrukturprojekt der Geschichte“. Auch OpenAIs Sam Altman stimmte zu: „Ich glaube, das wird das wichtigste Projekt dieser Ära.“
In groben Zügen stellte sich SoftBank als Geldgeber vor, Oracle sollte den Bau übernehmen und OpenAI mit einbeziehen. Alles sollte von Trump beaufsichtigt werden, der versprach, regulatorische Hürden aus dem Weg zu räumen. Doch es gab von Anfang an Zweifel, etwa von Elon Musk, Altmans Geschäftsrivale, der behauptete, das Projekt verfüge nicht über ausreichend Mittel.
Mit nachlassendem Hype hat das Projekt an Schwung verloren. Im August berichtete Bloomberg, dass die Partner keine Einigung erzielen konnten. Dennoch schreitet das Projekt mit dem Bau von acht Rechenzentren in Abilene, Texas voran; der Bau des letzten Gebäudes soll bis Ende 2026 abgeschlossen sein.
„Investitionen in Sachanlagen“ sind meist eine ziemlich trockene Kennzahl und beziehen sich auf die Ausgaben eines Unternehmens für physische Vermögenswerte. Doch als Tech-Unternehmen ihre Capex-Pläne für 2026 vorstellten, wurden die Zahlen durch den Run auf Rechenzentren deutlich spannender – und viel größer.
Amazon war führend bei den Capex, mit geplanten Ausgaben von 200 Milliarden Dollar im Jahr 2026 (nach 131 Milliarden in 2025), während Google mit einer Schätzung zwischen 175 und 185 Milliarden Dollar (nach 91 Milliarden in 2025) auf Platz zwei folgt. Meta schätzte 115 bis 135 Milliarden Dollar (nach 71 Milliarden im Vorjahr), wobei diese Zahl etwas trügerisch ist, weil viele der Rechenzentrumsprojekte gar nicht bilanziert werden. Insgesamt planen die Hyperscaler, 2026 fast 700 Milliarden Dollar allein in Rechenzentren zu investieren.
Das war genug Geld, um manche Investoren zu verschrecken. Die Unternehmen ließen sich davon aber kaum beeindrucken und erklärten, dass KI-Infrastruktur für die Zukunft ihrer Firmen unerlässlich sei. Das sorgt für eine merkwürdige Dynamik: Wie zu erwarten, sind Tech-CEOs deutlich optimistischer für KI als ihre Wall-Street-Gegenüber – und je mehr Tech-Unternehmen investieren, desto nervöser werden ihre Banker. Hinzu kommen riesige Schuldenmengen, die viele Unternehmen zur Finanzierung dieser Ausbauten aufnehmen, was CFOs im gesamten Silicon Valley die Zähne knirschen lässt.
Noch hat das den KI-Investitionsboom nicht gebremst – aber das könnte bald passieren, es sei denn, die Hyperscaler können zeigen, dass sich diese Investitionen auszahlen.
Dieser Artikel wurde zuerst am 22. September veröffentlicht.