Modern interior server room data center. Connection and cyber network in dark servers. Backup, mining, hosting, mainframe, farm, cloud and computer rack with storage information. 3D rendering | Image Credits:Mikhail Konoplev / Getty Images Nangangailangan ng malakas na computing power upang patakbuhin ang isang produkto ng AI — at habang ang industriya ng teknolohiya ay nagmamadaling samantalahin ang lakas ng AI models, may kasabay na karera upang itayo ang imprastrakturang magpapagana sa mga ito. Sa isang kamakailang earnings call, tinatayang ni Nvidia CEO Jensen Huang na aabot sa pagitan ng $3 trilyon at $4 trilyon ang gagastusin sa AI infrastructure bago matapos ang dekada — at karamihan sa perang ito ay magmumula sa mga kumpanya ng AI. Sa proseso, nagdudulot sila ng matinding pressure sa mga power grid at itinutulak ang kakayahan ng industriya sa hangganan nito.
Sa ibaba, inilatag namin ang lahat ng alam namin tungkol sa pinakamalalaking proyekto ng AI infrastructure, kabilang ang malalaking paggasta mula sa Meta, Oracle, Microsoft, Google, at OpenAI. Patuloy naming ia-update ito habang nagpapatuloy ang boom at lalo pang tumataas ang mga numero.
Ito marahil ang kasunduang nagsimula ng kasalukuyang AI boom: Noong 2019, nag-invest ang Microsoft ng $1 bilyon sa isang sikat na non-profit na tinatawag na OpenAI, na kilala lalo na dahil sa kaugnayan nito kay Elon Musk. Mahalaga, ginawa ng kasunduan ang Microsoft bilang natatanging cloud provider ng OpenAI — at habang tumindi ang pangangailangan sa model training, mas marami sa pamumuhunan ng Microsoft ay nagsimulang dumating sa anyo ng Azure cloud credit sa halip na cash.
Magandang deal ito para sa parehong panig: Nakapag-claim ang Microsoft ng mas maraming Azure sales, at nakakuha ng mas maraming pondo ang OpenAI para sa pinakamalaking gastusin nito. Sa mga sumunod na taon, pinalaki ng Microsoft ang pamumuhunan nito hanggang halos $14 bilyon — isang hakbang na makikinabang nang malaki kapag naging for-profit na kumpanya ang OpenAI.
Ngunit kamakailan ay lumuwag na ang partnership ng dalawang kumpanya. Noong nakaraang taon, inanunsyo ng OpenAI na hindi na nito eksklusibong gagamitin ang cloud ng Microsoft, sa halip ay bibigyan ang kumpanya ng right of first refusal sa mga susunod na infrastructure demand ngunit maghahanap ng iba kapag hindi natugunan ng Azure ang kanilang pangangailangan. Sinimulan na rin ng Microsoft na tuklasin ang iba pang foundation models para sa AI products nito, na nagtatatag ng mas malayang operasyon mula sa higanteng AI na ito.
Napakasuccessful ng arrangement ng OpenAI at Microsoft kaya naging karaniwang gawi na sa AI services ang pumirma sa isang partikular na cloud provider. Nakakuha ng $8 bilyon na pamumuhunan ang Anthropic mula sa Amazon, habang gumagawa ng kernel-level modifications sa hardware ng kumpanya upang mas bagay sa AI training. Ang Google Cloud naman ay pumirma na rin sa mas maliliit na AI companies tulad ng Lovable at Windsurf bilang “primary computing partners,” kahit walang investment na kasama sa mga deal na iyon. At maging ang OpenAI ay bumalik na rin sa ganitong paraan, nakatanggap ng $100 bilyon na pamumuhunan mula sa Nvidia noong Setyembre, na nagbibigay dito ng kapasidad na bumili ng mas marami pang GPUs ng kumpanya.
Noong Hunyo 30, 2025, isiniwalat ng Oracle sa isang SEC filing na pumirma ito sa isang $30 bilyong kasunduan sa cloud services sa isang hindi pinangalanang partner; mas malaki ito kaysa sa cloud revenues ng kumpanya sa buong nakaraang fiscal year. Kinalaunan ay nalaman na ang partner ay ang OpenAI, na nagbigay sa Oracle ng pwesto katabi ng Google bilang isa sa mga post-Microsoft hosting partners ng OpenAI. Hindi nakapagtataka, mabilis na tumaas ang stock ng kumpanya.
Ilang buwan ang lumipas, nangyari ulit ito. Noong Setyembre 10, ibinunyag ng Oracle ang isang limang-taon, $300 bilyong kasunduan para sa compute power, na magsisimula sa 2027. Ang stock ng Oracle ay mas lalo pang tumaas, pansamantalang ginawang pinakamayamang tao sa mundo si founder Larry Ellison. Nakakagulat ang laki ng deal: wala pang $300 bilyon na magagastos ang OpenAI, kaya inaasahan dito ang napakalaking paglago ng parehong kumpanya, at kaakibat nito ang malalim na tiwala.
Ngunit bago pa man magalaw ang isang dolyar, naitakda na ng kasunduang ito ang Oracle bilang isa sa mga pangunahing AI infrastructure providers — at isang pwersa sa larangan ng pananalapi na dapat isaalang-alang.
Habang nag-uunahang magtayo ng infrastructure ang mga AI lab, halos mula sa isang kumpanya lang sila bumibili ng GPUs: Nvidia. Dahil dito, napakaliquid ng Nvidia — at ibinabalik nito ang pera sa industriya sa mas kakaibang paraan. Noong Setyembre 2025, binili ng Nvidia ang 4% stake sa karibal na Intel sa halagang $5 bilyon — pero mas nakakagulat pa ang mga deal sa sarili nitong mga customer. Isang linggo matapos ihayag ang deal sa Intel, inanunsyo ng kumpanya ang $100 bilyong pamumuhunan sa OpenAI, na binayaran gamit ang GPUs na gagamitin sa mga isinasagawa nitong data center projects. Mula noon, inanunsyo na rin ng Nvidia ang katulad na kasunduan sa xAI ni Elon Musk, at inilunsad ng OpenAI ang hiwalay na GPU-for-stock arrangement kasama ang AMD.
Kung tila paikot-ikot ito, dahil talaga ganoon. Mahalaga ang GPUs ng Nvidia dahil kakaunti lang — at sa pamamagitan ng direktang pagpapalit ng mga ito sa isang patuloy na lumalaking data center scheme, sinisigurado ng Nvidia na mananatiling mahalaga ang mga ito. Maaari ring sabihin ang parehong bagay sa privately held stock ng OpenAI, na mas lalo pang nagiging mahalaga dahil hindi ito mabibili sa public markets. Sa ngayon, mataas ang takbo ng OpenAI at Nvidia at walang masyadong nag-aalala — ngunit kung humina ang momentum, siguradong masusuri nang husto ang ganitong arrangement.
Para sa mga kumpanyang tulad ng Meta na mayroon nang malaking legacy infrastructure, mas komplikado ang kwento — ngunit kasing mahal pa rin. Sinabi ni Meta CEO Mark Zuckerberg na balak ng kumpanya na gumastos ng $600 bilyon sa U.S. infrastructure hanggang katapusan ng 2028.
Sa unang kalahati ng 2025, gumastos ang kumpanya ng $30 bilyon pa kaysa sa nakaraang taon, dulot ng lumalaking ambisyon nito sa AI. Bahagi ng paggasta ay napupunta sa malalaking cloud contracts, tulad ng kamakailang $10 bilyong deal sa Google Cloud, ngunit mas marami pang resources ang ibinubuhos sa dalawang napakalalaking bagong data centers.
Ang bagong 2,250-acre na site sa Louisiana, tinawag na Hyperion, ay tinatayang aabutin ng $10 bilyon upang maitayo at magbibigay ng tinatayang 5 gigawatts ng compute power. Kapansin-pansin, may kasunduan ang site sa isang lokal na nuclear power plant upang tugunan ang mataas na energy demand. Ang mas maliit na site sa Ohio, na tinawag na Prometheus, ay inaasahang magsisimula sa operasyon sa 2026, na pinapagana ng natural gas.
Ang ganitong uri ng pagtatayo ay may tunay na environmental costs. Ang xAI ni Elon Musk ay nagtayo ng sarili nitong hybrid data center at planta ng power-generation sa South Memphis, Tennessee. Ang planta ay mabilis na naging isa sa pinakamalalaking nagpapalabas ng smog-producing chemicals sa county, salamat sa sunod-sunod na natural gas turbines na ayon sa mga eksperto ay lumalabag sa Clean Air Act.
Dalawang araw lang matapos ang kanyang ikalawang panunumpa noong Enero, inanunsyo ni President Trump ang isang joint venture sa pagitan ng SoftBank, OpenAI, at Oracle, na layuning gumastos ng $500 bilyon upang magtayo ng AI infrastructure sa Estados Unidos. Tinawag na “Stargate” mula sa pelikulang 1994, dumating ang proyekto na may matinding hype, kung saan tinawag ito ni Trump na “ang pinakamalaking AI infrastructure project sa kasaysayan.” Mukhang sumang-ayon si OpenAI’s Sam Altman, na nagsabing, “Sa tingin ko ito ang pinakamahalagang proyekto ng panahong ito.”
Sa kabuuan, plano ng SoftBank na magbigay ng pondo, habang ang Oracle ang mamamahala sa pagtatayo na may input mula sa OpenAI. Pinamamahalaan ang lahat ni Trump, na nangakong aalisin ang anumang regulatory hurdles na maaaring magpabagal sa proyekto. Ngunit may mga pagdududa mula pa sa simula, kabilang na si Elon Musk, karibal ni Altman, na nagsabing wala pang sapat na pondo ang proyekto.
Habang humupa ang hype, humina rin ang momentum ng proyekto. Noong Agosto, iniulat ng Bloomberg na nahihirapan ang mga partners na magkasundo. Gayunpaman, umuusad pa rin ang proyekto sa pagtatayo ng walong data centers sa Abilene, Texas, at inaasahang matatapos ang huling gusali bago matapos ang 2026.
Karaniwan, ang “capital expenditures” ay isang tuyo at teknikal na sukatan, tumutukoy sa paggasta ng kumpanya sa mga pisikal na asset. Ngunit habang isinusumite ng mga tech companies ang kanilang capex plans para sa 2026, ang dagsa ng paggasta sa data center ginawang mas kawili-wili ang mga numero — at mas malalaki.
Nanguna ang Amazon, na nagproject ng $200 bilyon sa paggasta para sa 2026 (mula $131 bilyon noong 2025), habang malapit ang Google na may estimate na nasa pagitan ng $175 bilyon at $185 bilyon (mula $91 bilyon noong 2025). Tinatayang nasa $115 bilyon hanggang $135 bilyon ang projection ng Meta (mula $71 bilyon noong nakaraang taon), kahit na medyo nakalilinlang ang numerong ito dahil marami sa mga data center projects ay hindi ipinapasok sa kanilang mga libro. Sa kabuuan, plano ng mga hyperscaler na gumastos ng halos $700 bilyon sa data center projects sa 2026 lamang.
Sapat ito upang kabahan ang ilang mga investor. Ngunit karamihan sa mga kumpanya ay hindi natinag, ipinaliwanag na mahalaga ang AI infrastructure para sa kinabukasan ng kanilang mga kumpanya. Nagtatakda ito ng kakaibang dinamika. Gaya ng inaasahan, mas bullish ang mga tech executive sa AI kaysa sa mga taga-Wall Street — at habang mas malaki ang ginagastos ng mga tech companies, mas kinakabahan ang kanilang mga bangkero. Idagdag pa ang napakalaking utang na kinukuha ng marami para pondohan ang mga buildout na iyon, at maririnig mo ang mga CFO sa buong Silicon Valley na nagngangalit ang mga ngipin.
Hindi pa nito napapahinto ang paggasta sa AI, ngunit malapit na — maliban na lang kung mapatutunayan ng mga hyperscaler na sulit ang kanilang mga investment.
Unang nailathala ang artikulong ito noong Setyembre 22.