DRAM at NAND magkasamang nag-boom! Ang mga storage chip ang naging pinaka-mahalagang kalakal sa AI era, Micron at SanDisk sasalubungin ang "AI Super Bonus"
Napag-alaman ng Filipino News sa pananaliksik na dahil sa napakatinding demand ng artipisyal na intelihensya (AI) at data center, patuloy na tataas ang presyo ng DRAM/NAND na mga serye ng storage, at ang dalawang pinakamalalaking storage giant sa Amerika—Micron Technology (MU.US) at SanDisk (SNDK.US) ay muling napansin ng mga global investor ngayong Miyerkules habang matinding bumangon ang mga tech stocks sa US market; parehong tumaas ng halos 6% ang kanilang stock price matapos magsara ang US stock market, na nagdulot ng malawakang pagsigla ng storage sector at Nasdaq index. Kamakailan ay naglabas ng ulat ang BNP PARIBAS na nagsasabing ang DRAM contract price ay inaasahang aakyat ng 90% quarter-on-quarter sa unang quarter ng 2026, at ang matagal nang kilalang stabilidad ng NAND price curve ay inaasahan ding tumaas ng 55%, at mananatiling pataas hanggang sa ikalawang quarter, sumunod sa trend na nagsimula pa nitong huling bahagi ng 2025.
Hindi nag-iisa ang pananaw ng BNP Paribas ukol sa patuloy na pagtaas ng presyo ng storage. Kamakailan lang, inakyat ng TrendForce ang forecast nito sa regular DRAM contract price sa unang quarter ng 2026, mula sa dating 55%-60% quarterly increase (QoQ) papuntang +90% hanggang +95% QoQ; para sa NAND Flash contract price naman, iniangat naging +55% hanggang +60% QoQ. Tinukoy rin nilang ang demand para sa enterprise SSD (ibig sabihin, enterprise-class na SSD para sa data center, eSSD) ng mga North American cloud computing provider ay biglang sumabog, dahilan para tumaas ng karagdagang 53% hanggang 58% QoQ ang presyo sa unang calendar quarter. Ipinapakita nito ang isang mahalagang katotohanan: ang storage chip ay naging “absolutong sentro” sa AI super wave na hindi pahuhuli sa AI chip ng Nvidia, at ito rin ang unang sector na nagkaroon ng supply-demand imbalance at pricing power sa kasalukuyang cycle.
Hindi mapipigilan ang pagtaas ng presyo ng storage, tiwala ang BNP Paribas sa patuloy na pagbulusok ng Micron at SanDisk
Sa isang ulat na ipinadala sa mga kliyente, sinabi ng senior analyst ng BNP Paribas na si Karl Ackerman: “Sa malalim naming pagsusuri sa mahigit 50 DRAM (dynamic random-access memory) SKU at mahigit 75 NAND SKU contract prices, inaasahan naming ang average selling price ng DRAM sa unang quarter ng taon ay tataas ng 90% quarter-on-quarter, at muling tataas sa ikalawang quarter; pangunahing dahilan ay ang lumalawak na demand para sa AI server na nagdudulot ng malawakang imbalance sa supply at demand, kaya patuloy na mataas ang pressure pataas sa presyo.”
“Para naman sa mga NAND storage product, hinuhulaan naming tataas ng 55% QoQ ang presyo sa unang quarter ng taon, at muling tataas sa ikalawang quarter, sanhi ito ng imbalance sa supply side, dahil ang mga NAND supplier ay patuloy na inililipat ang production capacity patungo sa enterprise-grade na high-performance NAND storage product, habang ang pagdaragdag ng kapasidad ay nananatiling napakaingat.”
Ibinigay ni analyst Ackerman ang target price na $500 sa loob ng 12 buwan para sa Micron, at $650 para sa SanDisk. Pagsapit ng pagsasara ng US market nitong Miyerkules, tumaas ng 5.55% sa $400.77 ang Micron, habang tumaas ng 5.95% sa $599 ang presyo ng SanDisk; ibig sabihin, nananatili ang bullish trajectory ng dalawa simula 2025.
Sa mas malalim na pagsusuri, tinukoy ni Ackerman ng BNP Paribas na mas matindi ang spot price ngayong Pebrero, at dahil sa pagkakaugnay ng spot price at future contract price, habang papalapit ang pag-renew ng kontrata, napakaganda nito para sa buong storage chip industry.
Ipinaliwanag ni Ackerman: “Sa panahon ng bull market, madalas lampasan ng DRAM at NAND spot price ang contract price. Ayon sa presyo ng Pebrero, ang consumer electronics grade DDR4 spot price ay tumaas ng 11% QoQ (ibig sabihin, tumaas ng 1284% YoY) sa $21.93/GB, samantalang ang contract price ay tumaas ng 7% QoQ (Nvidia YoY +688%) sa $12.17/GB—ibig sabihin, ang spot price ay 80% na mas mataas kaysa contract price. Ganoon din, ang consumer DDR5 spot price ay tumaas ng 9% QoQ (YoY +673%) sa $19.13/GB, habang ang contract price ay tumaas ng 3% (YoY +384%) sa $11.04/GB, ibig sabihin, 73% ang spot premium.”
Bukod dito, iniulat ng ilang international media nitong Miyerkules na matinding tinaasan ng Samsung, ang pinakamalaking storage player sa mundo, ang presyo ng DRAM ng higit sa 100%. Ayon sa Korea Electronics News, natapos na ng Samsung Electronics ang final negotiation sa mga pangunahing kliyente tulad ng Apple para sa DRAM supply price ng unang quarter, kung saan ang average server, PC, at mobile DRAM price ay tumaas ng humigit-kumulang 100% kumpara sa nakaraang quarter—doble ang presyo kumpara sa ikaapat na quarter ng nakaraang taon, at may ilang produkto at kliyente na lagpas sa 100% ang itinaas. Ayon sa source ng industriya, tapos na ang negotiation at tapos na ring magbayad ang ilang kliyente. Ang laki ng taas na ito ay dagdag na 30 percentage point mula sa 70% na napag-usapan noong Enero taong ito.
Ang mabilis na pagtaas ng presyo ay nagbabago sa tradisyunal na kontraktuwal na sistema ng storage industry worldwide, lalo na’t ang paglaki ng dependency ng GPU/TPU system sa HBM, DRAM, at enterprise-class SSD ay humahantong sa matagal na supply-demand imbalance. Mula kayaang taon-taon ang supply contracts, ngayon ay kada kwarter na lang, at minsan ay buwanan pa—nagpapakita ito kung gaano kalubha ang imbalance sa storage chip market.
Hindi mabubuo ang “Google AI compute power chain” o “Nvidia GPU chain” nang walang storage
Kahit gaano kalaki ang TPU AI compute clusters na pinamumunuan ng Google, o ang malalaking Nvidia AI GPU clusters, hindi ito posible kung walang integrated AI chip HBM storage system; at bukod sa HBM, kailangan pa rin ng Google at OpenAI ng mga tech giant na bumuo o magpalawak ng AI data center at bumili ng maramihang server-level DDR5 memory at enterprise-class high-performance SSD/HDD storage solution; iba ang Seagate at Western Digital na naka-focus sa monopolyo ng nearline high-volume HDD, ang SanDisk ay tumutok sa high-performance eSSD, habang ang tatlong original storage chip makers na Samsung Electronics, SK Hynix at Micron ay nakaposisyon nang sabay-sabay sa maraming core storage field: HBM, server DRAM (kabilang ang DDR5/LPDDR5X), at high-end data center enterprise SSD (eSSD), sila ang tunay na direktang nakikinabang sa “AI memory + storage stack”—ang mga storage leader na ito ang sabay-sabay sumusulpot sa AI construction “super bonus.”
Sa pinaka-basics ng hardware, ang AI computation ay hinuhubog hindi lamang ng compute power, kundi pati na rin ng “data moving ability.” Kahit Nvidia GPU o TPU system, ang tunay na nagdidikta ng training at inferencing efficiency ng large model ay hindi lang dami ng Tensor Core o matrix units, kundi kung gaano kalaking bandwidth kada segundo ang kayang magdala ng weight, KV cache, activation value, at intermediate tensor papunta sa compute core.
Sa pagsasanib ng semiconductor at AI data center infrastructure, “napaka-perfect” ng positioning ng storage chip sa AI wave, dahil sabay-sabay nitong nasasaklaw ang expansion ng training at inference, at ito rin ang cross-platform, cross-architecture, cross-ecosystem na “universal toll gate.” Habang ang AI era ay nalilipat mula sa training-centered patungo sa inference, Agent, long-context, at retrieval-enhanced na uso, mas tumitindi ang demand para sa capacity, bandwidth, energy efficiency, at persistent data layer.
Ayon sa isang opisyal na dokumento ng Google, mayroong HBM (high bandwidth memory) ang Cloud TPU upang sumuporta sa mas malalaking parameter model at batch size; at lalo pang dinagdag ng Ironwood TPU ang capacity at bandwidth ng HBM para sa “inference era.” Sa Nvidia, napakadirekta ng application: ang Blackwell Ultra architecture na GPU ay kayang magkabit ng hanggang 288GB HBM3e bawat chip, samantalang ang GB300 NVL72 rack-level system ay pinalawak ang throughput ng long-context inference sa pamamagitan ng napakalaking HBM capacity. Sa madaling salita, kung walang HBM, imposibleng gamitin ng buo ang peak compute power ng GPU/TPU; ang storage bandwidth at capacity ang nagdidikta kung “kaya bang gumamit ng malalaking modelo, mabilis, at tuloy-tuloy.”
Bukod dito, hindi lamang HBM ang talagang kailangan ng AI data center. Ang buong AI storage hierarchy ay ganito: Magbibigay ng pinakamalapit at pinakamabilis na data feed sa accelerator ang HBM, DDR5/RDIMM/LPDRAM ang bahala sa memory expansion at pre-processing ng data, at enterprise-class SSD naman ang Responsable sa training datasets, checkpoints, vector database, RAG retrieval, at inferencing cache—lahat ng persistent data. Halimbawa, malinaw na tinukoy ng Micron sa opisyal na dokumento na ang AI data center storage solution ay sumasaklaw sa “buong kombinasyon ng storage device” para sa training at inference; itinataguyod rin nila na ang eSSD line ay ginagawa upang mapanatili ang mataas na data throughput para sa AI pipeline. Inanunsyo rin ng TrendForce na dahil sa pagsya ng AI inference era, bumibilis na ang mga cloud computing giant ng North America sa pagbili ng high-performance storage, kung saan ang demand ng eSSD ay lampas-lampas sa expectation. Ibig sabihin, hindi mabubuhay ang AI GPU cluster nang walang storage, ganoon din ang Google TPU cluster—magkakaiba lang ng brand ng accelerator pero pareho ng storage foundation: HBM + server DRAM + NAND/SSD na kumpletong pyramid.
Ipinakita ng mga analyst ng Citi sa pinakabagong review ng storage price outlook ang mas agresibong “storage super cycle” kumpara sa UBS, Nomura, at JP Morgan. Naniniwala ang mga analyst ng Citi na, dahil sa paglaganap ng AI Agent (AI autonomous agent workflow) at biglang pagtaas ng memory sa mga AI CPU, tataas nang hindi mapipigilan ang presyo ng storage chip pagsapit ng 2026, kaya tinaas nila ang forecast ng average selling price (ASP) ng DRAM sa 2026 mula sa dating 53% papuntang 88%, at ang NAND ASP forecast mula 44% hanggang 74%; dahil sa sabayang demand ng training at inference ng AI, inaasahan nilang tataas ng 144% YoY ang server DRAM ASP sa 2026 (dating forecast +91%); sa mainstream product na 64GB DDR5 RDIMM, tinataya ng Citi na aabot sa $620 ang presyo pagsapit ng Q1 2026, tantiyang tumataas ng 38% QoQ, na mas mataas kaysa dating forecast na $518.
Sa NAND sector, parehong matindi ang forecast ng Citi, tinaas ang ASP growth estimate ng 2026 mula +44% hanggang +74%; sa mga enterprise-class na SSD, tinatayang tataas ng 87% YoY ang ASP. Para sa mga analyst ng Citi, papasok ang storage chip market sa isang matinding seller’s market, at ang pricing power ay mapupunta kina Samsung, SK Hynix, pati Micron at SanDisk at iba pang storage giants.
Disclaimer: Ang nilalaman ng artikulong ito ay sumasalamin lamang sa opinyon ng author at hindi kumakatawan sa platform sa anumang kapasidad. Ang artikulong ito ay hindi nilayon na magsilbi bilang isang sanggunian para sa paggawa ng mga desisyon sa investment.
Baka magustuhan mo rin
Umalis ang COO ng Match Group, habang nahihirapan ang mga dating app na maka-connect sa Gen Z

Pag-aanalisa ng Cash Flow: $379 Milyong Kakulangan ng CleanSpark Kumpara sa $1.15 Bilyong Pautang na Pustahan

Umalis ang COO ng Match Group sa gitna ng mga hamon ng mga dating app sa pag-engganyo ng mga Gen Z na user

