DRAM i NAND gwałtownie rosną! Układy pamięci stają się najcenniejszą walutą ery AI, Micron i SanDisk szykują się na "super zyski AI"
Według wiadomości Strefa Finansów, napędzane niezwykle silnym popytem ze strony sztucznej inteligencji oraz centrów danych, ceny pamięci z serii DRAM/NAND będą kontynuować gwałtowne wzrosty. Dwa główne amerykańskie giganty na rynku pamięci — Micron Technology (MU.US) oraz SanDisk (SNDK.US) ponownie znalazły się w centrum uwagi globalnych inwestorów podczas środowego, silnego odbicia technologicznych akcji na amerykańskiej giełdzie. Obie spółki odnotowały wzrost cen akcji o prawie 6% na zamknięciu giełdy, co pociągnęło za sobą ożywienie całego sektora pamięci oraz indeksu Nasdaq. Francuski BNP PARIBAS niedawno opublikował raport analityczny, w którym prognozuje, że kontraktowe ceny DRAM w pierwszym kwartale 2026 roku wzrosną aż o 90% kwartał do kwartału, a słynące z stabilnej krzywej cenowej NAND mają szansę wzrosnąć o 55%. Dodatkowo, drugi kwartał ma kontynuować trend podwyżek rozpoczęty w drugiej połowie 2025 roku.
Ocena Banku BNP PARIBAS dotycząca wzrostu cen pamięci nie jest odosobniona. TrendForce niedawno podniosło swoje oczekiwania wobec kontraktowych cen DRAM na pierwszy kwartał 2026 roku z poprzednich 55%-60% wzrostu do +90% do +95% (QoQ, czyli kwartalnie), a ceny kontraktowe NAND Flash znacznie podniosło do +55% do +60% QoQ. TrendForce wskazał również, że północnoamerykańscy producenci cloud computing notują gwałtowny wzrost zapotrzebowania na SSD klasy enterprise (czyli eSSD do centrów danych), co powoduje, że ich ceny w pierwszym kwartale kalendarzowym wzrosną o kolejne 53% do 58% QoQ. Wszystko to potwierdza kluczowy fakt: pamięci półprzewodnikowe stają się „absolutnym liderem” obok AI chipów NVIDIA w fali AI, a także są jednym z pierwszych aktywów, które wykazują nierównowagę podaży i popytu oraz najszybciej uzyskują pozycję pozwalającą decydować o cenach.
Gwałtowny wzrost cen pamięci trwa, BNP PARIBAS przewiduje dalsze wzrosty Micron i SanDisk
Karl Ackerman, doświadczony analityk BNP PARIBAS, napisał w raporcie dla klientów: „Nasza głęboka analiza ponad 50 SKU pamięci DRAM (dynamicznych pamięci o dostępie swobodnym) i ponad 75 SKU NAND pozwala nam przewidywać, że średnia cena pamięci DRAM wzrośnie w pierwszym kwartale kalendarzowym o aż 90% kwartał do kwartału, a następnie ponownie znacząco wzrośnie w drugim kwartale. Główną przyczyną jest rosnący popyt na serwery AI, który prowadzi do szeroko zakrojonej nierównowagi między podażą a popytem, co powoduje stałą presję na wzrost cen.”
„Jeśli chodzi o pamięci NAND, przewidujemy, że ceny w pierwszym kwartale wzrosną o 55% kwartał do kwartału, a w drugim kwartale ponownie odnotują wzrost. Ten trend wywołany jest dynamiczną nierównowagą po stronie podaży, ponieważ dostawcy NAND nieustannie przekierowują moce produkcyjne na wysokowydajne produkty NAND klasy enterprise, jednocześnie zachowując bardzo ostrożne podejście przy rozbudowie nowych mocy.”
Analityk Ackerman wyznaczył dla Micron cel cenowy na 500 USD w ciągu następnych 12 miesięcy, a dla SanDisk aż 650 USD. Na zamknięciu środowej sesji giełdowej Micron wzrósł o 5,55% do 400,77 USD, SanDisk o 5,95% do 599 USD, a cel cenowy BNP PARIBAS pokazuje, że trajektoria silnej hossy obu firm od 2025 roku jeszcze się nie zakończyła.
Idąc dalej w analizie, Ackerman wskazuje, że ceny spotowe w lutym są jeszcze silniejsze, a biorąc pod uwagę korelację między ceną spotową a kontraktową, zbliżający się czas renegocjacji kontraktów to bardzo optymistyczny sygnał dla całej branży półprzewodników pamięci.
Ackerman tłumaczy: „W cyklu wzrostowym ceny spotowe DRAM i NAND zazwyczaj charakteryzują się znaczną premią nad cenami kontraktowymi. Lutowe ceny rynkowe pokazują, że ceny spotowe DDR4 klasy elektroniki konsumenckiej wzrosły kwartalnie o 11% (co oznacza roczny wzrost o 1284%) do 21,93 USD/GB, podczas gdy ceny kontraktowe wzrosły o 7% (NVIDIA roczny wzrost o 688%) do 12,17 USD/GB, co oznacza premię spotową na poziomie 80%. Podobnie ceny spotowe DDR5 dla elektroniki konsumenckiej wzrosły o 9% (co oznacza roczny wzrost o 673%) do 19,13 USD/GB, ceny kontraktowe wzrosły o 3% (roczny wzrost o 384%) do 11,04 USD/GB, co oznacza premię spotową na poziomie 73%.”
Ponadto, w środę wiele globalnych mediów podało, że największy gracz na rynku pamięci — Samsung — znacznie podniósł ceny DRAM (czyli produktów z serii DRAM) o ponad 100%. Według Korea Electronics News, Samsung Electronics w zeszłym miesiącu sfinalizował negocjacje cenowe na pierwsze kwartał DRAM ze swoimi największymi klientami, w tym Apple, i ceny DRAM dla serwerów, PC i urządzeń mobilnych wzrosły w porównaniu z ubiegłym kwartałem o 100%, co oznacza dwukrotny wzrost w stosunku do czwartego kwartału zeszłego roku, a niektóre produkty i klienci odnotowali jeszcze większe wzrosty. Raport powołuje się na branżowe źródła, które twierdzą, że negocjacje są w pełni zakończone, a niektórzy zagraniczni klienci już zapłacili. Podwyżka ta, wobec uzgodnionych w styczniu 70%, w ciągu jednego miesiąca wzrosła o dodatkowe 30 punktów procentowych.
Szybki wzrost cen zmienia długoterminowe nawyki kontraktowe globalnej branży pamięci — zwłaszcza wzrost zależności systemów GPU/TPU od HBM, DRAM i SSD klasy enterprise powoduje ciągłą nierównowagę między podażą a popytem. Cykl negocjacji kontraktowych skrócił się z tradycyjnych umów rocznych do umów kwartalnych, a obecnie nawet wymaga miesięcznych korekt, co odzwierciedla powagę nierównowagi na rynku półprzewodników pamięci.
„Łańcuch mocy obliczeniowej Google AI” i „łańcuch GPU NVIDIA” nie mogą funkcjonować bez pamięci
Zarówno ogromne klastery TPU AI prowadzone przez Google, jak i masowe klastrowe systemy GPU AI NVIDIA wymagają systemów pamięci HBM zintegrowanych z AI chipsetami. Oprócz HBM, obecnie giganci technologiczni jak Google czy OpenAI przyspieszają budowę lub rozbudowę centrów danych AI, co wymaga masowego zakupu serwerowej pamięci DDR5 oraz wysoko wydajnych SSD/HDD klasy enterprise. W przeciwieństwie do Seagate i Western Digital, które koncentrują się na monopolizacji dużych, pośrednich HDD, SanDisk skupia się na wysokowydajnych eSSD, Samsung, SK Hynix i Micron jako trzej producenci pamięci są aktywni w wielu kluczowych segmentach: HBM, serwerowe DRAM (w tym DDR5/LPDDR5X) oraz zaawansowane SSD do centrów danych (eSSD). Są „największymi beneficjentami super boomu AI w dziedzinie pamięci i przechowywania danych”, a liderzy tej branży korzystają ze wszystkich korzyści infrastrukturalnej fali AI.
W świetle teorii sprzętowej, przetwarzanie AI zależy nie tylko od mocy obliczeniowej, ale także od zdolności do szybkiego przesyłania danych. Zarówno GPU NVIDIA, jak i systemy TPU, efektywność treningu i inferencji dużych modeli zależy nie tylko od liczby Tensor Core/komórek macierzowych, ale przede wszystkim od tego, jak szybko można wprowadzić do rdzenia obliczeniowego wagę, cache KV, wartości aktywacji oraz pośrednie tensory przy jak największej przepustowości.
Patrząc z perspektywy analizy krzyżowej półprzewodników oraz infrastruktury centrów danych AI, pamięci półprzewodnikowe „idealnie wpisują się” w falę AI , ponieważ korzystają zarówno z ekspansji treningowej, jak i ekspansji inferencyjnej oraz stanowią „uniwersalne opłaty” między platformami, architekturami i ekosystemami. Wraz z przesunięciem epoki AI z dominacji treningowej na inferencyjną, agentową, z długim kontekstem oraz wspomaganiem wyszukiwania, zapotrzebowanie systemów na pojemność, przepustowość, efektywność energetyczną i trwałość danych będzie rosło.
W oficjalnym dokumencie Google czytamy, że Cloud TPU posiada HBM (pamięć o dużej przepustowości), pozwalającą na obsługę większych modeli i dużych batchy; TPU Ironwood Google zaprojektowano tak, by jeszcze bardziej zwiększyć pojemność i przepustowość HBM. U NVIDIA systemy GPU AI również są bezpośrednie: pojedynczy GPU w architekturze Blackwell Ultra obsługuje do 288 GB HBM3e, a system GB300 NVL72 rackowy opiera się na ogromnej pojemności HBM, podnosząc inferencyjną przepustowość dla długiego kontekstu. Innymi słowy, bez HBM szczytowa moc GPU/TPU nie może zostać wykorzystana; przepustowość i pojemność pamięci decyduje, czy duży model może działać szybciej, sprawniej i na większą skalę.
Poza tym, systemy przechowywania danych w centrach AI nigdy nie polegają wyłącznie na HBM. Kompletny poziom pamięci w AI to: HBM zapewnia szybki dostęp najbliżej akceleratora, DDR5/RDIMM/LPDRAM odpowiada za rozszerzenie pamięci hosta i wstępne przetwarzanie danych, a SSD klasy enterprise obsługuje zestawy danych, checkpointy, bazę wektorową, RAG oraz caching dla inferencji i treningu. Przykładowo, Micron definiuje swoje rozwiązania do centrów danych AI jako „kompletny zestaw pamięci dla treningu i inferencji”; jasno zaznacza również, że linia eSSD służy zapewnieniu wysokiej efektywności w dostarczaniu danych dla pipeline’u AI w treningu i inferencji. TrendForce wskazuje, że wraz z nadejściem ery inferencji AI, północnoamerykańscy liderzy cloud computing gwałtownie zwiększają zakupy wysokowydajnej pamięci, a popyt na eSSD znacznie przewyższa oczekiwania. Czyli zarówno klastry GPU AI, jak i TPU Google wymagają pełnej struktury pamięci HBM + DRAM serwerowego + NAND/SSD. Różnica tkwi tylko w marce akceleratora, ale fundament przechowywania danych musi być oparty na tej „kompletnej piramidzie”.
Analitycy Citi w najnowszym raporcie dotyczącym perspektyw cen pamięci prezentują bardziej agresywną postawę „supersyklu” niż UBS, Nomura czy JP Morgan. Analiza Citi twierdzi, że powszechne zastosowanie AI Agent (czyli agentowych przepływów pracy AI) oraz gwałtowny wzrost zapotrzebowania na pamięć w AI CPU spowodują niekontrolowany wzrost cen półprzewodników pamięci do 2026 roku, dlatego prognoza wzrostu średnich cen DRAM w 2026 roku została podniesiona z pierwotnych 53% do 88%, a NAND z 44% do 74%. Pod wpływem równoczesnych potrzeb treningu i inferencji AI, ASP pamięci DRAM serwerowych może wzrosnąć o 144% (wcześniej prognozowano +91%). Dla dominującego produktu DDR5 RDIMM 64GB, Citi prognozuje, że w pierwszym kwartale 2026 roku cena wyniesie 620 USD — wzrost o 38% kwartalnie, znacznie więcej niż poprzednia prognoza 518 USD.
W przypadku NAND, prognoza Citi także jest bardzo agresywna — wzrost ASP w 2026 roku z +44% podniesiono do +74%; wśród nich, ASP SSD klasy enterprise ma wzrosnąć o 87%. Zdaniem analityków Citi, rynek półprzewodników pamięci wejdzie w ekstremalnie dynamiczny „rynek sprzedającego”, a pełna kontrola nad cenami znajdzie się w rękach gigantów takich jak Samsung, SK Hynix, Micron oraz SanDisk.
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Napięcia w Iranie: reakcja i rozbieżność w ruchach kryptowalut
Spółka matka Ladbrokes ujawnia stratę 500 mln funtów z powodu podwyżki podatków przez Reeves

KLAC spada o 2,3% w związku z pojawieniem się krótkoterminowych sygnałów niedźwiedzich — co napędza wyprzedaż?
Dow spada o 750 punktów, gdy wyższe ceny ropy utrzymują obawy przed inflacją
