Bitget App
Торгуйте разумнее
Купить криптоРынкиТорговляФьючерсыEarnПлощадкаПодробнее
DRAM и NAND стремительно растут вместе! Память становится самой ценной валютой эпохи AI, Micron и SanDisk получают «AI-супердивиденды»

DRAM и NAND стремительно растут вместе! Память становится самой ценной валютой эпохи AI, Micron и SanDisk получают «AI-супердивиденды»

金融界金融界2026/03/05 02:44
Показать оригинал
Автор:金融界

По информации Zhihui Finance, на фоне исключительно высокого спроса со стороны искусственного интеллекта и центров обработки данных, цены на память серии DRAM/NAND продолжат стремительно расти. Крупнейшие американские гиганты хранения данных — Micron Technology (MU.US) и SanDisk (SNDK.US) — вновь стали в центре внимания глобальных инвесторов на фоне мощного ралли технологических акций США в среду. К закрытию торгов в среду, акции обеих компаний выросли примерно на 6% за день, что привело к массовому росту сектора хранения и индекса Nasdaq. Согласно недавнему отчету BNP Paribas, контрактные цены DRAM в первом квартале 2026 года могут вырасти на 90% по сравнению с предыдущим кварталом, а цены на NAND, традиционно отличавшиеся стабильной динамикой, могут увеличиться на 55%. При этом рост цен продолжится со второй половины 2025 года и далее во втором квартале.

Оценка BNP Paribas в росте цен на память не является отдельным мнением. TrendForce недавно пересмотрела прогноз по контрактным ценам на обычные DRAM в первом квартале 2026 года: с прежнего прироста на 55–60% за квартал до 90–95% (QoQ), а цены на NAND Flash были значительно повышены до роста на 55–60% QoQ. При этом отмечено, что у североамериканских облачных вычислительных компаний резко вырос спрос на enterprise SSD (корпоративные SSD для центров обработки данных, eSSD), что приведет к росту их цены в первом календарном квартале еще на 53–58% QoQ. Это свидетельствует о ключевом факте: чипы памяти становятся «абсолютным центром» в волне AI, не уступающим AI-чипам от Nvidia. Более того, память — это узкое бутылочное горлышко этого цикла, где первым проявляется дефицит и формируется ценовая власть.

Взлет цен на память не остановить: BNP Paribas ожидает дальнейшее ралли Micron и SanDisk

Старший аналитик BNP Paribas Карл Акерман в отчете для клиентов пишет: «Наш глубокий анализ контрактных цен на более чем 50 моделей DRAM и 75 моделей NAND за первый календарный квартал позволил предположить, что средняя цена DRAM может резко вырасти на 90% QoQ, а затем снова значительно вырасти во втором квартале; основной причиной такого скачка является постоянно растущий спрос на AI-серверы, что вызывает более широкий структурный дисбаланс спроса и предложения, поддерживая устойчивое давление на повышение цен».

«По части накопителей NAND мы прогнозируем рост цены на 55% QoQ в первом квартале, с дальнейшим ростом во втором квартале — в основном из-за дисбаланса на стороне предложения, поскольку производители NAND продолжают переходить на выпуск высокопроизводительных корпоративных продуктов, при этом наращивание новых мощностей весьма осторожно».

Аналитик Акерман установил 12-месячную целевую цену на акции Micron на уровне 500 долларов, а на SanDisk — 650 долларов. По итогам среды, акции Micron выросли на 5,55% до 400,77 долларов, а SanDisk — на 5,95% до 599 долларов, что означает, что у обоих компаний бычий тренд, начавшийся в 2025 году, далек от завершения.

BNP Paribas также отмечает, что в феврале цены спотового рынка были еще выше, и учитывая корреляцию между спотовыми и контрактными ценами, предстоящая пролонгация контрактов — весьма оптимистичный сигнал для всей отрасли чипов памяти.

Акерман пояснил: «Во время растущего ценового цикла, на спотовом рынке цены DRAM и NAND, как правило, значительно превышают контрактные. В феврале контрактные цены на DDR4 для потребительской электроники выросли на 7% QoQ (Nvidia +688% г/г) до 12,17 долларов/ГБ, в то время как спотовая цена увеличилась на 11% QoQ (+1284% г/г) до 21,93 долларов/ГБ, то есть премия спота над контрактом составляет 80%. Аналогично, на DDR5 спотовая цена выросла на 9% QoQ (+673% г/г) до 19,13 долларов/ГБ, а контрактная — на 3% QoQ (+384% г/г) до 11,04 долларов/ГБ, премия составляет 73%.»

Кроме того, как сообщают многочисленные иностранные СМИ, крупнейший в отрасли производитель — Samsung, повысил цены на DRAM более чем на 100%. Согласно данным Korea Electronics News, Samsung Electronics в прошлом месяце завершила переговоры по ценам на первую партию DRAM для крупнейших клиентов, таких как Apple, средние цены на серверные, ПК и мобильные DRAM выросли примерно на 100% QoQ, удвоившись по сравнению с четвертым кварталом прошлого года, а для отдельных клиентов и продуктов рост превысил 100%. В материале отмечается, что переговоры полностью завершены, некоторые зарубежные покупатели уже оплатили поставки. Такой рост за месяц превысил договоренности января (уровень +70%) почти на 30 процентных пунктов.

Быстрое повышение цен радикально меняет долгосрочные контрактные практики мировой индустрии памяти, особенно ввиду возросшей зависимости GPU/TPU-систем от HBM, DRAM и корпоративных SSD, что порождает структурный дефицит. Циклы переговоров по поставкам сократились с традиционных годовых контрактов к квартальным, а теперь требуют пересмотра даже ежемесячно — что отражает серьезность дисбаланса спроса и предложения на рынке чипов памяти.

Ни “вычислительная цепочка AI Google”, ни “графическая цепочка Nvidia” невозможны без памяти

Будь то масштабные TPU-кластеры Google или мощные GPU-кластеры Nvidia, все они требуют интегрированных систем HBM с AI-чипами для поддержки, а также серверных DDR5 и корпоративных высокопроизводительных SSD/HDD для новых/расширяемых AI-ЦОД; в отличие от Seagate и Western Digital, специализирующихся на крупных HDD, SanDisk сконцентрирован на высокопроизводительных eSSD, а Samsung, SK hynix и Micron аккумулируют сильные позиции сразу в нескольких ключевых сегментах: HBM, серверная DRAM (включая DDR5/LPDDR5X), а также корпоративные центровые SSD (eSSD). Эти лидеры памяти — главные бенефициары “суперцикла AI-инфраструктуры”.

С точки зрения аппаратной теории, вычисления AI ограничены не только мощностью, но и способностью “перемещать данные”. Неважно, идет ли речь о GPU Nvidia или системе TPU: ключевым для эффективности обучения и вывода больших моделей является не просто число Tensor Core/матричных блоков, а пропускная способность в подаче весов, KV cache, активаций и промежуточных тензоров на вычислительные ядра.

Сквозь призму аналитики полупроводников и инфраструктуры AI-ЦОД, превосходная позиция чипов памяти объясняется их одновременным бенефициарством от циклов расширения обучения и вывода, а также функцией “универсального платного шлюза” между платформами и архитектурами. По мере того как эра AI смещается от доминирующего обучения к выводу, Intelligent Agents, длинному контексту (long context) и RAG-подходам, требования к объему, пропускной способности, энергоэффективности и уровню надежного хранения только возрастают.

Официальный документ Google прямо указывает, что Cloud TPU оснащен HBM (памятью высокой пропускной способности) для поддержки моделей с бо́льшим числом параметров и крупными батчами; Ironwood TPU для эпохи вывода еще больше увеличивает емкость и полосы HBM. У Nvidia роль памяти в инфраструктуре более прямая: один GPU Blackwell Ultra оснащается до 288 ГБ HBM3e, а GB300 NVL72 rack-система строится вокруг супервместимости HBM для ускорения вывода в длинном контексте. Проще говоря, без HBM пиковая мощность GPU/TPU не реализуема на практике; пропускная способность и объем памяти определяют возможность быстрого и полноценного обучения моделей ИИ.

Кроме того, основные системы хранения AI-ЦОД — это не только HBM. Полная иерархия AI-памяти выглядит так: HBM — для максимального быстрого обмена с ускорителями, DDR5/RDIMM/LPDRAM — для расширения ОЗУ хоста и предобработки, корпоративные SSD — для хранения обучающих датасетов, чекпоинтов, векторных баз, RAG-вывода и кеша инференса. Например, Micron официально определяет свои решения хранения данных AI как полный портфель для обучения и вывода; также подчеркивает, что линейка eSSD обеспечивает эффективную подачу данных в AI pipeline. TrendForce также отмечает: в эру вывода, североамериканские облачные гиганты быстро наращивают закупки высокопроизводительной памяти; спрос на eSSD существенно превзошёл ожидания. Проще говоря: AI-GPU-кластеры невозможны без памяти, кластеры TPU Google — тоже; разница только в бренде ускорителя, но все решения покоятся на пирамиде HBM + серверная DRAM + NAND/SSD.

Аналитики Citigroup в своем последнем прогнозе цен памяти заняли еще более агрессивную позицию, чем UBS, Nomura и JP Morgan по поводу “суперцикла памяти”. По мнению аналитиков Citi, под влиянием массового внедрения AI Agent (интеллектуальных агентов AI) и роста спроса на память для AI CPU, в 2026 году цены на чипы памяти могут выйти из-под контроля, поэтому ожидаемый рост средней цены DRAM в 2026 году пересмотрен с 53% сразу до 88%, NAND — с 44% до 74%; под двойным воздействием обучения и вывода, ASP серверной DRAM в 2026 году может взлететь на 144% г/г (против прежнего прогноза в +91%). Для популярных 64 ГБ DDR5 RDIMM Citi прогнозирует укрепление цены до 620 долларов в первом квартале 2026 года (+38% QoQ, выше прежней оценки в 518 долларов).

Прогноз Citi по NAND также весьма агрессивен: ожидаемый рост ASP в 2026 году — с 44% до 74%; ASP корпоративных SSD — плюс 87% г/г. По мнению аналитиков Citi, рынок памяти входит в чрезвычайно “жесткий рынок продавца”, где ценообразование полностью сосредоточено в руках таких гигантов, как Samsung, SK hynix, Micron и SanDisk.

0
0

Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.

PoolX: вносите активы и получайте новые токены.
APR до 12%. Аирдропы новых токенов.
Внести!
© 2026 Bitget