Bitget App
Opera de forma inteligente
Comprar criptoMercadosTradingFuturosEarnCentralMás
¡DRAM y NAND se disparan juntos! Los chips de almacenamiento se convierten en el activo más valioso de la era de la IA, Micron y SanDisk reciben el "súper dividendo de la IA"

¡DRAM y NAND se disparan juntos! Los chips de almacenamiento se convierten en el activo más valioso de la era de la IA, Micron y SanDisk reciben el "súper dividendo de la IA"

金融界金融界2026/03/05 02:44
Show original
By:金融界

Según ha informado智通财经, impulsado por una demanda imparable en Inteligencia Artificial y Centro de Datos, los precios de la serie de almacenamiento DRAM/NAND seguirán subiendo. Los dos gigantes estadounidenses de almacenamiento, Micron Technology (MU.US) y SanDisk (SNDK.US), vuelven a estar en el foco de los inversores globales en medio de una poderosa remontada de las acciones tecnológicas en Wall Street este miércoles, cerrando la jornada con un incremento cercano al 6% cada uno y liderando el repunte del sector de almacenamiento y del índice Nasdaq. El banco francés BNP PARIBAS publicó recientemente un informe en el que pronostica que el precio de los contratos DRAM en el primer trimestre natural de 2026 aumentará un 90% intertrimestral, mientras que el NAND, conocido por su curva de precios estable, podría subir un 55%, manteniendo la tendencia alcista del segundo trimestre iniciada desde la segunda mitad de 2025.

La perspectiva de BNP PARIBAS sobre el aumento de precios en el almacenamiento no es un caso aislado. TrendForce ha revisado recientemente su previsión para el primer trimestre de 2026, elevando la expectativa de incremento del precio de los contratos DRAM desde el 55%-60% previamente estimado hasta +90% a +95% (QoQ, es decir, base intertrimestral), mientras que el precio de los contratos NAND Flash se ajustó a +55% a +60% QoQ. Además, señala que los proveedores norteamericanos de Computación en la Nube están experimentando un aumento explosivo en la demanda de SSD empresariales (eSSD para centros de datos), lo que impulsará sus precios en el primer trimestre natural entre un 53% y un 58% QoQ. Todo esto evidencia un hecho clave: Chip de Almacenamiento se ha convertido en la “posición central absoluta” de la superola de AI, rivalizando incluso con los Chip de AI de Nvidia, y sigue siendo uno de los cuellos de botella de oferta más relevantes donde primero se manifiesta el poder de fijación de precios.

La escalada loca de precios del almacenamiento no se detiene, BNP PARIBAS favorece la continuación del rally de Micron y SanDisk

Karl Ackerman, analista sénior de BNP PARIBAS, escribió en un informe para clientes: “Nuestro análisis profundo de más de 50 tipos de SKU DRAM (Memoria de acceso aleatorio dinámica) y más de 75 SKU NAND para contratos en el primer trimestre natural, nos lleva a prever que el precio medio de DRAM puede aumentar un 90% intertrimestral en el primer trimestre natural, y volver a crecer en el segundo trimestre; El motor es la demanda en aumento de Servidor AI, que provoca un mayor desequilibrio entre oferta y demanda, ejerciendo presión ascendente sobre los precios.”

Para los productos de almacenamiento NAND, estimamos que en el primer trimestre natural el precio podría subir un 55% intertrimestral y volver a aumentar en el segundo trimestre, impulsado principalmente por el desequilibrio dinámico del lado de la oferta, ya que los proveedores de NAND siguen desplazando la capacidad hacia productos de alto rendimiento para empresas y mantienen una extrema prudencia en la expansión de nueva capacidad.”

El analista Ackerman otorga a Micron un precio objetivo de hasta $500 en 12 meses y a SanDisk hasta $650. Al cierre de Wall Street este miércoles, Micron subió un 5.55% hasta $400.77 y SanDisk un 5.95% hasta $599, lo que significa que, según BNP PARIBAS, la trayectoria alcista iniciada en 2025 aún no ha concluido.

En un nivel más profundo, Ackerman señala que los precios spot de febrero fueron aún más fuertes, y que dada la correlación entre precios spot y futuros precios de contratos, su renovación próxima es un signo muy optimista para toda la industria del chip de almacenamiento.

Ackerman explicó: “En ciclos ascendentes, los precios spot de DRAM y NAND suelen superar significativamente los precios de los contratos. Los precios spot de DDR4 para Electrónica de Consumo subieron un 11% intertrimestral en febrero (lo que implica un aumento anual del 1284%) hasta $21.93/GB, mientras los contratos subieron un 7% intertrimestral (anual +688% en el caso de Nvidia) hasta $12.17/GB, lo que significa que el spot tiene un 80% de prima respecto al contrato. Similarmente, para DDR5 de consumo, el spot subió un 9% intertrimestral (anual +673%) hasta $19.13/GB, y el contrato un 3% intertrimestral (anual +384%) hasta $11.04/GB, dando una prima del 73%.

Por otro lado, varios medios internacionales informaron este miércoles que el gigante Samsung ha subido los precios DRAM más de un 100%. Según Electronic News de Corea, Samsung Electronics finalizó el mes pasado la negociación de precios para el suministro DRAM en el primer trimestre con Apple y otros grandes clientes, ajustando el precio promedio de servidores, PC y DRAM móvil un 100% respecto al trimestre pasado, duplicando el precio respecto al cuarto trimestre del año pasado, y algunos clientes y productos experimentaron aumentos superiores al 100%. Según fuentes del sector, la negociación está concluida y algunos clientes internacionales ya han pagado. Este incremento, respecto al nivel del 70% negociado en enero, se amplía en 30 puntos porcentuales en solo un mes.

La rápida subida de precios está reformando la práctica tradicional de contratos de la industria de almacenamiento a largo plazo, especialmente debido a la creciente dependencia del sistema GPU/TPU hacia HBM, DRAM y SSD empresariales, lo que provoca un desequilibrio permanente entre oferta y demanda. Los ciclos de negociación de suministro han pasado del contrato anual a trimestral, y ahora incluso requieren ajustes mensuales, reflejando la gravedad del desequilibrio del mercado de chip de almacenamiento.

“La cadena de potencia de cómputo AI de Google” y la “cadena GPU de Nvidia” son inseparables del almacenamiento

Ya sea el gigantesco clúster TPU AI liderado por Google, o el gigantesco clúster GPU AI de Nvidia, todos requieren integración total de sistemas de almacenamiento HBM junto a chip AI. Además de HBM, Google, OpenAI y otros gigantes tecnológicos siguen construyendo o expandiendo rápidamente centros de datos AI, requiriendo compras masivas de memoria DDR5 para servidores y soluciones de almacenamiento empresarial SSD/HDD; diferente a Seagate y Western Digital (centrados en HDD de gran capacidad), SanDisk focaliza en eSSD de alto rendimiento, y Samsung Electronics, SK Hynix y Micron coinciden en abarcar campos clave: HBM, DRAM para servidores (incluyendo DDR5/LPDDR5X) y SSD de gama alta para centros de datos (eSSD), siendo los beneficiarios directos de la era “Pila de Memoria y Almacenamiento AI”, cosechando la “superbonanza” de infraestructura AI.

En términos de hardware fundamental, el cómputo AI está limitado no solo por el poder de cómputo, sino por la “capacidad de transferencia de datos”. Tanto para GPU de Nvidia como para sistemas TPU, la eficiencia real para entrenar y inferir modelos grandes depende no solo del número de Tensor Core/unidades de matriz, sino de la velocidad de banda en la que se alimentan pesos, KV cache, valores de activación y tensores intermedios al núcleo de cómputo.

Desde una perspectiva cruzada Semiconductores e infraestructura de centros de datos de AI, el chip de almacenamiento “se posiciona perfectamente” en la ola AI, ya que se beneficia simultáneamente de la expansión de entrenamiento y de inferencia, siendo además un “peaje universal” entre plataformas, arquitecturas y ecosistemas. Cuando la era AI pase de entrenamiento a inferencia, Agent, contextos largos y búsquedas mejoradas, la demanda de capacidad, ancho de banda, eficiencia energética y persistencia de datos se intensifica.

Un documento oficial de Google afirma específicamente que Cloud TPU incorpora HBM (Memoria de alta banda), permitiendo modelos de mayor cantidad de parámetros y batch size; el Ironwood TPU, pensado para la “era de inferencia”, incrementa aún más la capacidad y el ancho de banda HBM. En el lado de Nvidia, el sistema GPU AI se basa directamente en esto: la arquitectura Blackwell Ultra permite equipar hasta 288GB de HBM3e por GPU, mientras que el sistema rack GB300 NVL72 se centra en la capacidad HBM para ampliar la escala de inferencia de contextos largos. En otras palabras, sin HBM, la potencia de pico de GPU/TPU es imposible de aprovechar; la capacidad y ancho de banda de almacenamiento determinan si los modelos grandes pueden ejecutarse a máxima capacidad y velocidad.

Además, el sistema de almacenamiento en centros de datos AI depende mucho más que solo de HBM. La jerarquía completa de almacenamiento AI consiste en: HBM para el suministro más rápido a aceleradores, DDR5/RDIMM/LPDRAM para expansión de memoria y procesamiento de datos en el host, SSD empresarial para datasets, checkpoints, bases de vectores, RAG y cachés de inferencia. Micron define oficialmente su solución para centros de datos AI como un “conjunto completo de dispositivos de almacenamiento” para la eficiencia de entrenamiento e inferencia, aclarando que su línea eSSD se usa para mantener el flujo eficiente de datos en todo el pipeline AI. TrendForce señala que, a medida que llega la era de inferencia AI, los gigantes de computación en la nube de Norteamérica aumentan rápidamente la compra de almacenamiento de alto rendimiento, y la demanda de eSSD supera las expectativas. En otras palabras, los clústeres GPU AI requieren almacenamiento, y los clústeres TPU de Google también lo requieren (la diferencia está en la marca del acelerador), pero la infraestructura de almacenamiento debe basarse en la pirámide HBM+DRAM servidor+NAND/SSD.

Los analistas de Citi, en su último pronóstico de precios de almacenamiento, exhiben una postura aún más agresiva sobre el “superciclo de almacenamiento” que UBS, Nomura y JP Morgan. Consideran que, impulsados por la popularización del AI Agent (flujos de trabajo de agente inteligente) y el aumento explosivo de demanda de memoria para CPU AI, los precios de chip de almacenamiento subirán descontroladamente en 2026, llevando la previsión de ASP DRAM de 53% a 88% y la de NAND de 44% a 74%; y por la fuerza dual de demanda de entrenamiento e inferencia, el ASP DRAM servidor podría aumentar un 144% anual en 2026 (antes: +91%); por ejemplo, el precio de DDR5 RDIMM 64GB llegará a $620 en el primer trimestre de 2026, creciendo un 38% intertrimestral, muy por encima del pronóstico anterior de $518.

En el campo NAND, Citi también se muestra radical, elevando la expectativa de ASP de 2026 de +44% a +74%; para SSD empresariales, prevé un crecimiento anual del 87%. Según los analistas, el mercado de chips de almacenamiento entra en una fase extremadamente activa donde el poder de fijación de precios queda en manos de gigantes como Samsung, SK Hynix, Micron y SanDisk.

0
0

Disclaimer: The content of this article solely reflects the author's opinion and does not represent the platform in any capacity. This article is not intended to serve as a reference for making investment decisions.

PoolX: Haz staking y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!
© 2026 Bitget