Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosEarnCentroMás
¡DRAM y NAND avanzan juntos a toda velocidad! Los chips de almacenamiento se convierten en la moneda más fuerte de la era de la IA; Micron y SanDisk reciben la “super bonanza de IA”

¡DRAM y NAND avanzan juntos a toda velocidad! Los chips de almacenamiento se convierten en la moneda más fuerte de la era de la IA; Micron y SanDisk reciben la “super bonanza de IA”

金融界金融界2026/03/05 02:44
Mostrar el original
Por:金融界

Según información de Zhihui Finance traducida al español argentino, impulsados por una demanda extremadamente fuerte de inteligencia artificial y centros de datos, los precios de la serie de memorias DRAM/NAND seguirán disparándose. Los dos gigantes estadounidenses del almacenamiento, Micron Technology (MU.US) y SanDisk (SNDK.US), volvieron a ser el centro de atención de los inversores globales con el fuerte repunte de las acciones tecnológicas estadounidenses el miércoles, registrando ambas subas cercanas al 6% al cierre bursátil, impulsando al sector de almacenamiento y al índice Nasdaq en una fuerte recuperación. Recientemente, BNP Paribas publicó un informe en el que señala que se espera que el precio contractual de DRAM se dispare un 90% trimestre a trimestre en el primer trimestre del año calendario 2026, mientras que el NAND, conocido por su curva de precios estable, podría subir un 55%, continuando la tendencia alcista que se inició en la segunda mitad de 2025.

La visión de BNP Paribas sobre el alza de precios de almacenamiento no es un posicionamiento aislado. TrendForce revisó recientemente su previsión para el precio contractual regular de DRAM para el primer trimestre de 2026 desde un aumento estimado del 55%-60% a un +90% a +95% (QoQ, es decir, base trimestral), y para contratos de NAND Flash, a un +55% a +60% QoQ, señalando que la demanda de SSD empresariales para centros de datos (eSSD) por parte de las empresas norteamericanas de cloud computing está aumentando drásticamente, impulsando sus precios entre un 53% y un 58% más en el primer trimestre calendario. Todo esto demuestra un hecho clave: los chips de almacenamiento se han convertido en una pieza central dentro de la ola de la AI, a la par de los chips AI de NVIDIA, y siguen siendo uno de los principales cuellos de botella del suministro donde primero se refleja el desequilibrio entre oferta y demanda y el poder de fijación de precios.

El frenesí de precios de almacenamiento no se detiene: BNP Paribas apuesta por que Micron y SanDisk seguirán despegando

Karl Ackerman, analista senior de BNP Paribas, escribió en un informe para clientes: “Nuestro profundo análisis de precios contractuales de más de 50 SKU de DRAM (Memoria de Acceso Aleatorio Dinámico) y más de 75 SKU de NAND para el primer trimestre del año calendario nos permite estimar que el precio promedio de DRAM podría incrementarse un 90% trimestre contra trimestre, y volvería a subir fuertemente el segundo trimestre; la razón principal es el creciente desequilibrio entre oferta y demanda provocado por la elevada demanda de servidores AI, generando una presión alcista sostenida sobre los precios.”

Para productos de almacenamiento de la serie NAND, prevemos que los precios podrían subir un 55% trimestre a trimestre en el primer trimestre del año calendario, y luego volver a subir en el segundo trimestre, una dinámica impulsada principalmente por el desequilibrio del lado de la oferta, ya que los proveedores de NAND siguen migrando capacidad hacia productos empresariales de alto rendimiento, al tiempo que se muestran extremadamente cautos respecto a nuevas expansiones de capacidad.”

El analista Ackerman estableció un precio objetivo de hasta 500 dólares para Micron en los próximos 12 meses y de hasta 650 dólares para SanDisk. Al cierre del mercado estadounidense el miércoles, las acciones de Micron subieron 5,55% hasta los 400,77 dólares, mientras que las de SanDisk subieron 5,95% a 599 dólares; los precios objetivo de BNP Paribas sugieren que el ciclo alcista de ambos desde 2025 aún no ha terminado.

En un análisis más profundo, Ackerman de BNP Paribas destaca que los precios spot de febrero son aún más fuertes, y considerando la correlación entre precios spot y futuros contratos, este es un muy buen augurio para toda la industria de chips de almacenamiento a medida que se acercan las renovaciones contractuales.

Ackerman explica: “En los ciclos alcistas, los precios spot de DRAM y NAND suelen estar significativamente por encima de los contratos. Según la fijación de precios de febrero, el precio spot de DDR4, categoría electrónica de consumo, aumentó un 11% intertrimestral (lo que implica un incremento interanual del 1284%) hasta 21,93 dólares por GB, mientras que el contrato subió un 7% (año contra año +688%) hasta 12,17 dólares por GB, representando el precio spot una prima del 80% sobre el contrato. De manera semejante, el precio spot de la DDR5 para electrónica de consumo subió un 9% trimestre a trimestre (un 673% en términos anuales) hasta 19,13 dólares por GB, mientras que el precio contractual subió un 3% (un 384% interanual) hasta 11,04 dólares por GB, siendo la prima del spot del 73% respecto al contrato.”

Por otra parte, varios medios internacionales informaron el miércoles que el gigante Samsung, líder en la industria de almacenamiento, incrementó los precios de sus productos DRAM en más del 100%. Según Electronic News de Corea, Samsung Electronics cerró negociaciones con Apple y otros grandes clientes el mes pasado sobre los precios de suministro de DRAM para el primer trimestre, con aumentos promedio de aproximadamente el 100% frente al trimestre anterior tanto para servidores, PC y dispositivos móviles, el doble que en el último trimestre de 2023 e incluso con subas superiores al 100% para algunos clientes y productos. La nota, citando fuentes del sector, indicó que las negociaciones se han cerrado por completo y algunos clientes internacionales ya han realizado los pagos. Este aumento representa una expansión de 30 puntos porcentuales sobre el nivel del 70% acordado en enero de este año, en apenas un mes más.

El acelerado aumento de precios está redefiniendo los contratos de largo plazo de la industria global del almacenamiento, sobre todo porque la creciente dependencia de arquitecturas GPU/TPU en HBM, DRAM y SSD empresariales genera un desequilibrio estructural en la oferta y demanda. Las negociaciones que tradicionalmente se hacían de forma anual ahora se han acortado a contratos trimestrales, e incluso con ajustes mensuales, reflejando la gravedad del desequilibrio en el mercado de chips de almacenamiento.

La “cadena de cómputo de inteligencia artificial de Google” y la “cadena GPU de NVIDIA” son imposibles sin almacenamiento

Tanto los enormes clusters de TPU AI liderados por Google como los de GPU AI de NVIDIA requieren integración total con sistemas de almacenamiento HBM orientados a AI, y además de HBM, los gigantes tecnológicos como Google y OpenAI que están acelerando la construcción o expansión de centros de datos AI también precisan comprar en grandes volúmenes almacenamiento de servidor DDR5 y soluciones empresariales de SSD/HDD de alto rendimiento; a diferencia de Seagate y Western Digital, que monopolizan el segmento HDD masivo nearline, SanDisk se posiciona en eSSD de alto rendimiento, y los grandes fabricantes de chips de almacenamiento Samsung Electronics, SK hynix y Micron dominan múltiples áreas núcleo: HBM, DRAM de servidor (incluyendo DDR5/LPDDR5X), y SSD empresariales de data center (eSSD). Son los principales ganadores inmediatos de la “super ola de infraestructura AI” en el stack de memoria y almacenamiento para AI.

Desde el punto de vista del hardware, la computación AI no solo está limitada por el procesamiento, sino por la “capacidad de movimiento de datos”. Tanto las GPU de NVIDIA como las arquitecturas TPU dependen no solo del número de Tensor Cores o matrices, sino fundamentalmente del ancho de banda por segundo para alimentar pesos, KV cache, valores de activación y tensores intermedios al core de cómputo.

Desde una mirada cruzada entre semiconductores e infraestructura de centros de datos AI, los chips de almacenamiento ocupan un lugar clave en la ola de AI porque se benefician tanto del crecimiento del entrenamiento como del de la inferencia, y además operan como “peajes universales” entre plataformas, arquitecturas y ecosistemas. A medida que la era de la AI pasa del entrenamiento a la inferencia, los agentes, los contextos largos y el RAG, las demandas sobre capacidad, ancho de banda, eficiencia energética y capas de almacenamiento persistente no hacen más que aumentar.

Un documento oficial de Google señala claramente que Cloud TPU integra HBM (memoria de alto ancho de banda) para soportar modelos de mayor tamaño y batch size; las TPU Ironwood, orientadas a la “era de la inferencia”, elevan aún más la capacidad y ancho de banda HBM. En NVIDIA, su arquitectura Blackwell Ultra equipa cada GPU con hasta 288GB de HBM3e, y el sistema de rack GB300 NVL72 está diseñado en torno a una capacidad de HBM masiva para mejorar el throughput en inferencia de contexto largo. En otras palabras, sin HBM, la potencia bruta de las GPU/TPU no puede ser plenamente aprovechada; la capacidad y el ancho de banda de almacenamiento determinan si un modelo puede correr en grande, rápido y a plena capacidad.

Además, el sistema de almacenamiento en los centros de datos AI no se basa solamente en HBM. La arquitectura completa consta de varias capas: el HBM suministra datos en alta velocidad desde la memoria más cercana al acelerador, DDR5/RDIMM/LPDRAM sirven para ampliar la memoria y el preprocesamiento de datos, y las SSD empresariales almacenan datasets de entrenamiento, checkpoints, bases vectoriales, cachés de inferencia y otros datos persistentes. Por ejemplo, Micron define su solución de almacenamiento para data centers AI como un “portfolio de memoria completo” para entrenamiento e inferencia; también aclara que su línea eSSD está diseñada para mantener el suministro eficiente de datos en pipelines de AI tanto en entrenamiento como inferencia. TrendForce también destaca que, con la llegada de la era de inferencia AI, los grandes de cloud computing en Norteamérica están incrementando drásticamente la compra de almacenamiento de alto rendimiento, superando ampliamente las previsiones en demanda de eSSD. Es decir, los clusters de GPU de AI necesitan almacenamiento, tanto como los clusters TPU de Google; la única diferencia es la marca del acelerador, pero el almacenamiento básico es siempre la pirámide completa de HBM + DRAM servidor + NAND/SSD.

Los analistas de Citi tienen una visión aún más agresiva que UBS, Nomura y JP Morgan respecto al “superciclo de almacenamiento”, según su última perspectiva de precios. Citi cree que, impulsado por la popularización de los agentes de AI (workflows tipo “AI Agent”) y la explosión de la demanda de memoria para CPU AI, los precios de los chips de almacenamiento podrían salir completamente de control en 2026; por eso, aumentaron su previsión de crecimiento del precio promedio de DRAM (ASP) para 2026 del 53% al 88%, y el de NAND del 44% al 74%; impulsado por el doble efecto de entrenamiento e inferencia AI, el ASP del DRAM servidor crecería 144% interanual en 2026 (frente a la previsión previa de 91%). Tomando como ejemplo el producto mainstream DDR5 RDIMM 64GB, Citi espera que su precio alcance 620 dólares en el primer trimestre de 2026, un 38% más que el trimestre anterior y muy por encima de la estimación previa de 518 dólares.

En NAND, Citi también ajustó su previsión e incrementó el ASP esperado para 2026 del 44% al 74%; en particular, el ASP de los SSD empresariales crecería un 87% interanual. Para los analistas de Citi, el mercado de chips de almacenamiento entrará en un ciclo sumamente favorable para los vendedores, quedando el poder de fijación de precios en manos de gigantes como Samsung, SK hynix, Micron y SanDisk.

0
0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Haz staking y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!
© 2026 Bitget