DRAM e NAND disparam juntos! Chips de armazenamento tornam-se a moeda mais valiosa da era da IA, Micron e SanDisk recebem "super bônus da IA"
De acordo com notícias da Inteligência Artificial e Centro de Dados, impulsionadas pela demanda extremamente forte, os preços de memória da série DRAM/NAND continuarão a disparar. Os dois gigantes americanos de armazenamento, Micron Technology (MU.US) e SanDisk (SNDK.US), voltaram a ser o foco dos investidores globais durante o forte ressurgimento das ações de tecnologia dos EUA na quarta-feira, com o preço das ações de ambos registrando alta diária de quase 6% no fechamento do mercado americano, impulsionando o setor de armazenamento e o índice Nasdaq em uma forte recuperação. O Banco BNP PARIBAS publicou recentemente um relatório apontando que o preço contratado de DRAM deve subir 90% no primeiro trimestre de 2026 em comparação ao trimestre anterior, enquanto o NAND, conhecido por sua curva de preços estável a longo prazo, poderá subir 55%, com a tendência de alta continuando no segundo trimestre, seguindo a trajetória de aumento iniciada no segundo semestre de 2025.
A avaliação do BNP PARIBAS sobre a alta dos preços de armazenamento não é uma visão isolada. A TrendForce recentemente revisou para cima a estimativa do preço contratado de DRAM para o primeiro trimestre de 2026, de um aumento de 55%-60% para +90% a +95% QoQ (base trimestral), enquanto o preço contratado de NAND Flash foi elevado para +55% a +60% QoQ, destacando que provedores norte-americanos de Computação em Nuvem estão aumentando rapidamente a demanda por SSDs corporativos (enterprise SSD – eSSD), impulsionando seus preços em mais 53% a 58% QoQ no primeiro trimestre do calendário. Isso confirma um fato crucial: Chip de Armazenamento tornou-se o “protagonista absoluto” na super onda de AI, não ficando atrás dos Chip de AI da NVIDIA e é um dos gargalos de oferta mais críticos, sendo o primeiro setor a enfrentar desequilíbrio entre oferta e demanda e a demonstrar poder de precificação.
O aumento feroz dos preços de armazenamento não para; BNP PARIBAS aposta em novas altas de Micron e SanDisk
O analista sênior do BNP PARIBAS, Karl Ackerman, escreveu aos clientes: “Nossa análise profunda de mais de 50 SKUs de DRAM (memória dinâmica de acesso aleatório) e mais de 75 SKUs de NAND nos contratos de preços nos faz prever que o preço médio geral de DRAM pode subir 90% QoQ no primeiro trimestre do ano natural, seguido por nova alta no segundo trimestre; o principal motivo é a crescente demanda por Servidor de AI, fomentando um desequilíbrio mais amplo entre oferta e demanda e exercendo pressão de alta contínua sobre os preços.”
“Para produtos de armazenamento da série NAND, prevemos que os preços podem subir 55% QoQ no primeiro trimestre do ano natural, com novo aumento no segundo trimestre, tendência impulsionada por desequilíbrio dinâmico no lado da oferta, já que fornecedores de NAND seguem direcionando suas capacidades para produtos corporativos de alto desempenho, mantendo extrema cautela na expansão da produção.”
O analista Ackerman atribui à Micron um preço-alvo de US$ 500 para 12 meses, e à SanDisk um alvo de US$ 650. No fechamento do mercado americano na quarta-feira, Micron subiu 5,55% a US$ 400,77, enquanto SanDisk subiu 5,95% a US$ 599; o preço-alvo do BNP PARIBAS indica que o forte mercado em alta para ambos desde 2025 ainda não terminou.
Ao aprofundar a análise, Ackerman destaca que os preços spot em fevereiro foram ainda mais fortes, considerando a correlação entre preços spot e preços futuros de contratos, com a renovação iminente de contratos, isso é altamente positivo para toda a indústria de chips de armazenamento.
Ackerman explica: “Durante ciclos de alta, os preços spot de DRAM e NAND frequentemente superam significativamente os preços contratados. O preço spot de DDR4 para Eletrônicos de Consumo subiu 11% QoQ (significando um aumento anual de impressionantes 1284%) para US$ 21,93/GB em fevereiro, enquanto o preço contratado subiu 7% (NVIDIA, aumento anual de 688%) para US$ 12,17/GB, implicando um prêmio de 80%. Similarmente, o preço spot de DDR5 para eletrônicos de consumo subiu 9% QoQ (aumento anual de 673%) para US$ 19,13/GB, enquanto o preço contratado subiu 3% (aumento anual de 384%) para US$ 11,04/GB, implicando prêmio de 73%.”
Além disso, várias mídias internacionais reportaram na quarta-feira que o gigante do setor de armazenamento, Samsung, aumentou os preços de DRAM em mais de 100%. Segundo a imprensa de eletrônicos coreana, a Samsung Electronics finalizou no mês passado as negociações de preços de DRAM do primeiro trimestre com clientes-chave como a Apple, elevando em cerca de 100% os preços médios de DRAM para servidores, PCs e dispositivos móveis em relação ao trimestre anterior, dobrando os preços do quarto trimestre do ano passado, com alguns clientes e produtos registrando aumento superior a 100%. A reportagem cita fontes do setor indicando que as negociações estão totalmente concluídas e alguns clientes internacionais já efetuaram pagamentos. Esse aumento supera em cerca de 30 pontos percentuais o patamar de 70% acordado em janeiro deste ano.
O rápido aumento dos preços está remodelando os contratos de longo prazo na indústria global de armazenamento, especialmente com a crescente dependência dos sistemas GPU/TPU em HBM, DRAM e SSDs corporativos, levando ao desequilíbrio persistente entre oferta e demanda. Os ciclos de negociação de contratos de fornecimento passaram dos tradicionais contratos anuais para contratos trimestrais, até mesmo ajustes mensais são necessários, refletindo a gravidade do desequilíbrio entre oferta e demanda no mercado de chips de armazenamento.
A “cadeia de poder computacional de AI do Google” e a “cadeia de GPU da NVIDIA” dependem do armazenamento
Seja o vasto cluster de computação TPU para AI do Google ou os enormes clusters de GPU AI da NVIDIA, ambos dependem de sistemas de armazenamento HBM totalmente integrados aos chips de AI; além do HBM, atualmente Google, OpenAI e outros gigantes aceleram construções ou expansões de data centers de AI, exigindo compras massivas de memória DDR5 para servidores e SSD/HDD corporativos de alto desempenho; diferente da Seagate e Western Digital, focadas em monopolizar HDD de grande capacidade para armazenamento nearline, SanDisk foca nos eSSD de alto desempenho, Samsung, SK Hynix e Micron, os três principais fabricantes de chips de armazenamento, estrategicamente posicionados em áreas cruciais: HBM, DRAM para servidores (incluindo DDR5/LPDDR5X) e SSD corporativo para data centers (eSSD), são os maiores beneficiários do “stack de memória + armazenamento de AI”, aproveitando integralmente os “super dividendos” do investimento em infraestrutura de AI.
Na perspectiva da teoria do hardware, a computação de AI não é limitada apenas pelo poder de processamento, mas também pela capacidade de movimentação de dados. Seja GPU da NVIDIA ou o sistema TPU, o fator decisivo para a eficiência de treinamento e inferência dos grandes modelos não é apenas a quantidade de Tensor Cores/módulos de matriz, mas sim a banda larga por segundo capaz de alimentar pesos, caches KV, valores de ativação e tensores intermediários nos núcleos de processamento.
Pela ótica cruzada entre Semicondutores e infraestrutura de data center AI, os chips de armazenamento são “perfeitamente posicionados” para aproveitar a onda da AI, pois absorvem simultaneamente as tendências de expansão de treinamento e inferência, além de serem “portais de cobrança” grandes, eficientes e universais entre plataformas, arquiteturas e ecossistemas. À medida que a era de AI migra do foco em treinamento para inferência, agentes, contexto longo, e aprimoramento por busca, a demanda do sistema por capacidade, banda larga, eficiência energética e camada de armazenamento persistente apenas se intensifica.
Segundo documento oficial do Google, o Cloud TPU possui HBM (memória de banda larga alta) para suportar modelos com mais parâmetros e maiores batch sizes; o Ironwood TPU, voltado para a “era da inferência”, aprimora ainda mais a capacidade e a banda larga do HBM. No universo NVIDIA, com foco em GPU para AI, o Blackwell Ultra pode equipar até 288GB de HBM3e por GPU, enquanto o sistema GB300 NVL72 para racks é projetado para aumentar a escala de inferência de contexto longo, centrando-se na capacidade do HBM. Em outras palavras, sem HBM, o pico de poder de processamento de GPU/TPU não pode ser efetivamente aproveitado; capacidade e banda larga de armazenamento determinam se modelos grandes podem rodar maiores, mais rápidos e completos.
Além disso, os sistemas de armazenamento dos data centers de AI realmente dependem não apenas do HBM. A camada de armazenamento AI completa é: HBM fornece dados próximos ao acelerador, DDR5/RDIMM/LPDRAM expande memória do host e pré-processa dados, eSSD corporativo lida com conjuntos de dados de treinamento, checkpoints, bancos de vetores, busca RAG e cache de inferência. Por exemplo, a Micron define sua solução de armazenamento para data centers AI como uma “conjunto completo de componentes para treino e inferência”; sua linha de eSSD foi projetada para garantir fornecimento eficiente de dados ao pipeline de AI durante treino e inferência. TrendForce aponta que, com a chegada da era de inferência de AI, provedores de computação em nuvem na América do Norte estão acelerando compras de armazenamento de alto desempenho, com demanda de eSSD superando expectativas. Ou seja, clusters de GPU AI dependem de armazenamento, clusters de TPU Google também dependem de armazenamento—a diferença está na marca do acelerador, mas o armazenamento de dados precisa ser baseado em uma pirâmide completa: HBM + DRAM para servidores + NAND/SSD.
Analistas do Citi demonstraram uma posição mais agressiva de “super ciclo de armazenamento” em seu último outlook de preços de armazenamento, muito além dos bancos UBS, Nomura e JPMorgan. Segundo o Citi, impulsionados pela popularização de AI Agent (fluxo de trabalho de agentes inteligentes de AI) e demanda crescente por memória CPU de AI, os preços de chips de armazenamento devem disparar de forma descontrolada em 2026. Assim, elevaram a previsão de alta no preço médio de DRAM (ASP) para 2026 de 53% para 88%, enquanto para NAND de 44% para 74%; impulsionados pela demanda de treino e inferência de AI, o ASP de DRAM para servidores pode subir 144% YoY em 2026 (a previsão anterior era +91%); para o produto mainstream, 64GB DDR5 RDIMM, o Citi projeta preço de US$ 620 no primeiro trimestre de 2026, aumento de 38% QoQ, bem acima da previsão anterior de US$ 518.
Na área de NAND, a previsão do Citi também é agressiva, elevando o ASP de 2026 de +44% para +74%; para SSDs corporativos, o ASP pode crescer 87% YoY. Na visão dos analistas do Citi, o mercado de chips de armazenamento entrará em um ciclo de vendas extremos, com o poder de precificação totalmente nas mãos dos gigantes Samsung, SK Hynix, Micron e SanDisk.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
Empresas de frete aéreo correm para minimizar os efeitos do conflito no Irã
A Situação do Emprego nos EUA Enfrenta Desafios

