Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnCommunautéPlus
DRAM et NAND montent en flèche ensemble ! Les puces de stockage deviennent la devise la plus prisée à l’ère de l’IA, Micron et SanDisk s’apprêtent à profiter d’un « super bonus IA »

DRAM et NAND montent en flèche ensemble ! Les puces de stockage deviennent la devise la plus prisée à l’ère de l’IA, Micron et SanDisk s’apprêtent à profiter d’un « super bonus IA »

金融界金融界2026/03/05 02:44
Afficher le texte d'origine
Par:金融界

Selon les informations de Finance Intelligente, sous l’impulsion d’une demande exceptionnelle pour l'intelligence artificielle et les centres de données, les prix des mémoires de la série DRAM/NAND continueront de s’envoler. Les deux géants américains du stockage, Micron Technology (MU.US) et SanDisk (SNDK.US), sont redevenus le centre d’attention des investisseurs mondiaux lors de la forte reprise des valeurs technologiques américaines mercredi. À la clôture, les actions de Micron et de SanDisk ont chacune bondi de près de 6 % en une séance, entraînant le secteur du stockage et l’indice Nasdaq dans une remontée marquée. BNP Paribas a récemment publié un rapport prévoyant que les prix contractuels de la DRAM au premier trimestre civil de 2026 pourraient augmenter de 90 % sur un trimestre, tandis que les prix de la NAND, historiquement stables, pourraient bondir de 55 %, cette tendance à la hausse devant se poursuivre au deuxième trimestre, dans le prolongement de la dynamique en cours depuis le second semestre 2025.

Les prévisions haussières de BNP Paribas sur les prix du stockage ne sont pas isolées. TrendForce a récemment revu à la hausse ses prévisions des prix contractuels de la DRAM standard pour le premier trimestre 2026, les passant de +55%-60% à +90%-95% sur un trimestre (QoQ), tandis que les prix contractuels du NAND Flash sont passés à +55%-60% QoQ. TrendForce souligne que la demande en forte hausse d’enterprise SSD (SSD d’entreprise pour centres de données, eSSD) chez les fournisseurs nord-américains de cloud computing devrait entraîner une nouvelle hausse de 53% à 58% des prix au premier trimestre calendaire. Tout cela souligne un fait clé : les puces de stockage sont devenues le « centre absolu » de la vague de l’IA, à l’égal des AI chips de Nvidia, et constituent l’un des principaux goulets d’étranglement révélant en premier les déséquilibres offre-demande et la capacité à fixer les prix dans cette nouvelle vague technologique.

L’essor furieux des prix du stockage ne faiblit pas, BNP Paribas reste optimiste quant à la progression de Micron et SanDisk

Dans un rapport destiné à ses clients, l’analyste senior de BNP Paribas, Karl Ackerman, écrit : « Notre analyse approfondie sur plus de 50 SKU DRAM (Dynamic Random Access Memory) et plus de 75 SKU NAND pour le premier trimestre civil nous amène à anticiper une augmentation de 90 % du prix de vente moyen des DRAM sur un trimestre, puis une nouvelle hausse au deuxième trimestre ; la raison principale réside dans la croissance soutenue de la demande pour les serveurs IA, qui accentue le déséquilibre offre-demande, exerçant ainsi une pression haussière continue sur les prix ».

« Concernant les produits de stockage NAND, nous prévoyons que le prix du premier trimestre civil pourrait grimper de 55 % sur un trimestre et qu’une nouvelle hausse interviendra au deuxième trimestre, cette dynamique étant principalement due à un déséquilibre structurel sur l’offre, les fournisseurs de NAND transférant régulièrement leur capacité vers le segment haut de gamme entreprise, tout en restant très prudents sur l’accroissement de nouvelles capacités. »

L’analyste Ackerman attribue à Micron un objectif de cours à 12 mois de 500 dollars et à SanDisk un objectif de 650 dollars. À la clôture de Wall Street mercredi, Micron a terminé en hausse de 5,55 % à 400,77 dollars et SanDisk en hausse de 5,95 % à 599 dollars, ce qui laisse entendre, selon BNP Paribas, que la trajectoire haussière forte de ces valeurs depuis 2025 est loin d’être terminée.

De plus, Ackerman détaille que les prix spot du mois de février ont été particulièrement robustes. Considérant la corrélation entre les prix spot et les prix contractuels à venir, l’approche des renouvellements de contrats constitue un signal très positif pour tout le secteur des puces de stockage.

Ackerman explique : « En phase ascendante, les prix spot de la DRAM et de la NAND tendent à afficher une prime significative sur les prix contractuels. Selon les prix de février, le prix spot de la DDR4 grand public a augmenté de 11 % d’un mois sur l’autre (soit +1284 % en glissement annuel) à 21,93 $/Go, tandis que le prix contractuel progressait de 7 % (Nvidia : +688 % en glissement annuel) à 12,17 $/Go, soit une prime spot de 80 %. De même, le prix spot de la DDR5 grand public a progressé de 9 % (soit +673 % en glissement annuel) à 19,13 $/Go, le prix contractuel progressant de 3 % (soit +384 % en glissement annuel) à 11,04 $/Go, soit une prime spot de 73 %. »

Par ailleurs, plusieurs médias internationaux ont rapporté mercredi que le plus grand acteur mondial du secteur, Samsung, a relevé les prix de ses produits DRAM de plus de 100 %. Selon le journal électronique coréen, Samsung Electronics aurait achevé le mois dernier la négociation des prix de la DRAM pour le premier trimestre avec ses plus gros clients dont Apple, les prix moyens sur les segments serveurs, PC et mobiles bondissant d'environ 100 % par rapport au trimestre précédent, soit un doublement par rapport au quatrième trimestre de l'an dernier. Certains clients et produits afficheraient même des hausses supérieures à 100 %. Selon des sources du secteur, ces négociations sont désormais closes et certains clients étrangers ont déjà effectué leur paiement. Cette hausse, supérieure de 30 points de pourcentage à celle, déjà spectaculaire, de 70 % négociée en janvier dernier, s’est concrétisée en seulement un mois.

La montée rapide des prix redéfinit les pratiques de contrats à long terme du secteur mondial du stockage, l’écosystème GPU/TPU dépendant toujours davantage du HBM, de la DRAM et des SSD entreprise, d’où un déséquilibre structurel persistant. Ainsi les négociations sont passées de contrats annuels à trimestriels, et désormais même mensuels, reflet de la gravité du déséquilibre offre-demande sur le marché des puces mémoire.

La « chaîne de puissance de calcul IA Google » et la « chaîne GPU Nvidia » sont indissociables du stockage

Qu’il s’agisse d’un gigantesque cluster IA TPU mené par Google, ou du vaste réseau de puissance de calcul GPU IA Nvidia, tous requièrent l’intégration complète de solutions HBM dédiées à l’IA. En plus du HBM, Google et OpenAI ainsi que d’autres géants accélèrent la création ou l’extension de centres de données IA nécessitant d’énormes quantités de stockage serveur DDR5 et de solutions de stockage entreprise haute performance SSD/HDD ; contrairement à Seagate et Western Digital, qui se concentrent sur le monopole du segment HDD de grande capacité, SanDisk se spécialise dans l’eSSD hautes performances, tandis que Samsung Electronics, SK Hynix et Micron dominent simultanément plusieurs domaines clés : HBM, DRAM serveur (y compris DDR5/LPDDR5X) et SSD entreprise pour centres de données (eSSD). Ces leaders du stockage sont les bénéficiaires directs de la vague d’infrastructure IA.

Du point de vue du matériel de base, le calcul IA n’est pas uniquement limité par la puissance de calcul, mais aussi par la capacité de gestion et de circulation des données. Que l’on parle de GPU Nvidia ou de systèmes TPU, la véritable efficacité d’entraînement et d’inférence sur les grands modèles dépend, non seulement du nombre de Tensor Core ou d’unités matricielles, mais surtout de la bande passante disponible pour alimenter les noyaux de calcul en poids, KV cache, valeurs d’activation et tenseurs intermédiaires.

En adoptant une perspective croisée entre semi-conducteurs et infrastructures de centres de données IA, les puces de stockage occupent « une place idéale » dans la vague IA, car elles répondent aux besoins d’expansion pour l’entraînement ET l’inférence, tout en constituant des plateformes de péage interopérables multiplateformes et multi-architectures. À mesure que l’ère IA migre de l’entraînement vers l’inférence, les agents, les contextes longs et la recherche augmentée, les exigences en capacité, bande passante, efficacité énergétique et persistance des données ne feront qu’augmenter.

Un document officiel de Google indique clairement que le TPU cloud intègre la HBM (mémoire à large bande passante) pour supporter des modèles à grands paramètres et de plus grosses batch sizes ; la TPU Ironwood, ciblant l’ère de l’inférence, bénéficie encore d’une capacité et d’une bande passante HBM accrues. Du côté Nvidia, l’architecture AI GPU Blackwell Ultra permet à une seule puce de gérer jusqu’à 288 Go de HBM3e, tandis que le système rack GB300 NVL72 s’appuie sur une capacité HBM massive pour amplifier l’inférence de contexte long. Autrement dit, sans HBM, la puissance maximale des GPU/TPU ne peut être exploitée efficacement ; la capacité et la bande passante du stockage déterminent la capacité des modèles à « tourner plus grand, plus vite et à plein régime ».

En outre, les systèmes de stockage sur lesquels reposent véritablement les centres de données IA ne se limitent pas à la HBM. L’architecture complète de stockage IA comprend : HBM pour l’alimentation ultra-rapide des accélérateurs, DDR5/RDIMM/LPDRAM pour l’extension de la mémoire hôte et le prétraitement des données, et SSD entreprise pour les jeux de données d’entraînement, checkpoints, bases de données vectorielles, RAG et caches d’inférence. Par exemple, Micron définit officiellement une solution de stockage IA pour data centers comme un « portefeuille complet couvrant entraînement et inférence » ; la marque précise aussi que sa gamme eSSD permet d’assurer une alimentation continue et rapide des données pour les workflows IA d’entraînement et d’inférence. TrendForce indique également qu’avec l’arrivée de l’ère de l’inférence IA, les géants nord-américains du cloud augmentent rapidement leurs achats de stockage haute performance, la demande en eSSD dépassant largement les attentes. En d’autres termes, les clusters GPU IA requièrent du stockage, tout comme les clusters TPU Google ; la seule différence réside dans la marque de l’accélérateur, la base de données s’appuyant sur une pyramide complète : HBM + DRAM serveur + NAND/SSD.

Les analystes du groupe Citi proposent une position encore plus agressive sur le « super cycle du stockage » que UBS, Nomura ou JP Morgan dans leurs dernières perspectives sur les prix du stockage. Selon eux, la démocratisation des Agents IA (workflows IA autonomes) et la demande explosive pour la mémoire CPU IA feront exploser les prix des puces de stockage en 2026. Citi relève donc ses prévisions de hausse de l’ASP DRAM pour 2026 de 53 % à 88 %, et celles du NAND de 44 % à 74 %. Portées par la double dynamique de l’entraînement et de l’inférence IA, l’ASP DRAM serveur devrait, selon Citi, bondir de 144 % en 2026 (contre +91 % initialement prévu). Pour le produit vedette, le DDR5 RDIMM 64 Go, Citi estime que son prix atteindra 620 $ au premier trimestre 2026, soit un bond de 38 % sur un trimestre, nettement supérieur à la prévision précédente de 518 $.

Dans le domaine du NAND, les prévisions de Citi sont tout aussi fortes, l’ASP de 2026 passant de +44 % à +74 % ; l’ASP SSD entreprise devrait grimper de 87 % en glissement annuel. Selon les analystes de Citi, le marché des puces mémoire entre dans une ère de forte domination des vendeurs, la capacité de fixation des prix étant totalement entre les mains de géants tels que Samsung, SK Hynix, Micron et SanDisk.

0
0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !
Bitget© 2026