Tout le monde veut apprendre de Nvidia le modèle « puces contre financement », Google et AMD veulent tous deux soutenir le « cloud IA »
Le cercle fermé "puissance de calcul-finance" construit par Nvidia à travers son soutien à CoreWeave est tellement attractif qu'il pousse Google et AMD à "avancer prudemment", tentant de créer leur propre écosystème de puces AI à coups d’investissements massifs.
Le 20 février, selon le Wall Street Journal citant des sources proches du dossier, Google explore la possibilité d’utiliser ses solides ressources financières pour bâtir un écosystème AI plus large, sa stratégie centrale consistant à soutenir financièrement ses partenaires de centres de données, à condition qu’ils utilisent les puces TPU de Google. Parallèlement, AMD promeut également agressivement ses puces AI en garantissant des prêts pour ses clients.
Cette stratégie est perçue sur le marché comme une reproduction directe du "modèle CoreWeave" de Nvidia : il s’agit de soutenir de nouveaux fournisseurs de cloud ("Neocloud") pour contourner les géants traditionnels du cloud déjà dominés par Nvidia ou dotés de leurs propres puces, et ainsi établir leur propre "armée loyale".
Imiter Nvidia : investir dans le "cloud de nouvelle génération" et les sociétés minières
Selon des sources, Google est en discussion pour investir environ 100 millions de dollars dans la start-up cloud Fluidstack. Cette transaction valorise Fluidstack à environ 7,5 milliards de dollars.
Ce n’est pas seulement un investissement financier, c’est aussi un engagement stratégique. Les sociétés comme Fluidstack, dites "cloud émergent", sont aujourd’hui des acteurs clés du marché de la puissance de calcul AI, fournissant des services spécifiquement pour les entreprises AI. Auparavant, Nvidia avait justement soutenu CoreWeave, permettant à cette dernière d’accumuler une grande quantité de GPU et ainsi percer sur le marché.
Désormais, Google veut "répéter la recette". Selon des sources, Google souhaite amplifier le potentiel de croissance de Fluidstack via son investissement, et encourager plus de fournisseurs de calcul à utiliser ses puces AI.
Outre l’investissement direct, Google s’adresse également aux anciennes sociétés minières crypto en pleine reconversion.
Le rapport souligne que Google a déjà fourni un soutien financier (backstopped financing) à des sociétés telles que Hut 8, Cipher Mining et TeraWulf. Ces entreprises disposent d’une infrastructure de centres de données existante et cherchent à se transformer en usines de puissance de calcul AI, et le soutien financier de Google vise à favoriser leur adoption des TPU.
Le pari agressif d’AMD : si ça ne se vend pas, je le loue
Comparée à l’investissement direct de Google, la méthode d’AMD est plus agressive et montre un appétit pour le risque plus élevé.
Selon le rapport, AMD va garantir un prêt de 300 millions de dollars pour la start-up de centres de données Crusoe. Ce financement, émanant de Goldman Sachs, servira à l’achat de puces AI d’AMD.
La clause la plus remarquable concerne la "garantie de rachat". Selon des sources, si Crusoe ne trouve pas de clients pour utiliser ces puces, AMD accepte alors de les louer à Crusoe. Cela signifie qu’AMD agit comme "dernier locataire", éliminant ainsi toute inquiétude côté demande pour le client.
Cette approche peut certes booster les ventes à court terme, mais expose aussi les fabricants de puces à un risque important si la demande AI ralentit. En cas de refroidissement du marché, le bilan d’AMD en subirait directement l’impact.
Pourquoi prendre des chemins détournés ?
Si Google et AMD optent pour cette "voie détournée", c’est parce que la voie principale est déjà bloquée.
Pour Google, même si des start-ups phares comme Anthropic augmentent l’usage des TPU, les concurrents cloud traditionnels (comme Amazon AWS, Microsoft Azure) manifestent peu d’intérêt pour les TPU.
Selon des professionnels du secteur : "L’intérêt des principaux fournisseurs de services cloud semble tiède, en partie parce qu’ils considèrent Google comme un concurrent." Par ailleurs, Amazon AWS développe activement ses propres puces AI.
Soutenir des "clouds émergents" tiers et neutres est donc devenu le meilleur moyen pour Google et AMD de briser l’encerclement.
Conflits internes et goulots d’étranglement de la production
Pour accélérer la commercialisation des TPU, Google envisage même de réorganiser sa structure interne.
Selon des sources, certains dirigeants de Google Cloud ont récemment relancé un débat interne de longue date : "Faut-il réorganiser l’équipe TPU en un département indépendant". Un tel projet de scission permettrait potentiellement à Google d’introduire des capitaux extérieurs pour élargir ses opportunités d’investissement.
Cependant, Google a officiellement nié toute réorganisation. Un représentant de Google a clairement indiqué "qu’il n’y a pas de projet de restructuration du département TPU" et souligné "l’avantage à maintenir une intégration étroite de l’équipe puce avec les autres départements de l’entreprise, comme l’équipe de développement du modèle Gemini".
Outre l’organisation, le principal obstacle reste la capacité de production.
Bien qu’Alphabet collabore actuellement avec Broadcom pour concevoir les TPU, produits par TSMC, la forte demande mondiale en AI met les capacités avancées de TSMC à rude épreuve.
Selon des sources, "TSMC pourrait donner la priorité à son plus grand client, Nvidia, plutôt qu’à Google". De plus, la pénurie mondiale de puces mémoire HBM, essentielles aux puces AI, reste un problème structurel majeur pour Google dans son ambition d’augmenter les livraisons de TPU.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
