Après avoir offensé le ministère de la Défense, la collaboration entre Anthropic et Palantir pourrait également être compromise.
L'interdiction imposée par le Pentagone n'a pas seulement fait perdre à l’unicorn de l’IA Anthropic un contrat important avec l'armée, elle a également déclenché un effet domino, forçant le géant des données Palantir, fournisseur attitré du gouvernement américain, à envisager une rupture totale de leurs liens.
Selon le dernier rapport de The Information, Anthropic travaillait avec Palantir depuis plus d'un an pour fournir des services au gouvernement américain. Les clients de Palantir utilisaient les modèles d’Anthropic pour identifier des tendances dans d’énormes volumes de données confidentielles afin d'aider à la prise de décisions. Cependant, depuis que le Département de la Défense a classé Anthropic comme un « risque pour la chaîne d'approvisionnement », cette collaboration est désormais en grand danger.
En tant que contractant gouvernemental très prisé, environ 42 % des près de 4,5 milliards de dollars de revenus de Palantir l’an dernier provenaient de contrats avec le gouvernement américain. Si Palantir cesse d'utiliser Anthropic dans ses activités fédérales, cela privera la startup d’IA d’une source de revenus. Même si cette part pèse peu dans les revenus d’Anthropic, attendus à 18 milliards de dollars cette année, la perte de Palantir comme partenaire clé porterait indéniablement un coup à l’expansion d’Anthropic dans le segment des grands comptes.
Palantir pourrait devoir modifier ses logiciels, le CEO critique à demi-mot Anthropic
Selon des sources citées par les médias, Palantir propose à ses clients des logiciels sur mesure et des applications d'IA, dont certains sont spécifiquement conçus pour fonctionner avec le modèle Claude d’Anthropic. Si Palantir abandonne Claude, il lui faudra modifier ces services, ce qui pourrait durer plusieurs semaines. Néanmoins, Palantir pourrait se tourner vers d'autres fournisseurs de modèles d'IA et générer des revenus équivalents avec ces contrats.
Alex Karp, CEO de Palantir, a semblé critiquer Anthropic sans les nommer lors d’un sommet sur la technologie de la défense, mardi à Washington. Il a dénoncé la défiance de la Silicon Valley envers l’armée américaine, et mis en garde contre le risque pour les entreprises d’IA de provoquer aussi bien les libéraux que les conservateurs.
« Si la Silicon Valley pense que nous allons prendre les emplois de tous les cols blancs... et qu’en plus vous essayez de piéger l’armée, si vous ne pensez pas que cela va conduire à la nationalisation de notre technologie, alors vous êtes vraiment stupide, » a déclaré Karp. « C’est ainsi que cette trajectoire évolue. »
Anthropic envisage une action en justice, cherche à rassurer ses clients
Vendredi dernier, à la suite d’un désaccord avec Anthropic sur les restrictions d’utilisation de son IA par l’armée, le secrétaire à la Défense Pete Hegseth a déclaré avoir ordonné que le gouvernement qualifie Anthropic de « risque pour la chaîne d’approvisionnement ».
Le Pentagone exige qu’Anthropic autorise Claude pour « tous les usages légaux », mais Anthropic, s’inquiétant de la « surveillance de masse » et des « armes entièrement autonomes », a refusé de céder.
Le président américain Trump a annoncé vendredi dernier sur Truth Social que les agences telles que le Département de la Défense qui utilisent des produits Anthropic disposeront d’une « période de transition de six mois ».
Dario Amodei, CEO d’Anthropic, a fait valoir que cette mesure ne s'appliquerait qu’à « l’utilisation de Claude dans le cadre de contrats avec le Département de la guerre », (expression privilégiée par l’administration Trump pour évoquer le Département de la Défense). Selon des experts juridiques, Anthropic pourrait tout à fait contester cette décision, notamment parce que ces lois s'appliquent généralement à des entreprises non américaines.
D’après les médias citant des sources proches du dossier, Anthropic a également annoncé vendredi dernier qu’il lancerait une action en justice contre cette qualification de risque pour la chaîne d’approvisionnement. Comme la mesure n’est pas encore en vigueur, Anthropic n’a pas encore intenté de procès.
Anthropic tente de rassurer ses clients et partenaires commerciaux en affirmant que la décision du Département de la Défense (si elle est appliquée) limiterait seulement l’usage de la technologie d’Anthropic aux contractants gouvernementaux pour des activités militaires américaines, et non auprès de toute société collaborant avec l’administration fédérale.
Les contractants fédéraux en attente d’instructions gouvernementales
D’après des sources familières des produits Palantir, l’entreprise permet aujourd’hui à ses clients de choisir parmi les fournisseurs tels qu’Anthropic, OpenAI et Google, le modèle d’IA qu’ils souhaitent utiliser lors de l’analyse de leurs données collectées sur la plateforme. Le Pentagone utilise notamment le modèle d’Anthropic via Amazon Web Services (AWS) en collaboration avec le logiciel de Palantir.
Selon des personnes renseignées sur la façon dont le Pentagone exploite ces produits, en plus du modèle d’Anthropic, le Pentagone a déjà recours à des modèles proposés par OpenAI, Google et d’autres fournisseurs via le logiciel de Palantir.
Selon des employés de sociétés technologiques travaillant avec le gouvernement, à l’heure actuelle, les contractants fédéraux attendent des instructions pour savoir comment, et si besoin, rompre leurs liens avec Anthropic afin de conserver leurs contrats avec l’administration fédérale.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

