Cerebras Systems et Amazon concluent un accord pour proposer les puces IA de Cerebras sur le cloud d'Amazon
SAN FRANCISCO, 13 mars (Reuters) - Amazon.com et Cerebras Systems ont annoncé vendredi avoir conclu un accord pour combiner les puces informatiques des deux entreprises dans un nouveau service destiné à accélérer les chatbots, les outils de codage et d'autres services d'intelligence artificielle.
Évaluée à 23,1 milliards de dollars, Cerebras est une startup de semi-conducteurs qui vise à concurrencer Nvidia en développant un type de puce d’IA fondamentalement différent, qui ne repose pas sur une mémoire à large bande passante coûteuse comme le font les puces phares de Nvidia. Plus tôt cette année, Cerebras a signé un contrat de 10 milliards de dollars pour fournir des puces au créateur de ChatGPT, OpenAI.
Selon l’accord annoncé vendredi, les puces Cerebras seront installées dans les centres de données Amazon Web Services (AWS) et seront reliées aux puces d’IA personnalisées Trainium3 d’Amazon, connectées grâce à une technologie de réseau personnalisée développée par Amazon.
« Tous les clients, grands ou petits, sont sur AWS, des développeurs individuels aux plus grandes banques du monde », a déclaré Andrew Feldman, PDG de Cerebras, à Reuters, précisant que l’accord permettra « d’accéder à Cerebras aussi facilement qu’un simple clic ».
Les deux entreprises ont refusé de révéler le montant de l'accord.
Amazon et Cerebras s'associeront pour relever le défi dit de "l'inférence", où des systèmes d’intelligence artificielle déjà entraînés reçoivent des requêtes d’utilisateurs et fournissent des réponses. Les deux sociétés vont diviser cette tâche en deux étapes : la première, appelée "pré-remplissage", consiste à transformer la requête de l’utilisateur, exprimée en langage humain, en "jetons" compréhensibles par l’ordinateur d’IA, et la seconde, le "décodage", où l’ordinateur d’IA fournit la réponse recherchée par l’utilisateur.
Amazon a indiqué que ses puces Trainium3 géreront la phase de pré-remplissage, tandis que les puces Cerebras s’occuperont du décodage, ce que Feldman a qualifié auprès de Reuters de « stratégie de division pour mieux régner ».
Il s’agit d’une stratégie similaire à celle que les analystes s’attendent à voir dévoilée par Nvidia la semaine prochaine, lorsqu'elle détaillera comment elle prévoit de combiner ses propres puces GPU avec celles de Groq, une start-up dans laquelle elle a investi 17 milliards de dollars fin décembre. Dans un communiqué, Amazon a déclaré qu’il n’était pas encore en mesure de comparer en détail son offre, qui sera disponible au cours du second semestre de cette année, à celle de Nvidia, qui n’a pas encore été révélée, mais Amazon s’attend à ce que son service offre un meilleur rapport qualité-prix.
« Le calendrier pour ce partenariat (Nvidia-Groq) reste incertain, alors que notre programme Trainium3 n’est plus qu’à quelques mois de l’exécution de charges de travail en production », a précisé Amazon en réponse aux questions de Reuters. « Ce que nous pouvons dire, c’est que nous pensons que (Trainium3) — et à l’avenir (Trainium4) — continueront de dominer en matière de rapport qualité-prix face aux GPU du marché. »
(Reportage de Stephen Nellis à San Francisco, édition par Franklin Paul)
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
Pourquoi Antero Midstream (AM) a-t-il augmenté de 9,3 % après sa dernière annonce de résultats ?
