Microsoft lancia la nuova generazione dei suoi chip AI, puntando al software di Nvidia
SAN FRANCISCO, 26 gennaio (Reuters) - Microsoft ha presentato lunedì la seconda generazione del suo chip proprietario per intelligenza artificiale, insieme a strumenti software che mirano a contrastare uno dei maggiori vantaggi competitivi di Nvidia tra gli sviluppatori.
Il nuovo chip "Maia 200" sarà operativo questa settimana in un data center in Iowa, con piani per una seconda sede in Arizona, ha dichiarato Microsoft. Si tratta della seconda generazione del chip AI chiamato Maia, introdotto da Microsoft nel 2023.
Il Maia 200 arriva mentre le principali aziende di cloud computing come Microsoft, Google di Alphabet e Amazon Web Services di Amazon.com – alcune tra i maggiori clienti di Nvidia – stanno producendo i propri chip che competono sempre più direttamente con Nvidia.
Google, in particolare, ha attirato l'interesse di grandi clienti di Nvidia come Meta Platforms, che sta collaborando strettamente con Google per colmare uno dei principali divari software tra le soluzioni AI di Google e quelle di Nvidia.
Da parte sua, Microsoft ha affermato che, insieme al nuovo chip Maia, offrirà anche un pacchetto di strumenti software per programmarlo. Tra questi c'è Triton, uno strumento software open-source a cui OpenAI, creatrice di ChatGPT, ha dato un contributo significativo e che affronta le stesse attività di Cuda, il software Nvidia che molti analisti di Wall Street considerano il principale vantaggio competitivo di Nvidia.
Come i prossimi chip di punta "Vera Rubin" di Nvidia, presentati all'inizio di questo mese, anche Maia 200 di Microsoft è prodotto da Taiwan Semiconductor Manufacturing Co utilizzando la tecnologia di produzione a 3 nanometri e utilizzerà chip di memoria ad ampia larghezza di banda, sebbene di una generazione più vecchia e lenta rispetto ai chip Nvidia di prossima uscita.
Ma Microsoft ha anche preso ispirazione dalla strategia di alcuni concorrenti emergenti di Nvidia, dotando il chip Maia 200 di una quantità significativa di quella che è nota come SRAM, un tipo di memoria che può offrire vantaggi di velocità per chatbot e altri sistemi AI quando gestiscono richieste da un gran numero di utenti.
Cerebras Systems, che di recente ha siglato un accordo da 10 miliardi di dollari con OpenAI per fornire potenza di calcolo, si affida fortemente a questa tecnologia, così come Groq, la startup da cui Nvidia ha ottenuto in licenza la tecnologia in un accordo riportato da 20 miliardi di dollari.
(Servizio di Stephen Nellis a San Francisco; Editing di Jamie Freed)
Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.
Ti potrebbe interessare anche




