GILEAD
Leadership Heade
Cerca
Close this search box.

Acceso il “Colossus” di Musk, un supercomputer con processori Nvidia

Quando Elon Musk si mette in testa qualcosa, gioca per vincere.

Fondata solo a luglio dell’anno scorso, la sua ultima startup di intelligenza artificiale, xAI, ha appena messo online un nuovo supercomputer soprannominato “Colossus” durante il weekend del Labor Day, progettato per addestrare il suo modello linguistico di grandi dimensioni (LLM) noto come Grok, rivale del più noto GPT-4 di Open AI.

Sebbene Grok sia limitato agli abbonati paganti della piattaforma di social media X di Musk, molti esperti di Tesla ipotizzano che alla fine costituirà l’intelligenza artificiale che alimenterà il robot umanoide Optimus del produttore di veicoli elettrici.

Musk stima che questo progetto di faro strategico potrebbe far guadagnare a Tesla mille miliardi di dollari di profitti all’anno.

Situato in Tennessee, il nuovo centro dati xAI ospita 100.000 processori Hopper H100 di Nvidia, più di qualsiasi altro cluster di calcolo AI. “Dall’inizio alla fine, è stato realizzato in 122 giorni”, ha scritto Musk, definendo Colossus “il sistema di addestramento AI più potente al mondo”.

Non finisce qui nemmeno per xAI: Musk stima di poter raddoppiare la capacità di calcolo di Colossus nel giro di pochi mesi, una volta che sarà riuscito a procurarsi 50.000 chip della nuova e più avanzata serie H200 di Nvidia, che sono il doppio più potenti.

Musk e xAI non hanno risposto alle richieste di commento di Fortune.

Costruito per addestrare Grok-3, potrebbe essere il prossimo leader dei modelli di AI

La velocità con cui Colossus è stato allestito è impressionante, dato che xAI ha scelto il sito di Memphis solo a giugno. Inoltre, diverse aziende tecnologiche di spicco, tra cui Microsoft, Google e Amazon, sono in competizione per acquistare i preziosi chip della serie Hopper di Nvidia nell’attuale corsa all’oro dell’intelligenza artificiale insieme a Musk.

Ma l’imprenditore dell’intelligenza artificiale è un apprezzato cliente di Nvidia e si è impegnato a spendere 3-4 miliardi di dollari quest’anno per l’hardware del CEO Jensen Huang, solo per Tesla. xAI ha goduto di un vantaggio grazie alla fornitura di chip AI di Tesla, già consegnati al produttore di veicoli elettrici.

Il cluster di Memphis formerà la terza generazione di Grok di Musk. “Speriamo di rilasciare Grok-3 entro dicembre, e a quel punto dovremmo arrivare all’AI più potente del mondo”, ha dichiarato a luglio l’autore di podcast conservatorici podcaster conservatore Jordan Peterson.

Una prima beta di Grok-2 è stata distribuita agli utenti il mese scorso. È stata addestrata solo con circa 15.000 processori grafici Nvidia H100, ma secondo alcuni standard è già tra i modelli di linguaggio di grandi dimensioni dell’AI più capaci, secondo le classifiche dei chatbot della concorrenza.

L’aumento del numero di GPU di quasi sette volte suggerisce che Musk non ha intenzione di cedere la corsa allo sviluppo dell’intelligenza artificiale generale a OpenAI, che ha contribuito a co-fondare alla fine del 2015 dopo aver temuto che Google stesse dominando la tecnologia. Musk ha poi litigato con l’amministratore delegato Sam Altman e ora sta facendo causa alla società per la seconda volta.

Per contribuire a pareggiare i conti, a maggio xAI ha raccolto 6 miliardi di dollari in un round di finanziamento di serie B, con l’aiuto di venture capitalist come Andreessen Horowitz e Sequoia Capital, oltre che di investitori molto facoltosi come Fidelity e la Kingdom Holding del principe saudita Alwaleed bin Talal.

Musk ha anche annunciato che proporrà al consiglio di amministrazione di Tesla di votare sull’opportunità di investire 5 miliardi di dollari nell’xAI, un passo accolto con favore da alcuni azionisti.

Il cluster di supercomputer di xAI ha tuttavia suscitato allarme a Memphis, data l’estrema fretta con cui i funzionari comunali hanno accettato il progetto, che riporta l’attività economica in una zona della città che l’ultima volta ospitava una fabbrica di elettrodomestici Electrolux.

Una delle preoccupazioni principali è la pressione che creerà sulle risorse della città. I funzionari dell’azienda municipale MLGW stimano che Colossus richieda fino a un milione di galloni d’acqua al giorno per raffreddare i server e consumerà fino a 150 megawatt di energia.

Ma Musk è uno che pensa solo in grande, e qualsiasi cosa valga la pena di essere fatta, va fatta in fretta, altrimenti si rischia di rimanere indietro rispetto alla concorrenza.

Parlando con l’autore di podcast Lex Fridman dopo che quest’ultimo ha visitato le operazioni di xAI, in rapida crescita, Musk ha detto che la velocità è una parte fondamentale del suo processo di gestione in cinque fasi.

“Ogni cosa può essere accelerata, per quanto si pensi che possa essere fatta velocemente”, ha detto il mese scorso. “Tutto può essere fatto più velocemente”.

Questa storia è stata pubblicata originariamente su Fortune.com

Foto Richard Bord – Wireimage/Getty Images

Leadership Forum
Paideia

Leggi anche

Ultima ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.