L’iniziativa xAI di Elon Musk, che mira a costruire il più grande supercomputer del mondo a Memphis, nel Tennessee, rappresenta un’incursione degna di nota nel campo delle infrastrutture dell’intelligenza artificiale. La “gigafactory of computing”, un’iniziativa ambiziosa, mira a trasformare la capacità di elaborazione disponibile per l’inferenza e la formazione dei modelli di intelligenza artificiale. L’iniziativa arriva in un momento in cui xAI, una startup fondata da Musk per rivaleggiare con OpenAI, cerca di affermarsi come leader nel settore dell’intelligenza artificiale sviluppando Grok, un’intelligenza artificiale nota per il suo spirito e il suo carattere ribelle.
xAI attualmente dipende dai data center di X (ex Twitter) e dai servizi cloud di Oracle per la formazione e il miglioramento del suo modello di base Grok. Questa dipendenza evidenzia la necessità per xAI di sviluppare la propria infrastruttura dedicata. La gigafactory proposta a Memphis è destinata a fornire questa soluzione, creando un hub centralizzato per lo sviluppo dell’intelligenza artificiale che promette di migliorare l’efficienza e le prestazioni.
xAI di Elon Musk costruirà il supercomputer più grande del mondo a Memphis
Il piano per costruire questa struttura all’avanguardia è ancora in attesa di approvazione da parte del motore per la crescita dello sviluppo economico della contea di Memphis Shelby e di altre autorità locali. Nonostante ciò, si avverte un tangibile senso di entusiasmo per l’iniziativa. Il sindaco di Memphis Paul Young ha espresso il suo entusiasmo, sottolineando lo spirito innovativo della città e la disponibilità a ospitare un’impresa così trasformativa. Doug McGowen, CEO di Memphis Light, Gas and Water (MLGW), ha fatto eco a questi sentimenti, sottolineando i potenziali benefici per la comunità, tra cui la creazione di posti di lavoro e maggiori entrate per i servizi locali.
L’azienda xAI ha appena raccolto 6 miliardi di dollari per sostenere i suoi progetti di intelligenza artificiale, dimostrando la forza dell’ambiente finanziario del settore. Questo round di finanziamento ha spinto la valutazione dell’azienda a ben 24 miliardi di dollari. Questi soldi sono destinati soprattutto alla costruzione di infrastrutture all’avanguardia, come la gigafactory per i supercomputer situata vicino a Memphis. Con questo sostegno finanziario, xAI è in una posizione migliore per compiere importanti progressi nel settore dell’intelligenza artificiale, dimostrando ulteriormente la portata e la serietà delle sue ambizioni.
Dato il ritmo del miglioramento tecnologico, non vale la pena investire 1 GW di potenza negli H100.
IL @xAI Il cluster di formazione H100 raffreddato a liquido da 100.000 sarà online tra pochi mesi.
Il prossimo grande passo sarebbe probabilmente quello di circa 300.000 B200 con rete CX8 la prossima estate.
—Elon Musk (@elonmusk) 2 giugno 2024
La visione di Musk per xAI va oltre la semplice competizione con OpenAI; implica la creazione di una potenza tecnologica in grado di ampliare i confini delle capacità dell’intelligenza artificiale. Il modello Grok, sviluppato in soli quattro mesi, testimonia il rapido ritmo di sviluppo e l’approccio innovativo della startup. Il successo del progetto è in parte attribuito a Project IDE, l’ambiente di sviluppo di xAI per l’ingegneria rapida, che consente agli ingegneri di mettere a punto in modo efficiente gli output del modello.
Questa non è la prima incursione di Musk nel supercalcolo. Tesla sta lavorando silenziosamente al suo progetto di supercalcolo, Dojo, dal 2021. Dojo rappresenta lo sforzo di Tesla per rafforzare le sue capacità di formazione sull’intelligenza artificiale, con il primo cluster che sarà online nel 2023. Come parte di questo sforzo, Tesla ha acquistato una quantità considerevole di hardware, comprese circa 85.000 GPU H100 di Nvidia, come ha rivelato la società in una conferenza sugli utili del primo trimestre in aprile.
È interessante notare che alcuni di questi chip Nvidia originariamente destinati a Tesla sono stati reindirizzati a xAI. Secondo le e-mail ottenute dalla CNBC, circa 12.000 GPU H100 sono state reindirizzate per supportare lo sviluppo di Grok. Questa allocazione strategica delle risorse evidenzia la natura interconnessa delle iniziative di Musk e gli sforzi di collaborazione per far avanzare la tecnologia dell’intelligenza artificiale.
La frontiera è in testa, ma xAI e Tesla mirano a dominare il supercalcolo
Il titolo di supercomputer più potente del mondo appartiene attualmente a Frontier, che a maggio era al primo posto nell’ultima classifica Top500. Tuttavia, i progetti di supercalcolo di xAI e Tesla devono affrontare la forte concorrenza di altri potenti sistemi, tra cui Aurora, che si è classificato secondo nonostante non sia ancora pienamente operativo. Questo ambiente competitivo guida l’innovazione e il miglioramento continui nel campo del supercalcolo, spingendo i limiti di ciò che è possibile.
Con la prevista gigafactory a Memphis, xAI sarà all’avanguardia nell’innovazione tecnica e avrà un grande impatto nel mondo dell’intelligenza artificiale. Mentre il progetto attende l’approvazione e si avvicina alla realizzazione, cresce l’attesa per quella che potrebbe diventare una pietra angolare nell’evoluzione dell’infrastruttura AI.
Credito immagine in primo piano: William Daigneault/Unsplash
Source: xAI di Elon Musk progetta un mega hub di supercomputer a Memphis