Nonostante si parli di un imminente bolla dell’IAAmazon è l’ultima azienda a trarre vantaggio dalla corsa agli armamenti legati all’intelligenza artificiale. Meta ha appena siglato un accordo con Amazon del valore di miliardi per implementare il Processori AWS Graviton nei suoi 32 information heart nei prossimi tre anni. Sebbene Amazon non abbia rivelato l’intero valore dell’accordo, abbiamo visto aziende spendere somme strabilianti per sostenere la crescita dell’intelligenza artificiale.
Recentemente, Meta ha anche firmato un contratto di sei anni da 10 miliardi di dollari trattare con Google Cloudmentre OpenAI ha accettato spendere 20 miliardi di dollari con la startup di chip Cerebras che nei prossimi tre anni utilizzerà server alimentati dall'{hardware} dell’azienda.
I processori Graviton supportano carichi di lavoro cloud eseguiti su Amazon Elastic Compute Cloud (Amazon EC2) e l’azienda afferma da tempo di offrire il miglior rapporto qualità-prezzo per i carichi di lavoro cloud.
La cosa interessante qui è che AWS Graviton è una CPU basata su ARM, piuttosto che una GPU. La CPU si riferisce all’unità di elaborazione centrale di un pc, il cervello del pc, mentre una GPU è la sua unità di elaborazione grafica, comunemente utilizzata per l’addestramento dei modelli di intelligenza artificiale.
“Mentre elaboriamo l’infrastruttura alla base delle ambizioni di intelligenza artificiale di Meta, diversificare le nostre fonti di elaborazione è un imperativo strategico”, ha affermato Santosh Janardhan, responsabile dell’infrastruttura di Meta, in una dichiarazione. “AWS è da anni un companion cloud affidabile e l’espansione a Graviton ci consente di eseguire carichi di lavoro advert uso intensivo di CPU dietro l’intelligenza artificiale con le prestazioni e l’efficienza di cui abbiamo bisogno sulla nostra scala.”
Meta è un cliente AWS di lunga information, quindi questo accordo sui chip non è una sorpresa. Ciò che è degno di nota è che coinvolge chip CPU anziché GPU.
In genere, i modelli di intelligenza artificiale vengono addestrati sulle GPU. Una volta addestrati, gli agenti AI possono utilizzare le CPU per carichi di lavoro a maggiore intensità di calcolo, come la scrittura di codice.
I chip Graviton sono progettati per essere efficienti per le attività dell’agente AI. Secondo Amazon, i chip Graviton 5 hanno 192 core e una cache cinque volte più grande rispetto alla generazione precedente, riducendo i ritardi di comunicazione tra i core del 33%. Dovrebbero anche essere più efficienti dal punto di vista energetico, con prestazioni migliori del 25% rispetto alle generazioni precedenti.
“Non si tratta solo di chip; si tratta di fornire ai clienti le basi dell’infrastruttura, nonché servizi di dati e inferenza, per creare un’intelligenza artificiale in grado di comprendere, anticipare e scalare in modo efficiente per miliardi di persone in tutto il mondo”, ha affermato Nafea Bshara, vicepresidente di AWS, in una dichiarazione.
Parte del motivo alla base di ciò potrebbe anche essere che all’inizio di questo mese, Antropic firmato un accordo di spendere 100 miliardi di dollari su AWS per eseguire i carichi di lavoro di Claude sui chip GPU Trianium di Amazon, mentre Amazon ha accettato di investire nuovamente 5 miliardi di dollari in Antropic. È probabile che Antropic abbia monopolizzato le azioni di Amazon di chip Tranium2 e Tranium4 e che la società abbia anche la possibilità di acquistare futuri chip Amazon non appena saranno disponibili.
Oltre a lavorare con Amazon, Meta sta sviluppando il proprio silicio internocon il lavoro in corso su quattro iterazioni del suo chip MITA per l’intelligenza artificiale e una partnership ampliata con Broadcom per progettare e costruire i chip. Meta ha anche accettato di spendere miliardi in chip e {hardware} AI Nvidia e AMDcosì come un altro accordo multimiliardario per l’utilizzo di unità di elaborazione tensore da Alfabeto.
Un rappresentante di Meta ha rifiutato di condividere carichi di lavoro specifici, ma ha affermato che la società supporterà il lavoro sull’intelligenza artificiale, incluso MSL (Meta SuperIntelligence Labs).












