Home Tecnologia Google presenta TurboQuant, un algoritmo di compressione della memoria AI senza perdite...

Google presenta TurboQuant, un algoritmo di compressione della memoria AI senza perdite – e sì, Web lo chiama “Pied Piper”

6
0

Se i ricercatori sull’intelligenza artificiale di Google avessero avuto il senso dell’umorismo, avrebbero chiamato Turboquantil nuovo, extremely efficiente algoritmo di compressione della memoria AI annunciato martedì, “Pied Piper” – o, a meno quello è Che cosa IL Internet pensa.

La battuta è un riferimento alla startup immaginaria Pied Piper che è stata al centro della serie TV “Silicon Valley” della HBO trasmessa dal 2014 al 2019.

Lo spettacolo ha seguito i fondatori della startup mentre navigavano nell’ecosistema tecnologico, affrontando sfide come la concorrenza di aziende più grandi, raccolta fondi, problemi tecnologici e di prodotto e persino (con nostro grande piacere) entusiasmando i giudici con una versione fittizia di TechCrunch Disrupt.

La tecnologia rivoluzionaria di Pied Piper nello present televisivo period un algoritmo di compressione che riduceva notevolmente le dimensioni dei file con una compressione quasi senza perdite. La novità di Google Analysis Turboquantriguarda anche la compressione estrema senza perdita di qualità, ma applicata a un collo di bottiglia fondamentale nei sistemi di intelligenza artificiale. Da qui i confronti.

Ricerca Google ha descritto la tecnologia come un nuovo modo per ridurre la memoria di lavoro dell’intelligenza artificiale senza influire sulle prestazioni. Secondo i ricercatori, il metodo di compressione, che utilizza una forma di quantizzazione vettoriale per eliminare i colli di bottiglia della cache nell’elaborazione dell’intelligenza artificiale, consentirebbe essenzialmente all’intelligenza artificiale di ricordare più informazioni occupando meno spazio e mantenendo la precisione.

Hanno in programma di presentare i loro risultati al ICLR 2026 conferenza del prossimo mese, insieme ai due metodi che rendono possibile questa compressione: il metodo di quantizzazione PolarQuant e un metodo di formazione e ottimizzazione chiamato QJL.

Comprendere la matematica coinvolta qui è qualcosa che ricercatori e scienziati informatici potrebbero essere in grado di fare, ma i risultati entusiasmano l’industria tecnologica nel suo complesso.

Se implementato con successo nel mondo reale, TurboQuant potrebbe rendere l’intelligenza artificiale più economica da gestire riducendo la sua “memoria di lavoro” di runtime – nota come cache KV – di “almeno 6 volte”.

Alcuni, come il CEO di Cloudflare Matthew Prince, lo sono anche chiamandolo Il momento DeepSeek di Google: un riferimento ai guadagni di efficienza guidati dal modello di intelligenza artificiale cinese, che è stato addestrato a una frazione del costo dei suoi rivali su chip peggiori, pur rimanendo competitivo nei suoi risultati.

Tuttavia, vale la pena notare che TurboQuant non è stato ancora implementato su larga scala; è ancora una scoperta di laboratorio in questo momento.

Ciò rende più difficili i paragoni con qualcosa come DeepSeek, o anche l’immaginario Pied Piper. In TV, la tecnologia di Pied Piper avrebbe cambiato radicalmente le regole dell’informatica. TurboQuant, nel frattempo, potrebbe portare a miglioramenti in termini di efficienza e a sistemi che richiedono meno memoria durante l’inferenza. Ma non risolverebbe necessariamente la più ampia carenza di RAM causata dall’intelligenza artificiale, dato che si rivolge solo alla memoria di inferenza, non all’addestramento, l’ultimo dei quali continua a richiedere enormi quantità di RAM.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here