Nvidia lunedì ha presentato un supercomputer da tavolo abbastanza potente da eseguire modelli di intelligenza artificiale con un massimo di un trilione di parametri – all’incirca la scala di GPT-4 – senza toccare il cloud. La macchina, chiamata Stazione DGXracchiude 748 gigabyte di memoria coerente e 20 petaflop di elaborazione in una scatola posizionata accanto a un monitor e potrebbe essere il prodotto di private computing più significativo da quando il Mac Professional originale convinse i professionisti creativi advert abbandonare le workstation.
L’annuncio, fatto durante l’annuale dell’azienda Conferenza del GTC a San Jose, arriva in un momento in cui l’industria dell’intelligenza artificiale è alle prese con una tensione fondamentale: i modelli più potenti del mondo richiedono enormi infrastrutture di knowledge middle, ma gli sviluppatori e le imprese che si basano su tali modelli desiderano sempre più mantenere i propri dati, i propri agenti e la propria proprietà intellettuale a livello locale. La DGX Station è la risposta di Nvidia: una macchina a sei cifre che riduce la distanza tra la frontiera dell’intelligenza artificiale e la scrivania di un singolo ingegnere.
Cosa significano in realtà 20 petaflop sul desktop
IL Stazione DGX è costruito attorno al nuovo Superchip desktop Ultra GB300 Grace Blackwellche fonde una CPU Grace a 72 core e una GPU Blackwell Extremely tramite l’interconnessione NVLink-C2C di Nvidia. Questo collegamento fornisce 1,8 terabyte al secondo di larghezza di banda coerente tra i due processori – sette volte la velocità di PCIe Gen 6 – il che significa che CPU e GPU condividono un unico pool di memoria senza i colli di bottiglia che tipicamente paralizzano il lavoro dell’intelligenza artificiale desktop.
Venti petaflop – 20 quadrilioni di operazioni al secondo – avrebbero classificato questa macchina tra i migliori supercomputer del mondo meno di dieci anni fa. Il sistema Summit a Laboratorio nazionale di Oak Ridgeche nel 2018 occupava il primo posto a livello mondiale, ha ottenuto prestazioni dieci volte superiori, ma occupava una stanza grande quanto due campi da basket. Nvidia sta racchiudendo una parte significativa di story capacità in qualcosa che si collega a una presa a muro.
I 748 GB di memoria unificata sono probabilmente il numero più importante. I modelli da trilioni di parametri sono enormi reti neurali che devono essere caricate interamente in memoria per funzionare. Senza memoria sufficiente, la velocità di elaborazione non conta: il modello semplicemente non si adatta. La DGX Station supera questo limite e lo fa con un’architettura coerente che elimina le penalità di latenza derivanti dallo spostamento dei dati tra i pool di memoria di CPU e GPU.
Gli agenti sempre attivi necessitano di {hardware} sempre attivo
Nvidia ha progettato il Stazione DGX esplicitamente per quella che vede come la prossima fase dell’intelligenza artificiale: agenti autonomi che ragionano, pianificano, scrivono codice ed eseguono attività in modo continuo, non solo sistemi che rispondono ai suggerimenti. Ogni annuncio importante su CGC 2026 ha rafforzato questa tesi di “intelligenza artificiale” e la stazione DGX è il luogo in cui questi agenti dovrebbero essere costruiti e gestiti.
L’abbinamento chiave è NemoClawun nuovo stack open supply annunciato anche da Nvidia lunedì. NemoClaw raggruppa i modelli aperti Nemotron di Nvidia con OpenShellun runtime sicuro che applica protezioni di sicurezza, rete e privateness basate su coverage per agenti autonomi. Un singolo comando installa l’intero stack. Jensen Huang, fondatore e CEO di Nvidia, ha definito la combinazione in termini inequivocabili, chiamando OpenClaw – la più ampia piattaforma di agenti supportata da NemoClaw – “il sistema operativo per l’intelligenza artificiale personale” e confrontandolo direttamente con Mac e Home windows.
L’argomentazione è semplice: le istanze cloud si attivano e disattivano su richiesta, ma gli agenti sempre attivi necessitano di elaborazione persistente, memoria persistente e stato persistente. Una macchina sotto la tua scrivania, in funzione 24 ore su 24, 7 giorni su 7 con dati locali e modelli locali all’interno di una sandbox di sicurezza, è dal punto di vista architettonico più adatta a quel carico di lavoro rispetto a una GPU noleggiata nel knowledge middle di qualcun altro. La stazione DGX può funzionare come supercomputer personale per uno sviluppatore solista o come nodo di elaborazione condiviso per i staff e supporta configurazioni air-gapped per ambienti classificati o regolamentati in cui i dati non possono mai lasciare l’edificio.
Dal prototipo della scrivania alla produzione del knowledge middle senza riscritture
Uno degli aspetti più intelligenti del design della DGX Station è ciò che Nvidia chiama continuità architettonica. Le applicazioni realizzate sulla macchina migrano senza problemi ai sistemi knowledge middle GB300 NVL72 dell’azienda, rack da 72 GPU progettati per fabbriche di intelligenza artificiale su vasta scala, senza riprogettare una singola riga di codice. Nvidia sta vendendo una pipeline integrata verticalmente: prototipa sulla tua scrivania, quindi scala sul cloud quando sei pronto.
Ciò è importante perché il più grande costo nascosto nello sviluppo dell’intelligenza artificiale oggi non è l’elaborazione, ma il tempo di progettazione perso per riscrivere il codice per numerous configurazioni {hardware}. Un modello ottimizzato su un cluster GPU locale spesso richiede una rielaborazione sostanziale per l’implementazione su un’infrastruttura cloud con architetture di memoria, stack di rete e dipendenze software program numerous. La DGX Station elimina questo attrito eseguendo lo stesso stack software program NVIDIA AI che alimenta ogni livello dell’infrastruttura Nvidia, dal DGX Scintilla al Vera Rubin NVL72.
Nvidia ha anche ampliato DGX Spark, il fratello minore della Station, con un nuovo supporto per il clustering. Fino a quattro unità Spark possono ora funzionare come un sistema unificato con scalabilità delle prestazioni quasi lineare: un “knowledge middle desktop” che si adatta a un tavolo da conferenza senza infrastruttura rack o ticket IT. Per i staff che necessitano di mettere a punto modelli di medie dimensioni o sviluppare agenti su scala più piccola, gli Spark in cluster offrono una piattaforma AI dipartimentale credibile a una frazione del costo della Stazione.
I primi acquirenti rivelano dove sta andando il mercato
L’elenco iniziale dei clienti per DGX Station mappa i settori in cui l’intelligenza artificiale sta passando più rapidamente da esperimento a strumento operativo quotidiano. Snowflake sta utilizzando il sistema per testare localmente il suo quadro di addestramento artico open supply. EPRIl’Electrical Energy Analysis Institute, sta sviluppando previsioni meteorologiche basate sull’intelligenza artificiale per rafforzare l’affidabilità della rete elettrica. Medivis sta integrando modelli del linguaggio visivo nei flussi di lavoro chirurgici. Microsoft Analysis e Cornell hanno implementato i sistemi per la formazione pratica sull’intelligenza artificiale su larga scala.
I sistemi possono essere ordinati adesso e verranno spediti nei prossimi mesi a partire da ASUS, Tecnologie Dell, GIGABYTE, MSIE Supermicrocon HP unendosi più avanti nel corso dell’anno. Nvidia non ha rivelato i prezzi, ma i componenti GB300 e i prezzi storici DGX dell’azienda suggeriscono un investimento a sei cifre: costoso per gli customary delle workstation, ma notevolmente economico rispetto ai costi della GPU cloud per l’esecuzione di inferenze di trilioni di parametri su larga scala.
L’elenco dei modelli supportati sottolinea quanto sia diventato aperto l’ecosistema AI: gli sviluppatori possono eseguire e mettere a punto OpenAI gpt-oss-120bGoogle Gemma 3, Qwen3, Mistral Grande 3, DeepSeek V3.2e i modelli Nemotron di Nvidia, tra gli altri. La stazione DGX è indipendente dal modello in base alla progettazione: una Svizzera dell'{hardware} in un settore in cui la fedeltà ai modelli cambia ogni trimestre.
La vera strategia di Nvidia: possedere ogni livello dello stack AI, dall’orbita all’ufficio
IL Stazione DGX non è arrivato nel vuoto. Period un pezzo di un ampio set di CGC 2026 annunci che complessivamente mappano l’ambizione di Nvidia di fornire elaborazione AI letteralmente su ogni scala fisica.
In alto, Nvidia ha presentato il Piattaforma Vera Rubin – sette nuovi chip in piena produzione – ancorati al rack Vera Rubin NVL72, che integra 72 GPU Rubin di prossima generazione e vanta un throughput di inferenza per watt fino a ten volte superiore rispetto all’attuale generazione Blackwell. IL VeraCPUcon 88 core Olympus personalizzati, si rivolge al livello di orchestrazione richiesto sempre più dai carichi di lavoro degli agenti. All’estrema frontiera, Nvidia ha annunciato il Vera Rubin Area Module per knowledge middle orbitali, offrendo 25 volte più calcolo AI per l’inferenza spaziale rispetto all’H100.
Tra orbita e ufficio, Nvidia ha rivelato partnership che abbracciano Adobe per l’intelligenza artificiale creativa, case automobilistiche come BYD e Nissan per veicoli autonomi di livello 4, una coalizione con Mistral AI e altri sette laboratori per costruire modelli di frontiera aperta e Dynamo 1.0, un sistema operativo di inferenza open supply già adottato da AWS, Azure, Google Cloud e un elenco di aziende native dell’intelligenza artificiale tra cui Cursor e Perplexity.
Lo schema è inconfondibile: Nvidia vuole essere la piattaforma informatica – {hardware}, software program e modelli – per ogni carico di lavoro AI, ovunque. IL Stazione DGX è il pezzo che colma il divario tra la nuvola e l’individuo.
Il cloud non è morto, ma il suo monopolio sul lavoro serio sull’intelligenza artificiale sta finendo
Negli ultimi anni, il presupposto predefinito nell’intelligenza artificiale è stato che un lavoro serio richiedesse istanze GPU cloud, ovvero noleggiare l'{hardware} Nvidia da AWS, AzzurroO GoogleNuvola. Questo modello funziona, ma comporta costi reali: tariffe per l’uscita dei dati, latenza, esposizione alla sicurezza derivante dall’invio di dati proprietari a infrastrutture di terze parti e la fondamentale perdita di controllo inerente al noleggio del laptop di qualcun altro.
IL Stazione DGX non uccide il cloud: il enterprise dei knowledge middle di Nvidia fa impallidire le entrate dei suoi desktop e sta accelerando. Ma crea un’alternativa locale credibile per una categoria importante e crescente di carichi di lavoro. L’addestramento di un modello di frontiera da zero richiede ancora migliaia di GPU in un magazzino. Mettere a punto un modello aperto da trilioni di parametri su dati proprietari? Eseguire l’inferenza per un agente interno che elabora documenti sensibili? Prototipazione prima di impegnarsi nella spesa per il cloud? Una macchina sotto la scrivania inizia a sembrare la scelta razionale.
Questa è l’eleganza strategica del prodotto: espande il mercato indirizzabile di Nvidia nell’infrastruttura AI personale, rafforzando al contempo il enterprise del cloud, perché tutto ciò che è costruito localmente è progettato per adattarsi alle piattaforme dei knowledge middle di Nvidia. Non è cloud contro scrivania. È nuvola E scrivania e Nvidia fornisce entrambi.
Un supercomputer su ogni scrivania e un agente che non ci dorme mai sopra
Lo slogan fondamentale della rivoluzione dei PC period “un laptop su ogni scrivania e in ogni casa”. Quattro decenni dopo, Nvidia sta aggiornando le premesse con una scomoda escalation. IL Stazione DGX mette la vera potenza del supercalcolo – del tipo che gestiva i laboratori nazionali – accanto a una tastiera, e NemoClaw ci mette sopra un agente AI autonomo che funziona 24 ore su 24, scrivendo codici, chiamando strumenti e completando attività mentre il suo proprietario dorme.
Se quel futuro sarà esaltante o inquietante dipende dal tuo punto di vista. Ma una cosa non è più discutibile: l’infrastruttura necessaria per costruire, far funzionare e possedere l’intelligenza artificiale di frontiera si è appena spostata dalla sala server al cassetto della scrivania. E l’azienda che vende quasi tutti i chip AI seri del pianeta si è assicurata di vendere anche il cassetto della scrivania.













