Home Tecnologia Cinque architetti dell’economia dell’intelligenza artificiale spiegano dove si stanno staccando le ruote

Cinque architetti dell’economia dell’intelligenza artificiale spiegano dove si stanno staccando le ruote

5
0

All’inizio di questa settimana, cinque persone che toccano ogni livello della catena di fornitura dell’intelligenza artificiale si sono incontrate alla Milken World Convention a Beverly Hills, dove hanno parlato con questo editore di tutto, dalla carenza di chip ai knowledge heart orbitali alla possibilità che l’intera architettura che sostiene la tecnologia sia sbagliata.

Sul palco con TechCrunch: Christophe Fouquet, amministratore delegato di ASML, l’azienda olandese che detiene il monopolio delle macchine per la litografia a ultravioletti estremi senza le quali i moderni chip non possono esistere; Francis deSouza, COO di Google Cloud, che sta supervisionando una delle più grandi scommesse infrastrutturali nella storia aziendale; Qasar Younis, co-fondatore e CEO di Utilized Instinct, una società di intelligenza artificiale fisica da 15 miliardi di dollari che ha iniziato con la simulazione e da allora è passata alla difesa; Dimitry Shevelenko, chief enterprise officer di Perplexity, la società di ricerca per agenti nativa dell’intelligenza artificiale; ed Eve Bodnia, una fisica quantistica che ha lasciato il mondo accademico per sfidare l’architettura fondamentale che la maggior parte del settore dell’intelligenza artificiale dà per scontata nella sua startup, Logical Intelligence. (L’ex capo scienziato dell’intelligenza artificiale di Meta, Yan LeCun, ha firmato come presidente fondatore del comitato di ricerca tecnica della startup all’inizio di quest’anno.)

Ecco cosa avevano da dire:

I colli di bottiglia sono reali

Il increase dell’intelligenza artificiale sta raggiungendo limiti fisici rigidi e i vincoli iniziano più in basso di quanto molti possano immaginare. Fouquet è stato il primo a dirlo, descrivendo una “enorme accelerazione nella produzione di chip”, esprimendo al contempo la sua “forte convinzione” che, nonostante tutti questi sforzi, “per i prossimi due, tre, forse cinque anni, l’offerta del mercato sarà limitata”, il che significa che gli hyperscaler – Google, Microsoft, Amazon, Meta – non otterranno tutti i chip per cui stanno pagando, punto.

DeSouza ha sottolineato quanto sia grande e in rapida crescita questo problema, ricordando al pubblico che le entrate di Google Cloud hanno superato i 20 miliardi di dollari lo scorso trimestre, crescendo del 63%, mentre il suo arretrato (le entrate impegnate ma non ancora consegnate) è quasi raddoppiato in un solo trimestre, da 250 miliardi di dollari a 460 miliardi di dollari. “La richiesta è reale”, ha detto con una calma impressionante.

Per Younis, il vincolo viene principalmente da altrove. Utilized Instinct costruisce sistemi di autonomia per automobili, camion, droni, attrezzature minerarie e veicoli da difesa, e il suo collo di bottiglia non è il silicio: sono i dati che si possono raccogliere solo inviando macchine nel mondo reale e osservando cosa succede. “Devi trovarlo dal mondo reale”, ha detto, e nessuna simulazione sintetica colma completamente questa lacuna. “Ci vorrà molto tempo prima che tu possa addestrare completamente i modelli che funzionano sinteticamente nel mondo fisico”.

Evento Techcrunch

San Francisco, California
|
13-15 ottobre 2026

Anche il problema energetico è reale

Se i chip sono il primo collo di bottiglia, quello che incombe dietro di esso è l’energia. DeSouza ha confermato che Google sta esplorando i knowledge heart nello spazio come una risposta seria ai vincoli energetici. “Hai accesso a un’energia più abbondante”, ha osservato. Naturalmente, anche in orbita, non è semplice. Lo spazio osservato da DeSouza è un vuoto, quindi elimina la convezione, lasciando la radiazione come unico modo per diffondere calore nell’ambiente circostante (un processo molto più lento e più difficile da progettare rispetto ai sistemi di raffreddamento advert aria e a liquido su cui fanno affidamento oggi i knowledge heart). Ma l’azienda lo considera ancora un percorso legittimo.

L’argomentazione più profonda avanzata da de Souza, senza alcuna sorpresa, riguardava l’efficienza attraverso l’integrazione. La strategia di Google di co-ingegnerizzare il suo intero stack di intelligenza artificiale – dai chip TPU personalizzati fino ai modelli e agli agenti – paga dividendi in watt per flop che un’azienda che acquista componenti commonplace semplicemente non può replicare, ha suggerito. “L’esecuzione di Gemini su TPU è molto più efficiente dal punto di vista energetico rispetto a qualsiasi altra configurazione”, perché i progettisti di chip sanno cosa embrace il modello prima che venga spedito, ha affermato. In un mondo in cui la disponibilità di energia sta diventando un vincolo enorme sulla portata di questa tecnologia, questo tipo di integrazione verticale rappresenta un importante vantaggio competitivo.

Fouquet ha fatto eco a questo punto più avanti nella discussione. “Niente può essere inestimabile”, ha detto. Il settore si trova in un momento strano in questo momento, investendo quantità straordinarie di capitale, guidato da necessità strategiche. Ma più elaborazione significa più energia, e più energia ha un prezzo.

Un diverso tipo di intelligenza

Mentre il resto del settore discute su scala, architettura ed efficienza di inferenza all’interno del paradigma del modello linguistico di grandi dimensioni, Eve Bodnia sta costruendo qualcosa di molto diverso.

La sua azienda, Logical Intelligence, si basa sui cosiddetti modelli basati sull’energia (EBM), una classe di intelligenza artificiale che non prevede il prossimo token in una sequenza ma tenta invece di comprendere le regole alla base dei dati, in un modo che secondo lei è più vicino a come funziona effettivamente il cervello umano. “La lingua è un’interfaccia utente tra il mio cervello e il tuo”, ha detto. “Il ragionamento in sé non è legato a nessun linguaggio.”

Il suo modello più grande funziona con 200 milioni di parametri – rispetto alle centinaia di miliardi dei principali LLM – e afferma che funziona migliaia di volte più velocemente. Ancora più importante, è progettato per aggiornare le proprie conoscenze man mano che i dati cambiano, anziché richiedere una riqualificazione da zero.

Per la progettazione di chip, la robotica e altri ambiti in cui un sistema deve comprendere regole fisiche piuttosto che modelli linguistici, sostiene che gli EBM siano la soluzione più naturale. “Quando guidi un’auto, non cerchi schemi in nessuna lingua. Ti guardi intorno, comprendi le regole del mondo che ti circonda e prendi una decisione.” È un argomento interessante e che probabilmente attirerà maggiore attenzione nei prossimi mesi, dato che il campo dell’intelligenza artificiale sta iniziando a chiedersi se la scala da sola sia sufficiente.

Agenti, guardrail e fiducia

Shevelenko ha trascorso gran parte della conversazione spiegando come Perplexity si è evoluto da un prodotto di ricerca a qualcosa che ora chiama “lavoratore digitale”. Perplexity Laptop, la sua offerta più recente, è progettata non come uno strumento utilizzato da un lavoratore della conoscenza, ma come uno workers diretto da un lavoratore della conoscenza. “Ogni giorno ti svegli e hai un centinaio di dipendenti nella tua squadra”, ha detto dell’opportunità. “Cosa farai per trarne il massimo?”

È una proposta avvincente; solleva anche ovvie domande sul controllo, quindi le ho poste. La sua risposta è stata la granularità. Gli amministratori aziendali possono specificare non solo a quali connettori e strumenti un agente può accedere, ma anche se tali autorizzazioni sono di sola lettura o di lettura-scrittura, una distinzione che conta enormemente quando gli agenti agiscono all’interno dei sistemi aziendali. Quando Comet, l’agente di utilizzo del pc di Perplexity, intraprende azioni per conto di un utente, presenta un piano e chiede prima l’approvazione. Alcuni utenti trovano questo attrito fastidioso, ha detto Shevelenko, ma ha detto che lo considera essenziale, soprattutto dopo essere entrato nel consiglio di amministrazione di Lazard, dove ha detto di essersi trovato inaspettatamente in sintonia con gli istinti conservatori di un CISO che protegge un marchio di 180 anni costruito interamente sulla fiducia dei clienti. “La granularità è il fondamento di una buona igiene della sicurezza”, ha affermato.

Sovranità, non solo sicurezza

Younis ha offerto quella che potrebbe essere stata l’osservazione più carica dal punto di vista geopolitico del panel, ovvero che l’intelligenza artificiale fisica e la sovranità nazionale sono intrecciate in modi in cui l’intelligenza artificiale puramente digitale non lo è mai stata.

Inizialmente Web si diffuse come tecnologia americana e subì resistenze solo a livello applicativo – Ubers e DoorDash – quando le conseguenze offline divennero visibili. L’intelligenza artificiale fisica è diversa. Veicoli autonomi, droni da difesa, attrezzature minerarie, macchine agricole: questi si manifestano nel mondo reale in modi che i governi non possono ignorare, sollevando domande sulla sicurezza, sulla raccolta dei dati e su chi, in ultima analisi, controlla i sistemi che operano all’interno dei confini di una nazione. “Quasi costantemente, ogni paese cube: non vogliamo questa intelligence in forma fisica all’interno dei nostri confini, controllata da un altro paese”. Meno nazioni, ha detto alla folla, possono attualmente schierare un robotaxi rispetto a quelle che possiedono armi nucleari.

Fouquet lo ha inquadrato in modo leggermente diverso. I progressi della Cina nel campo dell’intelligenza artificiale sono reali – il rilascio di DeepSeek all’inizio di quest’anno ha suscitato qualcosa di simile al panico in alcune parti del settore – ma tali progressi sono limitati al di sotto del livello del modello. Senza accesso alla litografia EUV, i produttori di chip cinesi non possono produrre i semiconduttori più avanzati e i modelli costruiti su {hardware} più vecchio operano in svantaggio, indipendentemente dalla qualità del software program. “Oggi, negli Stati Uniti, hai i dati, hai l’accesso ai pc, hai i chip, hai il talento. La Cina fa un ottimo lavoro in cima alla classifica, ma manca di alcuni elementi sotto”, ha detto Fouquet.

La questione generazionale

Verso la high quality del nostro panel, qualcuno tra il pubblico ha posto una domanda ovvia e scomoda: tutto ciò avrà un impatto sulla capacità di pensiero critico della prossima generazione?

Le risposte sono state, forse non sorprendentemente, ottimistiche, anche se non ingenuamente. De Souza ha sottolineato la portata dei problemi che strumenti più potenti potrebbero finalmente consentire all’umanità di affrontare. Pensate alle malattie neurologiche di cui non comprendiamo ancora i meccanismi biologici, alla rimozione dei fuel serra e alle infrastrutture di rete che sono state rinviate per decenni. “Questo dovrebbe portarci al livello successivo di creatività”, ha affermato.

Shevelenko ha sottolineato un punto più pragmatico: il lavoro entry-level potrebbe scomparire, ma la capacità di avviare qualcosa in modo indipendente non è mai stata così accessibile. “[For] chiunque abbia Perplexity Laptop. . . il vincolo è la tua curiosità e il tuo libero arbitrio.

Younis ha tracciato la distinzione più netta tra lavoro della conoscenza e lavoro fisico. Ha sottolineato il fatto che l’agricoltore americano medio ha 58 anni e che la carenza di manodopera nel settore minerario, nei trasporti a lungo raggio e nell’agricoltura è cronica e in crescita, non perché i salari siano troppo bassi, ma perché le persone non vogliono quei lavori. In questi ambiti, l’intelligenza artificiale fisica non sta sostituendo i lavoratori volenterosi. Sta riempiendo un vuoto che già esiste e che da qui in poi sembra solo approfondirsi.

Quando acquisti tramite i hyperlink presenti nei nostri articoli, potremmo guadagnare una piccola commissione. Ciò non pregiudica la nostra indipendenza editoriale.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here