Home Tecnologia Cursor’s Composer 2 è stato segretamente costruito su un modello di intelligenza...

Cursor’s Composer 2 è stato segretamente costruito su un modello di intelligenza artificiale cinese ed espone un problema più profondo con l’intelligenza artificiale open supply occidentale

6
0

Lo strumento di codifica AI da 29,3 miliardi di dollari è stato appena scoperto con la sua provenienza. Quando Cursore lanciato Compositore 2 la scorsa settimana – definendola “intelligenza di codifica a livello di frontiera” – ha presentato il modello come prova del fatto che l’azienda è un serio laboratorio di ricerca sull’intelligenza artificiale, non solo un ambiente di sviluppo integrato (IDE) biforcuto che avvolge il modello di base di qualcun altro. Ciò che l’annuncio ometteva period che Composer 2 period stato costruito sopra Kimi K2.5un modello open supply di Moonshot AI, una startup cinese sostenuta da Alibaba, Tencent e HongShan (l’azienda precedentemente nota come Sequoia China).

Uno sviluppatore di nome Fynn (@fynnso) su X l’ho capito in poche ore. Configurando un server proxy di debug locale e instradando il traffico API di Cursor attraverso di esso, Fynn ha intercettato la richiesta in uscita e ha trovato l’ID del modello in bella vista: account/anysphere/fashions/kimi-k2p5-rl-0317-s515-fast.

“Quindi il compositore 2 è semplicemente Kimi K2.5 con RL”, ha scritto Fynn. “Almeno rinomina l’ID del modello.” Il put up ha collezionato 2,6 milioni di visualizzazioni.

In un follow-up, Fynn ha osservato che il modello precedente di Cursor, Composer 1.5, bloccava questo tipo di intercettazione delle richieste, ma Composer 2 no, definendola “probabilmente una svista”. Il cursore ha rapidamente corretto il problema, ma il fatto period chiaramente fuori discussione.

Il vicepresidente della formazione per sviluppatori di Cursor, Lee Robinson, ha confermato la connessione con Kimi in poche ore e co-fondatore Aman Sanger lo ha riconosciuto è stato un errore non rivelare fin dall’inizio il modello base.

Ma la storia che conta qui non riguarda la mancata divulgazione di informazioni da parte di una società. Riguarda il motivo per cui Cursor – e probabilmente molte altre società di prodotti di intelligenza artificiale – si sono rivolti in primo luogo a un modello aperto cinese.

Il vuoto del modello aperto: perché le aziende occidentali continuano a rivolgersi alle fondazioni cinesi

La decisione di Cursor di basarsi su Kimi K2.5 non è stata casuale. Il modello è un’architettura con una combinazione di esperti da 1 trilione di parametri con 32 miliardi di parametri attivi, una finestra di contesto da 256.000 token, supporto nativo per immagini e video e una funzionalità Agent Swarm che esegue fino a 100 sottoagenti paralleli contemporaneamente.

Rilasciato con una licenza MIT modificata che ne consente l’uso commerciale, Kimi K2.5 è competitivo con i migliori modelli al mondo sui benchmark degli agenti e si è classificato primo tra tutti i modelli su MathVista al momento del rilascio.

Quando un’azienda di prodotti di intelligenza artificiale ha bisogno di un forte modello aperto per la preformazione continua e l’apprendimento di rinforzo – il tipo di personalizzazione profonda che trasforma una base in un prodotto differenziato – le opzioni dei laboratori occidentali sono state sorprendentemente limitate.

Llama 4 Scout e Maverick di Meta sono stati spediti nell’aprile 2025, ma erano gravemente carenti e il tanto atteso Llama 4 Behemoth è stato ritardato a tempo indeterminato. A marzo 2026, Behemoth non ha ancora una information di rilascio pubblica, con rapporti che suggeriscono che i staff interni di Meta non sono convinti che il modello da 2 trilioni di parametri offra un salto di prestazioni sufficiente a giustificarne la distribuzione.

La famiglia Gemma 3 di Google ha raggiunto i 27 miliardi di parametri: eccellenti per l’implementazione edge e con un singolo acceleratore, ma non una base di frontiera per la creazione di agenti di codifica di produzione. Gemma 4 deve ancora essere annunciato, anche se ha suscitato speculazioni secondo cui il rilascio potrebbe essere imminente.

E poi c’è OpenAI, che ha rilasciato probabilmente il più importante contendente open supply americano, la famiglia gpt-oss (in varianti da 20 e 120 miliardi di parametri) nell’agosto 2025. Perché Cursor non dovrebbe basarsi su questo modello se avesse bisogno di un modello base da mettere a punto?

La risposta sta nella “densità di intelligenza” richiesta per la codifica di classe frontiera. Sebbene gpt-oss-120b sia un risultato monumentale per l’open supply occidentale, offrendo capacità di ragionamento che competono con modelli proprietari come o4-mini, è fondamentalmente un modello sparso di Combination-of-Specialists (MoE) che attiva solo 5,1 miliardi di parametri per token. Per un assistente di ragionamento generico, questo è un colpo da maestro in termini di efficienza; per uno strumento come Composer 2, che deve mantenere la coerenza strutturale in una finestra di contesto di 256.000 token, è probabilmente troppo “sottile”. Kimi K2.5, invece, è un titano da 1 trilione di parametri che mantiene attivi 32 miliardi di parametri in ogni dato momento. Nel mondo advert alto rischio della codifica advert agenti, è ancora la pura massa cognitiva a dettare le prestazioni, e Cursor ha chiaramente calcolato che il vantaggio 6x di Kimi nel conteggio dei parametri attivi period essenziale per sintetizzare l'”esplosione del contesto” che si verifica durante attività complesse di programmazione autonoma in più fasi.

Al di là della scala grezza, c’è la questione della resilienza strutturale. I modelli a peso aperto di OpenAI hanno guadagnato una reputazione tranquilla tra le élite circoli di sviluppatori per essere “fragili dopo l’allenamento”—modelli brillanti fuori dagli schemi ma inclini a dimenticanze catastrofiche se sottoposti al tipo di apprendimento di rinforzo aggressivo e advert alto calcolo richiesto da Cursor.

Il cursore non si è limitato advert applicare una leggera messa a punto; hanno eseguito uno “scale-up 4x” nel calcolo di addestramento per integrare la loro logica di auto-riepilogo proprietaria. Kimi K2.5, costruito appositamente per la stabilità degli agenti e per compiti a lungo orizzonte, ha fornito un “telaio” più durevole per queste profonde ristrutturazioni architettoniche. Ha permesso a Cursor di costruire un agente specializzato in grado di risolvere problemi a livello di concorrenza, come compilare l’originale Doom per un’architettura MIPS, senza che la logica centrale del modello crollasse sotto il peso della propria formazione specializzata.

Ciò lascia un vuoto. E i laboratori cinesi – Moonshot, DeepSeek, Qwen e altri – lo hanno riempito in modo aggressivo. I modelli V3 e R1 di DeepSeek hanno causato il panico nella Silicon Valley all’inizio del 2025 raggiungendo prestazioni di frontiera a una frazione del costo. La famiglia Qwen3.5 di Alibaba ha spedito modelli con quasi tutti i parametri attivi, da 600 milioni a 397 miliardi. Kimi K2.5 è esattamente la soluzione ideale per le aziende che desiderano una base potente, aperta e personalizzabile.

Cursor non è l’unica azienda di prodotti in questa posizione. Qualsiasi azienda che costruisce applicazioni IA specializzate su modelli aperti oggi si confronta con lo stesso calcolo: le fondazioni aperte più capaci e con licenze più permissive provengono in modo sproporzionato da laboratori cinesi.

Cosa ha effettivamente costruito Cursor e perché il modello base è meno importante di quanto pensi

A suo merito, Cursor non si è limitato a schiaffeggiare un’interfaccia utente su Kimi. Lee Robinson ha affermato che circa un quarto del calcolo totale utilizzato per costruire Composer 2 proveniva dalla base Kimi, mentre i restanti tre quarti dalla formazione continua di Cursor. Quello dell’azienda post tecnico sul blog descrive una tecnica chiamata auto-riassunto che risolve uno dei problemi più difficili nella codifica advert agenti: l’overflow del contesto durante attività di lunga durata.

Quando un agente di codifica AI lavora su problemi complessi in più fasi, genera molto più contesto di quanto qualsiasi modello possa contenere in memoria contemporaneamente. La tipica soluzione alternativa, ovvero il troncamento del vecchio contesto o l’utilizzo di un modello separato per riepilogarlo, fa sì che l’agente perda informazioni critiche e commetta errori a cascata. L’approccio del cursore addestra il modello stesso a comprimere la propria memoria di lavoro nel mezzo di un compito, come parte del processo di apprendimento per rinforzo. Quando Composer 2 si avvicina al limite del contesto, si ferma, comprime tutto fino a circa 1.000 token e continua. Tali riepiloghi vengono premiati o penalizzati in base al fatto che abbiano contribuito a completare l’attività complessiva, in modo che il modello impari cosa conservare e cosa scartare nel corso di migliaia di esecuzioni di coaching.

I risultati sono significativi. Cursor segnala che l’auto-riepilogo riduce gli errori di compattazione del 50% rispetto alle linee di base basate su immediate pesantemente progettate, utilizzando un quinto dei token. A titolo dimostrativo, Composer 2 ha risolto un problema di Terminal-Bench, compilando il gioco Doom originale per un’architettura di processore MIPS, in 170 turni, riassumendo automaticamente oltre 100.000 token ripetutamente durante l’attività. Diversi modelli di frontiera non possono completarlo. SU CursorBenchComposer 2 ottiene un punteggio di 61,3 rispetto a 44,2 per Composer 1.5 e raggiunge 61,7 su Terminal-Bench 2.0 e 73,7 su SWE-bench Multilingual.

La stessa Moonshot AI ha risposto in modo favorevole dopo che la storia è scoppiata, pubblicando su X che period orgogliosa di vedere Kimi fornire le basi e confermando che Cursor aveva avuto accesso al modello attraverso una partnership commerciale autorizzata con Fireworks AI, una società di internet hosting di modelli. Non è stato rubato nulla. L’uso period concesso in licenza commerciale.

Oltre l’attribuzione: il silenzio solleva questioni relative alle licenze e alla governance

Il cofondatore di Cursor, Aman Sanger, ha riconosciuto l’omissione, affermando che è stato un errore non menzionare la base Kimi nel put up originale del weblog. Le ragioni di quel silenzio non sono difficili da dedurre. Cursor ha un valore di quasi 30 miliardi di dollari sulla premessa che si tratta di una società di ricerca sull’intelligenza artificiale, non di un livello di integrazione. E Kimi K2.5 è stato costruito da una società cinese sostenuta da Alibaba: una provenienza delicata in un momento in cui il rapporto tra Stati Uniti e Cina nel campo dell’intelligenza artificiale è teso e i clienti governativi e aziendali sono sempre più preoccupati delle origini della catena di approvvigionamento.

La vera lezione è più ampia. L’intero settore si basa sulle fondamenta di altre persone. I modelli di OpenAI si basano su decenni di ricerca accademica e dati su scala Web. Il lama di Meta è addestrato su dati che non sempre rivela completamente. Ogni modello si trova sopra strati di lavoro precedente. La domanda è cosa ne pensano le aziende e, in questo momento, la struttura degli incentivi premia l’oscuramento del collegamento, soprattutto quando la fondazione proviene dalla Cina.

Per i decisori IT che valutano gli strumenti di codifica dell’intelligenza artificiale e le piattaforme degli agenti, questo episodio fa emergere domande pratiche: sai cosa si nasconde dietro il prodotto del tuo fornitore di intelligenza artificiale? È importante per i tuoi requisiti di conformità, sicurezza e catena di fornitura? E il tuo fornitore soddisfa gli obblighi di licenza del proprio modello di base?

Il divario del modello aperto occidentale sta iniziando a colmarsi, ma lentamente

La buona notizia per le aziende preoccupate per la provenienza dei modelli è che sembra che i modelli aperti occidentali stiano per diventare significativamente più competitivi. NVIDIA ha seguito una cadenza di rilascio aggressiva. Nemotron 3Superrilasciato l’11 marzo, è un modello ibrido Mamba-Transformer da 120 miliardi di parametri con 12 miliardi di parametri attivi, una finestra di contesto da 1 milione di token e un throughput fino a 5 volte superiore rispetto al suo predecessore. Utilizza una nuova architettura latente composta da una combinazione di esperti ed è stato pre-addestrato nel formato NVFP4 di NVIDIA sull’architettura Blackwell. Aziende tra cui Perplexity, CodeRabbit, Manufacturing unit e Greptile lo stanno già integrando nei loro agenti IA.

Giorni dopo, NVIDIA ha seguito Nemotron-Cascade 2un modello MoE da 30 miliardi di parametri con solo 3 miliardi di parametri attivi che supera sia Qwen 3.5-35B che il più grande Nemotron 3 Tremendous in termini di matematica, ragionamento del codice, allineamento e benchmark di rispetto delle istruzioni. Cascade 2 ha ottenuto prestazioni da medaglia d’oro alle Olimpiadi internazionali della matematica del 2025, alle Olimpiadi internazionali dell’informatica e alle finali mondiali dell’ICPC, diventando così il secondo modello open-weight dopo DeepSeek-V3.2-Speciale a raggiungere questo obiettivo. Entrambi i modelli vengono forniti con pesi completamente aperti, set di dati di addestramento e ricette di apprendimento per rinforzo con licenze permissive: esattamente il tipo di trasparenza che l’episodio Kimi di Cursor ha evidenziato come mancante.

A cosa dovrebbero prestare attenzione i chief IT: la questione della provenienza non scomparirà

L’episodio Cursor-Kimi è un’anteprima di uno schema ricorrente. Poiché le aziende produttrici di prodotti di intelligenza artificiale creano sempre più applicazioni differenziate attraverso la preformazione continua, l’apprendimento per rinforzo e nuove tecniche come l’auto-riepilogo su modelli di base aperti, la questione di quale base si trovi in ​​fondo allo stack diventa una questione di governance aziendale, non solo di preferenza tecnica.

La famiglia Nemotron di NVIDIA e l’atteso Gemma 4 rappresentano i candidati più forti a breve termine per colmare il divario dei modelli aperti occidentali. L’architettura ibrida di Nemotron 3 Tremendous e la finestra di contesto da milioni di token lo rendono direttamente rilevante per gli stessi casi d’uso di codifica advert agenti che Cursor ha affrontato con Kimi. La straordinaria densità di intelligenza di Cascade 2 – prestazioni da medaglia d’oro con soli 3 miliardi di parametri attivi – suggerisce che modelli più piccoli e altamente ottimizzati addestrati con tecniche RL avanzate possono sostituire sempre più le massicce fondazioni cinesi che hanno dominato il panorama dei modelli aperti.

Ma per ora, il confine tra i prodotti americani di IA e il modello cinese non è così netto come suggerisce la narrazione geopolitica. Uno degli strumenti di codifica più utilizzati al mondo funziona su un modello supportato da Alibaba e potrebbe non soddisfare originariamente i requisiti di attribuzione della licenza che lo consentiva. Il cursore cube che rivelerà il modello base la prossima volta. La domanda più interessante è se, la prossima volta, avrà un’alternativa occidentale credibile da rivelare.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here