Il mondo dell’ingegneria del software program è attualmente alle prese con un paradosso fondamentale dell’period dell’intelligenza artificiale: man mano che i modelli diventano più capaci, il “problema dei sistemi” di gestirli è diventato il principale collo di bottiglia per la produttività del mondo reale. Sebbene uno sviluppatore possa avere accesso all’intelligenza grezza di un modello di frontiera, story intelligenza spesso si degrada nel momento in cui un’attività richiede un orizzonte lungo o una finestra di contesto profondo.
Ma l’aiuto sembra essere in arrivo: startup con sede a San Francisco, sostenuta da Y Combinator Laboratori casuali ha lanciato ufficialmente Slate V1descritto come il primo agente di codifica autonomo “nativo dello sciame” del settore, progettato per eseguire attività di ingegneria estremamente parallele e complesse.
Emergente da una beta aperta, lo strumento utilizza un “algoritmo di potatura dinamica” per mantenere il contesto in basi di codici di grandi dimensioni adattando al contempo l’output alla complessità aziendale. Co-fondato da Kiran e Mihir Chintawar nel 2024l’azienda mira a colmare la carenza di ingegneria globale posizionando Slate come uno strumento collaborativo per i “prossimi 20 milioni di ingegneri” piuttosto che come un sostituto degli sviluppatori umani.
Con il rilascio di Slate V1, il crew di Random Labs sta tentando di progettare una through d’uscita da questa zona introducendo il primo ambiente di codifica advert agenti “nativo dello sciame”. Slate non è semplicemente un wrapper o un chatbot con accesso ai file; è l’implementazione di una filosofia della “mente alveare” progettata per adattare il lavoro degli agenti alla complessità di un’organizzazione umana.
Sfruttando una nuova primitiva architettonica chiamata Tessitura del filoSlate va oltre i rigidi alberi delle attività e i metodi di compattazione con perdite che hanno definito la prima generazione di assistenti di codifica AI.
Strategia: spazio d’azione
Al centro dell’efficacia di Slate c’è un profondo impegno con Modelli linguistici ricorsivi (RLM).
In una configurazione tradizionale, a un agente potrebbe essere chiesto di “risolvere un bug”, un messaggio che costringe il modello a destreggiarsi simultaneamente tra strategia di alto livello ed esecuzione di basso livello.
Random Labs identifica questo come un fallimento nell’attingere al “Data Overhang”, l’intelligenza latente che un modello possiede ma a cui non può accedere efficacemente quando è tatticamente sopraffatto.
Slate risolve questo problema utilizzando un thread di orchestrazione centrale che essenzialmente “programma nello spazio di azione”. Questo orchestratore non scrive direttamente il codice; utilizza invece un DSL basato su TypeScript per inviare thread di lavoro paralleli per gestire attività specifiche e limitate.
Ciò crea una chiara separazione tra il “kernel”, che gestisce il grafico di esecuzione e mantiene l’allineamento strategico, e i “processi” di lavoro che eseguono operazioni tattiche nel terminale.
Mappando su un framework in stile sistema operativo, ispirato al concetto “LLM OS” di Andrej Karpathy, Slate è in grado di trattare la finestra di contesto limitato di un modello come preziosa RAM, gestendo attivamente e in modo intelligente ciò che viene mantenuto e ciò che viene scartato.
La memoria episodica e lo sciame
La vera innovazione dell’approccio “Thread Weaving” risiede nel modo in cui gestisce la memoria. La maggior parte degli agenti oggi fa affidamento sulla “compattazione”, che spesso è solo un termine di fantasia per indicare la compressione con perdite che rischia di far cadere lo stato critico del progetto. Slate invece genera “episodi”.
Quando un thread di lavoro completa un’attività, non restituisce una trascrizione estesa di ogni tentativo fallito; restituisce un riepilogo compresso delle chiamate e delle conclusioni dello strumento di successo.
Poiché questi episodi condividono il contesto direttamente con l’orchestratore anziché fare affidamento sul fragile passaggio di messaggi, il sistema mantiene un’intelligenza “a sciame”.
Questa architettura consente un parallelismo massiccio. Uno sviluppatore può chiedere a Claude Sonnet di orchestrare un refactoring complesso mentre GPT-5.4 esegue il codice e GLM 5, uno dei preferiti per le sue capacità di ricerca tramite agenti, ricerca contemporaneamente la documentazione della libreria in background. È un approccio simile adottato da Perplexity con il suo nuovo agente multi-modello per laptop
Selezionando il “modello giusto per il lavoro”, Slate garantisce che gli utenti non spendano troppo in intelligence per semplici passaggi tattici, pur continuando a beneficiare della profondità strategica dei modelli più potenti del mondo.
Il enterprise dell’autonomia
Dal punto di vista commerciale, Random Labs sta attraversando il primo periodo beta con un combine di trasparenza e ambiguità strategica.
Sebbene la società non abbia ancora pubblicato un foglio di abbonamento a prezzo fisso, la documentazione della CLI di Slate conferma uno spostamento verso un modello di credito basato sull’utilizzo.
Comandi come /utilization e /billing consentono agli utenti di monitorare il consumo di credito in tempo reale e l’inclusione di opzioni di fatturazione a livello di organizzazione suggerisce una chiara attenzione ai crew di ingegneri professionisti piuttosto che agli hobbisti solitari.
C’è anche un gioco significativo verso l’integrazione. Random Labs ha recentemente annunciato che il supporto diretto per Codex di OpenAI e Claude Code di Anthropic sarà rilasciato la prossima settimana.
Ciò suggerisce che Slate non sta cercando di competere con le interfacce native di questi modelli, ma piuttosto di agire come livello di orchestrazione superiore che consente agli ingegneri di utilizzarli tutti contemporaneamente, in modo sicuro ed economico.
Ho contattato
Dal punto di vista architettonico, il sistema è progettato per massimizzare la memorizzazione nella cache attraverso il riutilizzo del sottothread, un trucco di “nuova ingegneria del contesto” che secondo il crew impedisce all’approccio swarm di diventare un peso finanziario per gli utenti.
Stabilità dell’intelligenza artificiale
Forse l’argomento più convincente a favore dell’architettura Slate è la sua stabilità. Nei take a look at interni, una prima versione di questo sistema di threading è riuscita a superare 2/3 dei take a look at sull’attività make-mips-interpreter all’interno della suite Terminal Bench 2.0.
Questo è un compito in cui anche i modelli di frontiera più recenti, come Opus 4.6, spesso riescono meno del 20% delle volte se utilizzati in cablaggi commonplace non orchestrati.
Questo successo in un ambiente “mutato” o in cambiamento è ciò che distingue uno strumento da un associate. Secondo la documentazione di Random Labs, un fondatore fintech di New York ha descritto Slate come il loro “miglior strumento di debug”, un sentimento che riecheggia l’obiettivo più ampio di Random Labs: costruire agenti che non si limitino a completare un immediate, ma si adattino come un’organizzazione.
Mentre l’industria si sposta oltre le semplici interfacce “chat together with your code”, il “Thread Weaving” di Slate V1 offre uno sguardo su un futuro in cui il ruolo primario dell’ingegnere umano è quello di dirigere una mente alveare di modelli specializzati, ciascuno dei quali lavora in concerto per risolvere i problemi a lungo orizzonte del software program moderno.









