Home Tecnologia Il CEO di LangChain sostiene che modelli migliori da soli non basteranno...

Il CEO di LangChain sostiene che modelli migliori da soli non basteranno a portare in produzione il tuo agente AI

8
0

Man mano che i modelli diventano più intelligenti e capaci, anche le “imbracature” che li circondano devono evolversi. Questa “ingegneria del cablaggio” è un’estensione dell’ingegneria del contesto, afferma LangChain co-fondatore e CEO Harrison Chase in a nuovo podcast VentureBeat Beyond the Pilot episodio. Mentre i tradizionali sistemi di intelligenza artificiale tendono a impedire ai modelli di funzionare in loop e di chiamare strumenti, i sistemi di intelligenza artificiale appositamente realizzati per gli agenti di intelligenza artificiale consentono loro di interagire in modo più indipendente ed eseguire in modo efficace compiti a lungo termine.

Chase ha anche parlato dell’acquisizione di OpenClaw da parte di OpenAI, sostenendo che il suo successo virale è dovuto alla volontà di “lasciarlo strappare” in modi che nessun grande laboratorio farebbe – e chiedendosi se l’acquisizione effettivamente avvicini OpenAI a una versione aziendale sicura del prodotto. “La tendenza nei sistemi di cablaggio è quella di dare effettivamente al Massive Language Mannequin (LLM) stesso un maggiore controllo sull’ingegneria del contesto, lasciandogli decidere cosa vedere e cosa non vedere”, afferma Chase. “Ora, l’concept di un assistente più autonomo e a lungo termine è realizzabile”.

Monitorare i progressi e mantenere la coerenza

Sebbene il concetto di consentire ai LLM di funzionare in loop e richiamare strumenti sembri relativamente semplice, è difficile da realizzare in modo affidabile, ha osservato Chase. Per un po’, i modelli erano “al di sotto della soglia di utilità” e semplicemente non potevano essere eseguiti in un ciclo, quindi gli sviluppatori hanno utilizzato grafici e scritto catene per aggirare il problema. Chase ha indicato AutoGPT, un tempo il progetto GitHub in più rapida crescita di sempre, come esempio cautelativo: stessa architettura dei migliori agenti di oggi, ma i modelli non erano ancora abbastanza buoni per funzionare in modo affidabile in un ciclo, quindi è svanito rapidamente. Ma man mano che i LLM continuano a migliorare, i staff possono costruire ambienti in cui i modelli possono essere eseguiti in loop e pianificare su orizzonti più lunghi e possono migliorare continuamente questi cablaggi. In precedenza, “non potevi davvero apportare miglioramenti all’imbracatura perché non potevi effettivamente far funzionare il modello con un’imbracatura”, ha detto Chase. La risposta di LangChain a questa domanda è Deep Brokers, un servizio personalizzabile imbracatura per uso generale. Costruito su LangChain e LangGraph, ha capacità di pianificazione, un file system virtuale, gestione del contesto e dei token, esecuzione del codice e funzioni di competenze e memoria. Inoltre, può delegare compiti a subagenti; questi sono specializzati con diversi strumenti e configurazioni e possono lavorare in parallelo. Anche il contesto è isolato, il che significa che il lavoro del subagente non ingombra il contesto dell’agente principale e il contesto di grandi attività secondarie viene compresso in un unico risultato per l’efficienza del token. Tutti questi agenti hanno accesso ai file system, ha spiegato Chase, e possono essenzialmente creare elenchi di cose da fare che possono eseguire e monitorare nel tempo. “Quando si passa al passaggio successivo, e si passa al passaggio due, al passaggio tre o al passaggio quattro in un processo di 200 passaggi, ha un modo per monitorare i suoi progressi e mantenere quella coerenza”, ha detto Chase. “Si tratta di lasciare che il LLM scriva i suoi pensieri mentre procede, essenzialmente.” Ha sottolineato che le imbracature dovrebbero essere progettate in modo che i modelli possano mantenere la coerenza su compiti più lunghi ed essere “suscettibili” ai modelli di decidere quando compattare il contesto nei punti che ritiene “vantaggiosi”. Inoltre, fornire agli agenti l’accesso a interpreti di codice e strumenti BASH aumenta la flessibilità. Inoltre, fornire agli agenti competenze anziché semplici strumenti caricati in anticipo consente loro di caricare le informazioni quando ne hanno bisogno. “Quindi, piuttosto che codificare tutto in un unico grande immediate di sistema,” ha spiegato Chase, “potresti avere un immediate di sistema più piccolo, ‘Questa è la base, ma se devo fare X, lasciami leggere la competenza per X. Se devo fare Y, lasciami leggere la competenza per Y.'” In sostanza, l’ingegneria del contesto è un modo “davvero fantasioso” per dire: cosa vede il LLM? Perché è diverso da ciò che vedono gli sviluppatori, ha osservato. Quando gli sviluppatori umani riescono advert analizzare le tracce degli agenti, possono mettersi nella “mentalità” dell’intelligenza artificiale e rispondere a domande come: qual è il immediate del sistema? Come viene creato? È statico o è popolato? Di quali strumenti dispone l’agente? Quando effettua una chiamata allo strumento e riceve una risposta, come viene presentata? “Quando gli agenti sbagliano, lo fanno perché non hanno il contesto giusto; quando hanno successo, hanno successo perché hanno il contesto giusto”, ha detto Chase. “Penso che l’ingegneria del contesto significhi portare le informazioni giuste nel formato giusto al LLM al momento giusto.” Ascolta il podcast per saperne di più su:

  • Come LangChain ha costruito il suo stack: LangGraph come pilastro centrale, LangChain al centro, Deep Brokers in cima.

  • Perché i sandbox di codifica saranno la prossima grande novità.

  • Come si evolverà un diverso tipo di UX man mano che gli agenti vengono eseguiti a intervalli più lunghi (o in modo continuo).

  • Perché le tracce e l’osservabilità sono fondamentali per costruire un agente che funzioni davvero.

Puoi anche ascoltare e iscriverti Oltre il pilota SU Spotify, Mela o ovunque trovi i tuoi podcast.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here