Gli agenti IA possono connettersi tra loro, ma non possono pensare insieme. Si tratta di un’enorme differenza e di un collo di bottiglia per i sistemi di nuova generazione, afferma Outshift dell’SVP e GM di Cisco Vijoy Pandey.
Come descrive lo stato attuale dell’intelligenza artificiale: gli agenti possono essere uniti in un flusso di lavoro o inseriti in un modello di supervisore, ma non c’è allineamento semantico, né contesto condiviso. Essenzialmente lavorano da zero ad ogni giro.
Ciò richiede un’infrastruttura di livello successivo, o ciò che Pandey descrive come “internet della cognizione”.
“Gli agenti non sono in grado di pensare insieme perché la connessione non è cognizione”, ha detto. “Dobbiamo arrivare a un punto in cui si condivide la cognizione. Questo è lo sblocco più grande.”
Creazione di nuovi protocolli per supportare la comunicazione degli agenti di nuova generazione
Allora, cos’è la cognizione condivisa? È quando gli agenti o le entità dell’intelligenza artificiale possono lavorare insieme in modo significativo per risolvere qualcosa di completamente nuovo per il quale non sono stati addestrati, e farlo “al 100% senza intervento umano”, ha detto Pandey nell’ultimo episodio di Oltre il pilota.
Il dirigente della Cisco lo paragona all’intelligenza umana. Gli esseri umani si sono evoluti nel corso di centinaia di migliaia di anni, diventando prima intelligenti individualmente, poi comunicando a livello elementare (con gesti o disegni). Quella comunicazione è migliorata nel tempo, innescando infine una “rivoluzione cognitiva” e un’intelligenza collettiva che ha consentito la condivisione di intenti e la capacità di coordinare, negoziare, radicare e scoprire informazioni.
“Intento condiviso, contesto condiviso, innovazione collettiva: questa è esattamente la traiettoria che si sta delineando oggi nel silicio”, ha affermato Pandey.
Il suo team lo vede come un “problema di assistenza distribuita orizzontale”. Stanno perseguendo una “super intelligenza distribuita” codificando intenti, contesto e innovazione collettiva come un insieme di regole, API e capacità all’interno dell’infrastruttura stessa.
Il loro approccio è un insieme di nuovi protocolli: Semantic State Transfer Protocol (SSTP); Protocollo di trasferimento dello spazio latente (LSTP); e il protocollo di trasferimento dello stato compresso (CSTP).
SSTP opera a livello linguistico, analizzando la comunicazione semantica in modo che i sistemi possano dedurre lo strumento o il compito giusto. Il team di Pandey ha recentemente collaborato con il MIT un pezzo correlato chiamato Ripple Effect Protocol.
LSTP può essere utilizzato per trasferire “l’intero spazio latente” di un agente a un altro, ha spiegato Pandey. “Possiamo semplicemente prendere la cache KV e inviarla come esempio?” ha detto. “Perché sarebbe il modo più efficiente: invece di pagare la tassa di tokenizzazione, passare a un linguaggio naturale, per poi tornare indietro nello stack dall’altra parte.”
CSTP gestisce la compressione, fissando solo le varianti target e comprimendo tutto il resto. Pandey afferma che è particolarmente adatto per le implementazioni edge in cui è necessario inviare con precisione grandi quantità di stato.
In definitiva, il team di Pandey sta costruendo un tessuto per ampliare l’intelligenza e garantire che gli stati cognitivi siano sincronizzati tra gli endpoint. Inoltre, stanno sviluppando quelli che chiamano “motori cognitivi” che forniscono guardrail e accelerano i sistemi.
“Protocolli, tessuto, motori cognitivi: questi sono i tre livelli che stiamo costruendo nel perseguimento della super intelligenza distribuita”, ha affermato Pandey.
Come Cisco ha risolto un grosso punto dolente
Facendo un passo indietro rispetto a questi sistemi avanzati e di livello successivo, Cisco ha ottenuto risultati tangibili con le capacità di intelligenza artificiale esistenti. Pandey ha descritto un punto critico specifico con il team di ingegneria dell’affidabilità del sito (SRE) dell’azienda.
Mentre sfornavano sempre più prodotti e codici, il team stesso non cresceva e sentiva la pressione di migliorare l’efficienza. Pandey ha introdotto agenti AI che hanno automatizzato più di una dozzina di flussi di lavoro end-to-end, tra cui pipeline CI/CD di integrazione/distribuzione continua, spin-up di istanze EC2 e implementazioni di cluster Kubernetes.
Ora, più di 20 agenti, alcuni realizzati internamente, altri di terze parti, hanno accesso a oltre 100 strumenti tramite framework come Model Context Protocol (MCP), collegandosi anche alle piattaforme di sicurezza di Cisco.
Il risultato: una diminuzione da “ore e ore a secondi” con determinate implementazioni; inoltre, gli agenti hanno ridotto dell’80% i problemi riscontrati dal team SRE nei flussi di lavoro Kubernetes.
Tuttavia, come ha osservato Pandey, l’intelligenza artificiale è uno strumento come gli altri. “Ciò non significa che ho un nuovo martello e andrò semplicemente in giro a cercare chiodi”, ha detto. “Hai ancora un codice deterministico. Devi sposare questi due mondi per ottenere il miglior risultato per il problema che stai risolvendo.”
Ascolta il podcast per saperne di più su:
- Come stiamo ora abilitando un nuovo paradigma di calcolo non deterministico.
- Come Cisco ha aumentato le capacità di rilevamento degli errori nelle reti di grandi dimensioni dal 10% al 100%.
- Come Pandey chiamò il suo agente AI “Arnold Layne” in onore di una delle prime canzoni dei Pink Floyd.
- Perché “l’Internet della cognizione” deve essere uno sforzo aperto e interoperabile.
- Come il progetto open source di Cisco Azione affronta la scoperta, la gestione delle identità e degli accessi (IAM), l’osservabilità e la valutazione.
Puoi anche ascoltare e iscriverti Oltre il pilota SU Spotify, Mela o ovunque trovi i tuoi podcast.










