IL direttiva federale L’ordine a tutte le agenzie governative statunitensi di cessare l’uso della tecnologia antropica prevede una finestra di eliminazione graduale di sei mesi. Questa sequenza temporale presuppone che le agenzie sappiano già dove si collocano i modelli di Anthropic all’interno dei loro flussi di lavoro. La maggior parte non lo fa oggi.
Nemmeno la maggior parte delle imprese lo farebbe. Il divario tra ciò che le aziende pensano di aver approvato e ciò che è effettivamente in produzione è più ampio di quanto si rendano conto la maggior parte dei chief della sicurezza.
Le dipendenze dei fornitori di intelligenza artificiale non si fermano al contratto firmato; si riversano attraverso i tuoi fornitori, i fornitori dei tuoi fornitori e le piattaforme SaaS adottate dai tuoi staff senza una revisione degli approvvigionamenti. La maggior parte delle aziende non ha mai mappato quella catena.
L’inventario che nessuno ha eseguito
Un sondaggio Panorays del gennaio 2026 condotto su 200 CISO statunitensi ha dato un numero al problema: solo il 15% ha affermato di aver piena visibilità sulle loro catene di fornitura di software, rispetto advert appena il 3% di un anno fa. E secondo a Sondaggio BlackFog di 2.000 lavoratori nelle aziende con più di 500 dipendenti; Il 69% dei membri del gruppo dirigente ha affermato di essere d’accordo.
È qui che si accumulano le dipendenze non documentate dei fornitori di intelligenza artificiale, invisibili al staff di sicurezza finché una migrazione forzata non le rende un problema per tutti.
“Se chiedessi a un’azienda tipica di produrre un grafico delle dipendenze che includa chiamate AI di secondo e terzo ordine, lo costruirebbero da zero sotto pressione”, ha affermato Merritt Baer, CSO di Enkrypt AI ed ex vice CISO di AWS, in un’intervista esclusiva con VentureBeat. “La maggior parte dei programmi di sicurezza sono stati creati per risorse statiche. L’intelligenza artificiale è dinamica, compositiva e sempre più indiretta.”
Quando un rapporto con un fornitore termina da un giorno all’altro
La direttiva crea una migrazione forzata diversa da qualsiasi cosa il governo federale abbia tentato con un fornitore di intelligenza artificiale. Qualsiasi azienda che esegue flussi di lavoro critici su un singolo fornitore di intelligenza artificiale deve affrontare gli stessi calcoli se quel fornitore scompare.
Sadesso ho visto gli incidenti dell’intelligenza artificiale rappresentano il 20% di tutte le violazioniaggiungendo fino a 670.000 dollari ai costi medi di violazione, ha rilevato il rapporto 2025 Price of Information Breach di IBM. Non puoi eseguire un piano di transizione per l’infrastruttura di cui non hai fatto l’inventario.
Il tuo contratto con Anthropic potrebbe non esistere, ma i contratti dei tuoi fornitori sì. Una piattaforma CRM potrebbe includere Claude nel suo motore di analisi. Uno strumento del servizio clienti potrebbe richiamarlo su ogni ticket elaborato. Non hai firmato per quell’esposizione, ma l’hai ereditata, e quando un limite del fornitore colpisce a monte, si riversa rapidamente a valle. L’impresa alla tremendous di quella catena non sa che esiste la dipendenza finché non si rompe qualcosa o non viene presentata la lettera di conformità.
Antropico ha detto otto delle 10 maggiori aziende statunitensi utilizzano Claude. Qualsiasi organizzazione nella catena di fornitura di quelle aziende ha un’esposizione antropica indiretta, indipendentemente dal fatto che abbia stipulato un contratto o meno. AWS e Palantir, che detengono miliardi in contratti militari, potrebbero dover rivalutare i loro rapporti commerciali con Anthropic per mantenere gli affari del Pentagono.
La designazione del rischio della catena di fornitura significa che qualsiasi azienda che fa affari con il Pentagono ora deve dimostrare che i suoi flussi di lavoro non toccano Anthropic.
“I modelli non sono intercambiabili”, ha detto Baer a VentureBeat. “Cambiare fornitore modifica i formati di output, le caratteristiche di latenza, i filtri di sicurezza e i profili delle allucinazioni. Ciò significa riconvalidare i controlli, non solo la funzionalità.”
Ha delineato una sequenza che inizia con il triage e la valutazione del raggio dell’esplosione, passa all’analisi della deriva comportamentale e termina con l’abbandono delle credenziali e dell’integrazione. “La rotazione delle chiavi è la parte facile”, ha affermato Baer. “Districare le dipendenze hardcoded, i presupposti dell’SDK del fornitore e i flussi di lavoro degli agenti è il punto in cui le cose si interrompono.”
Le dipendenze che i tuoi log non mostrano
Un alto funzionario della difesa ha descritto il districarsi da Claude come un “enorme rompicoglioni”, secondo Axios. Se questa è la valutazione all’interno dell’apparato di sicurezza più dotato di risorse del pianeta, la domanda per i CISO aziendali è semplice. Quanto tempo impiegherebbe il tuo?
L’ondata di shadow IT che ha seguito l’adozione del SaaS ha insegnato ai staff di sicurezza i rischi tecnologici non autorizzati. Molto preso. Hanno implementato CASB, rafforzato il SSO ed eseguito l’analisi della spesa. Gli strumenti hanno funzionato perché la minaccia period visibile. Una nuova applicazione significava un nuovo login, un nuovo archivio dati, una nuova voce nei registri.
Le dipendenze dei fornitori di intelligenza artificiale non lasciano queste tracce.
“Lo Shadow IT con SaaS period visibile ai margini”, ha affermato Baer. “Le dipendenze dell’intelligenza artificiale sono combine nelle funzionalità di altri fornitori, richiamate in modo dinamico anziché installate in modo persistente, non deterministiche nel comportamento e opache. Spesso non si sa quale modello o fornitore viene effettivamente utilizzato.”
Quattro mosse per lunedì mattina
La direttiva federale non ha creato il problema della visibilità della catena di fornitura dell’IA. Lo ha esposto.
“Non ‘inventariare la tua intelligenza artificiale’, perché è troppo astratto e troppo lento”, ha detto Baer a VentureBeat. Ha raccomandato quattro mosse concrete che un chief della sicurezza può eseguire in 30 giorni.
-
Mappa i percorsi di esecuzione, non i fornitori. Strumento a livello gateway, proxy o applicazione per registrare quali servizi stanno effettuando chiamate al modello, a quali endpoint, con quali classificazioni di dati. Stai creando una mappa di utilizzo in tempo reale, non un elenco di fornitori statico.
-
Identifica i punti di controllo che possiedi effettivamente. Se il tuo unico controllo è al confine del venditore, hai già perso. È necessario applicare l’applicazione in ingresso (quali dati vengono inseriti nei modelli), in uscita (quali output sono consentiti a valle) e nei livelli di orchestrazione in cui operano agenti e pipeline.
-
Esegui un kill take a look at sulla tua principale dipendenza dall’IA. Scegli il tuo fornitore di intelligenza artificiale più critico e simulane la rimozione in un ambiente di staging. Elimina la chiave API, monitora per 48 ore e documenta quali interruzioni, cosa si deteriora silenziosamente e cosa genera errori che il tuo playbook di risposta agli incidenti non copre. Questo esercizio farà emergere dipendenze che non sapevi esistessero.
-
Forzare la divulgazione da parte del fornitore di sub-responsabili e modelli. I tuoi fornitori di intelligenza artificiale dovrebbero essere in grado di rispondere a quali modelli fanno affidamento, dove sono ospitati tali modelli e quali percorsi di fallback esistono. Se non possono, quello è il tuo punto cieco della quarta parte. Fai le domande adesso, mentre la relazione è stabile. Una volta raggiunto il limite, la leva finanziaria cambia e le risposte arrivano troppo tardi.
L’illusione del controllo
“Le aziende credono di aver ‘approvato’ i fornitori di intelligenza artificiale, ma ciò che hanno effettivamente approvato è un’interfaccia, non il sistema sottostante”, ha detto Baer a VentureBeat. “Le dipendenze reali sono uno o due livelli più profondi, e sono quelle che falliscono sotto stress.”
La direttiva federale contro l’Anthropic è un evento meteorologico di un’organizzazione. Ogni impresa alla tremendous dovrà affrontare la propria versione, indipendentemente dal fatto che l’innesco sia normativo, contrattuale, operativo o geopolitico. Le organizzazioni che hanno mappato la propria catena di fornitura di intelligenza artificiale prima della tempesta si riprenderanno. Quelli che non lo hanno fatto si arrabbieranno.
Mappa le dipendenze dei tuoi fornitori di intelligenza artificiale a livello di sottolivello. Esegui il take a look at di uccisione. Forza la divulgazione. Concediti 30 giorni. La prossima migrazione forzata non arriverà con un preavviso di sei mesi.











