Antropico “non lo ha ha soddisfatto i severi requisiti” di perdere temporaneamente la designazione di rischio della catena di fornitura imposta dal Pentagono, una corte d’appello statunitense a Washington, DC, ha deciso mercoledì. La decisione è in contrasto con quella emessa il mese scorso da un giudice della corte di grado inferiore di San Francisco, e non period immediatamente chiaro come sarebbero state risolte le sentenze preliminari contrastanti.
Il governo ha sanzionato Anthropic con due various leggi sulla catena di approvvigionamento con effetti simili, e i tribunali di San Francisco e Washington, DC, si stanno pronunciando ciascuno solo su uno di essi. Anthropic ha affermato di essere la prima azienda statunitense advert essere designata ai sensi delle due leggi, che vengono generalmente utilizzate per punire le imprese straniere che rappresentano un rischio per la sicurezza nazionale.
“Concedere una sospensione costringerebbe l’esercito degli Stati Uniti a prolungare i suoi rapporti con un fornitore indesiderato di servizi critici di intelligenza artificiale nel mezzo di un significativo conflitto militare in corso”, ha affermato la giuria d’appello di tre giudici. ha scritto mercoledì in quello che hanno descritto come un caso senza precedenti. La commissione ha affermato che, sebbene Anthropic possa subire danni finanziari a causa della designazione in corso, non vuole rischiare “una sostanziale imposizione giudiziaria sulle operazioni militari” o “ignorare leggermente” i giudizi dei militari sulla sicurezza nazionale.
Il giudice di San Francisco aveva ritenuto che il Dipartimento della Difesa probabilmente avesse agito in malafede contro Anthropic, spinto dalla frustrazione per i limiti proposti dalla società di intelligenza artificiale su come la sua tecnologia poteva essere utilizzata e dalla critica pubblica nei confronti di tali restrizioni. Il giudice ha ordinato la rimozione dell’etichetta di rischio della catena di approvvigionamento la scorsa settimana e l’amministrazione Trump ha ottemperato ripristinando l’accesso agli strumenti di intelligenza artificiale antropica all’interno del Pentagono e in tutto il resto del governo federale.
La portavoce di Anthropic, Danielle Cohen, afferma che l’azienda è grata al tribunale di Washington, DC, “che ha riconosciuto che questi problemi devono essere risolti rapidamente” e rimane fiduciosa che “i tribunali alla high-quality concorderanno sul fatto che queste designazioni della catena di approvvigionamento erano illegali”.
Il Dipartimento della Difesa non ha risposto immediatamente a una richiesta di commento.
I casi stanno mettendo alla prova quanto potere ha il ramo esecutivo sulla condotta delle aziende tecnologiche. La battaglia tra Anthropic e l’amministrazione Trump si sta svolgendo anche mentre il Pentagono impiega l’intelligenza artificiale nella sua guerra contro l’Iran. La società ha sostenuto di essere stata punita illegalmente per aver insistito sul fatto che il suo strumento di intelligenza artificiale Claude non ha la precisione necessaria per alcune operazioni sensibili come l’effettuazione di attacchi mortali con droni senza supervisione umana.
Diversi esperti in contratti governativi e diritti aziendali hanno dichiarato a WIRED che Anthropic ha forti ragioni contro il governo, ma i tribunali a volte si rifiutano di prevalere sulla Casa Bianca su questioni relative alla sicurezza nazionale. Alcuni ricercatori sull’intelligenza artificiale hanno affermato che le azioni del Pentagono contro l’uomo “raffreddano il dibattito professionale” sulle prestazioni dei sistemi di intelligenza artificiale.
Anthropic ha affermato in tribunale di aver perso affari a causa della designazione, che secondo gli avvocati governativi impedisce al Pentagono e ai suoi appaltatori di utilizzare Claude AI della società come parte di progetti militari. E finché Trump rimarrà al potere, Anthropic potrebbe non essere in grado di riconquistare il significativo punto d’appoggio che deteneva nel governo federale.
Le decisioni finali nelle due trigger legali della società potrebbero arrivare tra mesi. La corte di Washington ascolterà le argomentazioni orali il 19 maggio.
Finora le parti hanno rivelato dettagli minimi su come esattamente il Dipartimento della Difesa ha utilizzato Claude o quanti progressi ha fatto nella transizione del personale verso altri strumenti di intelligenza artificiale di Google DeepMind, OpenAI o altri. L’esercito, che sotto la presidenza Trump si autodefinisce Dipartimento di Guerra, ha affermato di aver adottato misure per garantire che Anthropic non possa tentare di proposito di sabotare i suoi strumenti di intelligenza artificiale durante la transizione.












