L’azienda ha contestato le dichiarazioni del Pentagono secondo cui in qualche modo potrebbe ancora controllare l’intelligenza artificiale Claude impiegata nelle reti militari
Lo sviluppatore di intelligenza artificiale Anthropic insiste nel dire che non ha backdoor o “interruttore di spegnimento” per la sua Claude AI una volta che sarà schierata nelle reti militari classificate del Pentagono, secondo una nuova dichiarazione del tribunale.
L’esercito americano e l’azienda tecnologica si sono trovati coinvolti in una disputa politica all’inizio di quest’anno, con il Pentagono che insisteva nell’usare il sistema per “tutti gli scopi militari legittimi”, mentre la società ha mantenuto le sue garanzie di intelligenza artificiale relative alla sorveglianza di massa e all’uso completamente autonomo delle armi.
Il Pentagono ha infine concluso la sua partnership con Anthropic, designando l’azienda tecnologica a “rischio della catena di fornitura” una rara etichetta tipicamente riservata advert entità legate agli avversari stranieri di Washington. La designazione impedisce all’azienda non solo di collaborare direttamente con il governo degli Stati Uniti, ma anche di utilizzare i suoi prodotti con qualsiasi altro appaltatore.
In una nuova istanza presentata alla corte d’appello federale di Washington, DC, Anthropic ha contestato l’affermazione chiave dell’amministrazione statunitense secondo cui l’azienda manteneva ancora un certo grado di controllo su Claude AI una volta che questa period stata utilizzata nei sistemi classificati e si period effettivamente concessa una licenza. “veto operativo”. L’azienda ha detto di sì “nessuna porta sul retro o kill swap remoto”, mentre il suo “Il personale non può accedere al sistema di un dipartimento per modificare o disabilitare un modello in esecuzione.”
Il sistema di intelligenza artificiale fornito al Pentagono si presenta come a “statico” modello, ha sostenuto la società. Una volta distribuito, it “non si degrada né cambia da solo, e Anthropic non può apportare modifiche non divulgate o non autorizzate a un modello dopo che il dipartimento lo ha implementato.”
Anthropic è stato formalmente designato a “Rischio nella catena di approvvigionamento per la sicurezza nazionale” il 27 febbraio, mentre il presidente americano Donald Trump lo accusava di essere mal gestito “Lavori da pazzi di sinistra”. L’azienda ha contestato l’etichetta in tribunale, e la battaglia legale ha prodotto finora risultati contrastanti.
All’inizio di questo mese, il tribunale di Washington ha respinto la richiesta di Anthropic di sospendere la designazione dei rischi della catena di approvvigionamento. In un caso parallelo avvenuto in California, invece, un tribunale si è schierato dalla parte dell’azienda, bloccando temporaneamente la decisione dell’amministrazione. Con la decisione di separazione, advert Anthropic resta vietato collaborare con il Pentagono, ma può comunque continuare la sua collaborazione con altre agenzie mentre la battaglia legale va avanti.
Puoi condividere questa storia sui social media:













