Home Tecnologia Il Dipartimento di Giustizia afferma che non ci si può fidare dell’Anthropic...

Il Dipartimento di Giustizia afferma che non ci si può fidare dell’Anthropic per i sistemi di combattimento

7
0

L’amministrazione Trump martedì ha sostenuto in una dichiarazione in tribunale di non aver violato i diritti del Primo Emendamento di Anthropic designando lo sviluppatore di intelligenza artificiale come un rischio per la catena di approvvigionamento e ha previsto che la causa della società contro il governo fallirà.

“Il Primo Emendamento non è una licenza per imporre unilateralmente termini contrattuali al governo, e Anthropic non cita nulla a sostegno di una conclusione così radicale”, hanno scritto gli avvocati del Dipartimento di Giustizia degli Stati Uniti.

La risposta è stata depositata in un tribunale federale di San Francisco, una delle due sedi in cui Anthropic sta contestando la decisione del Pentagono di sanzionare l’azienda con un’etichetta che può escludere le aziende da contratti di difesa per preoccupazioni su potenziali vulnerabilità della sicurezza. Anthropic sostiene che l’amministrazione Trump ha oltrepassato la propria autorità nell’applicare l’etichetta e nell’impedire che le tecnologie dell’azienda vengano utilizzate all’interno del dipartimento. Se la designazione dovesse reggere, Anthropic potrebbe perdere fino a miliardi di dollari in entrate previste quest’anno.

Anthropic vuole riprendere l’attività come al solito finché il contenzioso non sarà risolto. Rita Lin, il giudice che supervisiona il caso di San Francisco, ha fissato un’udienza per martedì prossimo per decidere se onorare la richiesta di Anthropic.

Gli avvocati del Dipartimento di Giustizia, scrivendo per il Dipartimento della Difesa e altre agenzie nella dichiarazione di martedì, hanno descritto le preoccupazioni di Anthropic riguardo alla potenziale perdita di affari come “legalmente insufficienti per costituire un danno irreparabile” e hanno invitato Lin a negare alla società una tregua.

Gli avvocati hanno anche scritto che l’amministrazione Trump è stata motivata advert agire a causa di “preoccupazioni sulla potenziale condotta futura di Anthropic se avesse mantenuto l’accesso” ai sistemi tecnologici del governo. “Nessuno ha preteso di limitare l’attività espressiva di Anthropic”, hanno scritto.

Il governo sostiene che la spinta di Anthropic a limitare il modo in cui il Pentagono può utilizzare la sua tecnologia AI ha portato il segretario alla Difesa Pete Hegseth a determinare “ragionevolmente” che “il personale di Anthropic potrebbe sabotare, introdurre maliziosamente funzioni indesiderate o altrimenti sovvertire la progettazione, l’integrità o il funzionamento di un sistema di sicurezza nazionale”.

Il Dipartimento della Difesa e Anthropic hanno litigato su potenziali restrizioni sui modelli Claude AI dell’azienda. Anthropic ritiene che i suoi modelli non dovrebbero essere utilizzati per facilitare un’ampia sorveglianza degli americani e non sono attualmente abbastanza affidabili da alimentare armi completamente autonome.

Diversi esperti legali hanno precedentemente dichiarato a WIRED che Anthropic sostiene con forza che la misura sulla catena di approvvigionamento equivale a una ritorsione illegale. Ma i tribunali spesso favoriscono le argomentazioni del governo sulla sicurezza nazionale, e i funzionari del Pentagono hanno descritto Anthropic come un appaltatore che si è comportato in modo disonesto e di cui non ci si può fidare delle sue tecnologie.

“In particolare, DoW si è preoccupata del fatto che consentire advert Anthropic un accesso continuo alle infrastrutture tecniche e operative di combattimento di DoW avrebbe introdotto rischi inaccettabili nelle catene di approvvigionamento di DoW”, si legge nella dichiarazione di martedì. “I sistemi di intelligenza artificiale sono estremamente vulnerabili alla manipolazione e Anthropic potrebbe tentare di disabilitare la sua tecnologia o alterare preventivamente il comportamento del suo modello prima o durante le operazioni di guerra in corso, se Anthropic, a sua discrezione, ritiene che le sue “linee rosse” aziendali siano state superate.”

Il Dipartimento della Difesa e altre agenzie federali stanno lavorando per sostituire nei prossimi mesi gli strumenti di intelligenza artificiale di Anthropic con prodotti di aziende tecnologiche concorrenti. Uno degli usi principali di Claude da parte dei militari è attraverso il software program di analisi dei dati Palantir, hanno detto a WIRED persone che hanno familiarità con la questione.

Nella dichiarazione di martedì, gli avvocati hanno sostenuto che il Pentagono “non può semplicemente premere un interruttore in un momento in cui Anthropic è attualmente l’unico modello di intelligenza artificiale autorizzato all’uso” sui “sistemi classificati del dipartimento e operazioni di combattimento advert alta intensità sono in corso”. Il dipartimento sta lavorando per implementare sistemi di intelligenza artificiale di Google, OpenAI e xAI come different.

Un certo numero di aziende e gruppi, tra cui ricercatori di intelligenza artificiale, Microsoft, un sindacato dei dipendenti federali ed ex chief militari, hanno presentato memorie in tribunale a sostegno di Anthropic. Nessuno è stato presentato a sostegno del governo.

Anthropic ha tempo fino a venerdì per presentare una controrisposta alle argomentazioni del governo.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here