Antropico ha depositato a lunedì ha fatto causa federale contro il Dipartimento della Difesa degli Stati Uniti e altre agenzie federali, contestando la designazione della società di intelligenza artificiale come un “rischio nella catena di fornitura”.
Il Pentagono ha formalmente sancito Anthropic la scorsa settimana, coronando un disaccordo durato una settimana e pubblicamente espresso sui limiti all’uso della sua tecnologia di intelligenza artificiale generativa per applicazioni militari come le armi autonome.
“Non crediamo che questa azione sia giuridicamente valida e non vediamo altra scelta se non quella di contestarla in tribunale”, ha scritto il CEO di Anthropic, Dario Amodei. un post sul blog giovedì.
IL causadepositato presso un tribunale federale in California, ha richiesto che un giudice annullasse la designazione e impedisse alle agenzie federali di applicarla. “La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola protetta”, ha affermato Anthropic nel documento. “Anthropic si rivolge alla magistratura come ultima risorsa per rivendicare i propri diritti e fermare l’illegale campagna di ritorsioni dell’esecutivo”.
La startup AI, che sviluppa una suite di modelli di intelligenza artificiale chiamata Claude, si trova advert affrontare la possibilità di perdere centinaia di milioni di dollari di entrate annuali dal Pentagono e dal resto del governo degli Stati Uniti. Potrebbe anche perdere l’attività delle società di software program che incorporano Claude nei servizi che vendono alle agenzie federali. Diversi clienti antropici lo hanno fatto secondo quanto riferito disse stanno perseguendo various a causa della designazione del rischio da parte del Dipartimento della Difesa.
Amodei ha scritto che la “stragrande maggioranza” dei clienti di Anthropic non dovrà apportare modifiche. La designazione del governo americano “si applica chiaramente solo all’uso di Claude da parte dei clienti come parte diretta dei contratti con l’esercito”, ha detto. L’uso generale delle tecnologie antropiche da parte degli appaltatori militari non dovrebbe essere influenzato.
Il Dipartimento della Difesa, che fa anche parte del Dipartimento della Guerra, e la Casa Bianca non hanno risposto immediatamente alle richieste di commento sulla causa di Anthropic.
Avvocati esperti in contratti governativi affermano che Anthropic deve affrontare una difficile battaglia in tribunale. Le regole che autorizzano il Dipartimento della Difesa che etichetta un’azienda tecnologica come un rischio per la catena di fornitura non consente molto in termini di ricorso. “Fissare i parametri di un contratto è al 100% una prerogativa del governo”, afferma Brett Johnson, accomplice dello studio legale Snell & Wilmer. Il Pentagono, cube, ha anche il diritto di esprimere che un prodotto preoccupante, se utilizzato da uno qualsiasi dei suoi fornitori, “danneggia la capacità del governo di portare a termine la sua missione”.
La migliore possibilità di successo di Anthropic in tribunale potrebbe essere quella di dimostrare di essere stata scelta, cube Johnson. Subito dopo che il segretario alla Difesa Pete Hegseth ha annunciato che avrebbe designato Anthropic un rischio per la catena di approvvigionamento, la rivale OpenAI ha annunciato di aver stipulato un nuovo contratto con il Pentagono. Ciò potrebbe essere determinante per la tesi legale di Anthropic se la società potesse dimostrare che stava cercando termini simili a quelli dello sviluppatore ChatGPT.
OpenAI ha detto il suo affare includeva mezzi contrattuali e tecnici per garantire che la sua tecnologia non sarebbe stata utilizzata per la sorveglianza nazionale di massa o per dirigere sistemi d’arma autonomi. Ha aggiunto che si opponeva all’azione contro Anthropic e sapeva perché il suo rivale non poteva raggiungere lo stesso accordo con il governo.
Priorità militare
Hegseth ha dato priorità all’adozione militare delle tecnologie di intelligenza artificiale manifesti visti di recente al Pentagono mostrandolo che indica e che cube: “Voglio che usi l’intelligenza artificiale”. La disputa con Anthropic è scoppiata a gennaio dopo che Hegseth ha ordinato a diversi fornitori di intelligenza artificiale di concordare che il dipartimento fosse libero di utilizzare le loro tecnologie per qualsiasi scopo legale.
Anthropic, che è l’unica azienda che attualmente fornisce chatbot AI e strumenti di analisi per i casi d’uso più sensibili delle forze armate, si è opposta. Sostiene che le sue tecnologie non sono ancora sufficientemente adatte per essere utilizzate per la sorveglianza interna di massa degli americani o per armi completamente autonome. Hegseth ha detto Anthropic vuole il potere di veto sulle sentenze che dovrebbero essere lasciate al Dipartimento della Difesa.












