Home Tecnologia Il “tentativo di paralizzare” l’antropologia del Pentagono è problematico, cube il giudice

Il “tentativo di paralizzare” l’antropologia del Pentagono è problematico, cube il giudice

5
0

Il Dipartimento degli Stati Uniti Sembra che la Difesa stia punendo illegalmente Anthropic per aver tentato di limitare l’uso dei suoi strumenti di intelligenza artificiale da parte dei militari, ha detto il giudice distrettuale statunitense Rita Lin durante un’udienza in tribunale martedì.

“Sembra un tentativo di paralizzare Anthropic”, ha detto Lin riferendosi al Pentagono che ha designato l’azienda come un rischio per la catena di approvvigionamento. “Sembra [the department] sta punendo Anthropic per aver tentato di portare il controllo pubblico su questa controversia contrattuale, il che ovviamente costituirebbe una violazione del Primo Emendamento.

Anthropic ha intentato due trigger legali federali sostenendo che la decisione dell’amministrazione Trump di designare la società come un rischio per la sicurezza equivaleva a una ritorsione illegale. Il governo ha affibbiato l’etichetta advert Anthropic dopo aver spinto per limitazioni su come la sua intelligenza artificiale potrebbe essere utilizzata dai militari. L’udienza di martedì si è svolta in un caso archiviato a San Francisco.

Anthropic sta cercando un ordine temporaneo per sospendere la designazione. Il sollievo, spera Anthropic, aiuterebbe a convincere alcuni dei clienti ombrosi dell’azienda a restare con esso ancora un po’. Lin può concedere una pausa solo se stabilisce che è probabile che Anthropic vinca la causa complessiva. Nei prossimi giorni è attesa la sua decisione sull’ingiunzione.

La disputa ha innescato un dibattito pubblico più ampio su come l’intelligenza artificiale viene utilizzata dalle forze armate e se le aziende della Silicon Valley debbano dare deferenza al governo nel determinare come verrà implementata la tecnologia che sviluppano.

Il Dipartimento della Difesa, noto anche come Dipartimento della Guerra o DoW, ha affermato di aver seguito le process e stabilito in modo appropriato che non si poteva più fare affidamento sugli strumenti di intelligenza artificiale di Anthropic per funzionare come previsto durante i momenti cruciali. Ha chiesto a Lin di non riconsiderare la sua valutazione sulla minaccia che Anthropic rappresenta per la sicurezza nazionale.

“La preoccupazione è che Anthropic, invece di limitarsi a sollevare preoccupazioni e respingere, dirà che abbiamo un problema con ciò che sta facendo DoW e manipolerà il software program… in modo che non funzioni nel modo in cui DoW si aspetta e vuole”, ha detto l’avvocato dell’amministrazione Trump Eric Hamilton durante l’udienza di martedì.

Lin ha detto che è compito del segretario alla Difesa Pete Hegseth – non suo – decidere se Anthropic è un fornitore appropriato per il dipartimento. Ma Lin ha detto che spetta a lei determinare se Hegseth ha violato la legge andando oltre la semplice cancellazione dei contratti governativi di Anthropic. Lin ha detto che è “preoccupante” per lei che la designazione di sicurezza e le direttive che limitano più in generale l’uso dello strumento di intelligenza artificiale di Anthropic Claude da parte degli appaltatori governativi “non sembrano essere adattate alle preoccupazioni dichiarate di sicurezza nazionale”.

Mentre il litigio tra Anthropic e il governo si intensificava il mese scorso, Hegseth pubblicato su X che “con effetto immediato, nessun appaltatore, fornitore o associate che intrattiene rapporti commerciali con l’esercito degli Stati Uniti potrà condurre alcuna attività commerciale con Anthropic”.

Ma martedì, Hamilton ha riconosciuto che Hegseth non ha alcuna autorità legale per impedire agli appaltatori militari di utilizzare Anthropic per lavori non legati al Dipartimento della Difesa. Quando Lin gli chiese perché Hegseth avrebbe dovuto postarlo, Hamilton rispose: “Non lo so”.

Lin ha inoltre chiesto a Hamilton se il Pentagono avesse preso in considerazione l’adozione di misure meno punitive per allontanare il dipartimento dall’utilizzo degli strumenti di Anthropic. Ha descritto la designazione del rischio della catena di approvvigionamento come una potente autorità tipicamente riservata advert avversari stranieri, terroristi e altri attori ostili.

Michael Mongan, un avvocato di WilmerHale che rappresenta Anthropic, ha affermato che è straordinario che il governo persegua un associate negoziale “ostinato” con la designazione.

Il Pentagono ha affermato che sta lavorando per sostituire le tecnologie antropiche nei prossimi mesi con different di Google, OpenAI e xAI. Ha inoltre affermato di aver messo in atto misure per impedire advert Anthropic di intraprendere qualsiasi manomissione durante la transizione. Hamilton ha detto di non sapere se fosse possibile per Anthropic aggiornare i suoi modelli di intelligenza artificiale senza il permesso del Pentagono; l’azienda cube che non lo è.

Si prevede che la sentenza sull’altro caso, presso la corte d’appello federale di Washington, DC, arriverà presto senza udienza.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here