Home Tecnologia La designazione del rischio della catena di approvvigionamento antropica è stata bloccata...

La designazione del rischio della catena di approvvigionamento antropica è stata bloccata dal giudice

7
0

Anthropic ha vinto un’ingiunzione preliminare che impediva al Dipartimento della Difesa degli Stati Uniti di etichettarlo come un rischio per la catena di approvvigionamento, aprendo potenzialmente la strada ai clienti per riprendere a lavorare con l’azienda. La sentenza di giovedì di Rita Lin, giudice distrettuale federale di San Francisco, rappresenta una battuta d’arresto simbolica per il Pentagono e un impulso significativo per l’azienda di intelligenza artificiale generativa mentre cerca di preservare i propri affari e la propria reputazione.

“La designazione di Anthropic da parte degli imputati come ‘rischio della catena di fornitura’ è probabilmente contraria alla legge e allo stesso tempo arbitraria e capricciosa”, Lin ha scritto nel giustificare il sollievo temporaneo. “Il Dipartimento della Guerra non fornisce alcuna base legittima per dedurre dalla schietta insistenza di Anthropic sulle restrizioni all’uso che potrebbe diventare un sabotatore.”

Anthropic e il Pentagono non hanno risposto immediatamente alle richieste di commentare la sentenza.

Il Dipartimento della Difesa, che si autodefinisce Dipartimento della Guerra, si è affidato agli strumenti di intelligenza artificiale di Claude di Anthropic per scrivere documenti sensibili e analizzare dati classificati negli ultimi due anni. Ma questo mese, ha iniziato a staccare la spina a Claude dopo aver stabilito che non ci si poteva fidare di Anthropic. Funzionari del Pentagono hanno citato numerosi casi in cui Anthropic avrebbe imposto o cercato di imporre restrizioni sull’utilizzo della sua tecnologia che l’amministrazione Trump ha ritenuto non necessarie.

Alla nice l’amministrazione ha emesso numerous direttive, inclusa la designazione dell’azienda a rischio nella catena di fornitura, che hanno avuto l’effetto di bloccare lentamente l’utilizzo di Claude in tutto il governo federale e di danneggiare le vendite e la reputazione pubblica di Anthropic. La società ha intentato due ricorsi contestando le sanzioni in quanto incostituzionali. Martedì, in un’udienza, Lin ha affermato che il governo sembra aver “paralizzato” e “punito” illegalmente Anthropic.

La sentenza di Lin di giovedì “ripristina lo establishment” al 27 febbraio, prima che le direttive fossero emanate. “Ciò non impedisce a nessun imputato di intraprendere qualsiasi azione legale che sarebbe stata a sua disposizione” in quella information, ha scritto. “Advert esempio, questo ordine non impone al Dipartimento della Guerra di utilizzare prodotti o servizi di Anthropic e non impedisce al Dipartimento della Guerra di passare advert altri fornitori di intelligenza artificiale, purché tali azioni siano coerenti con le normative, gli statuti e le disposizioni costituzionali applicabili.”

La sentenza suggerisce che il Pentagono e altre agenzie federali sono ancora libere di annullare gli accordi con Anthropic e chiedere agli appaltatori che integrano Claude nei propri strumenti di smettere di farlo, ma senza citare come base la designazione del rischio della catena di approvvigionamento.

L’impatto immediato non è chiaro perché l’ordine di Lin non entrerà in vigore prima di una settimana. E una corte d’appello federale a Washington, DC deve ancora pronunciarsi sulla seconda causa intentata da Anthropic, che si concentra su una diversa legge in base alla quale alla società period anche vietato fornire software program ai militari.

Ma Anthropic potrebbe sfruttare la decisione di Lin per dimostrare advert alcuni clienti preoccupati di lavorare con un paria del settore che la legge potrebbe essere dalla loro parte nel lungo periodo. Lin non ha fissato un calendario per prendere una sentenza definitiva.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here