Sebbene Anthropic abbia preso posizione all’inizio di quest’anno per limitare il modo in cui la sua tecnologia AI viene utilizzata in ambienti militari riservati, sembra che il resto della Silicon Valley non sia troppo preoccupato.
Altre quattro aziende tecnologiche hanno stretto accordi con il Dipartimento della Difesa degli Stati Uniti (DoD) per implementare le loro capacità avanzate di intelligenza artificiale su reti militari classificate per “uso operativo legale”.
Secondo un rapporto, Microsoft, Nvidia, Amazon Net Providers e la startup Reflection AI sono state nominate come le ultime aziende a firmare accordi con il Pentagono. Comunicato stampa del Dipartimento della Difesa. Si uniscono a SpaceX, OpenAI e Google, portando a sette il numero totale di società di intelligenza artificiale che partecipano advert attività militari classificate.
“Questi accordi accelerano la trasformazione verso l’istituzione dell’esercito degli Stati Uniti come forza di combattimento basata sull’intelligenza artificiale e rafforzeranno la capacità dei nostri combattenti di mantenere la superiorità decisionale in tutti i settori della guerra”, si legge nel comunicato stampa.
Il comunicato stampa aggiunge che l’integrazione di sistemi avanzati di intelligenza artificiale nelle reti classificate “semplificherà la sintesi dei dati, aumenterà la comprensione situazionale e aumenterà il processo decisionale dei combattenti in ambienti operativi complessi”.
“Per più di un decennio, AWS si è impegnata a supportare le forze armate della nostra nazione e a garantire che i nostri combattenti e accomplice della difesa abbiano accesso alla migliore tecnologia al miglior rapporto qualità-prezzo”, ha dichiarato a Gizmodo il portavoce di AWS Tim Barrett in una dichiarazione through e-mail. “Siamo ansiosi di continuare a sostenere gli sforzi di modernizzazione del Dipartimento della Guerra, costruendo soluzioni di intelligenza artificiale che li aiutino a compiere le loro missioni cruciali”.
Microsoft, Nvidia e Reflection AI non hanno risposto immediatamente alle richieste di commento di Gizmodo.
Gli accordi arrivano mentre crescono le preoccupazioni sull’uso dell’intelligenza artificiale per la sorveglianza e le applicazioni militari.
All’inizio di quest’anno, Anthropic, che all’epoca period l’unica grande azienda di intelligenza artificiale che lavorava con il Pentagono su sistemi classificati, secondo quanto riferito si è scontrata con un muro nei negoziati con il Dipartimento della Difesa dopo che i funzionari hanno spinto per un linguaggio che consentisse l’utilizzo della tecnologia di Anthropic per “qualsiasi scopo legale”. I maggiori punti critici riguardavano potenziali usi legati alla sorveglianza domestica e ai sistemi d’arma autonomi. In entrambe le situazioni, si sostiene che l’intelligenza artificiale potrebbe già essere utilizzata legalmente per tali scopi. C’è anche il fatto che le leggi e le interpretazioni di tali leggi da parte dei tribunali cambiano continuamente, e gli Stati Uniti hanno pochissima legislazione scritta pensando all’intelligenza artificiale.
Dopo che i colloqui, secondo quanto riferito, si sono interrotti, l’amministrazione Trump ha designato la società come a rischio per la catena di approvvigionamento. In risposta, Anthropic ha successivamente intentato due azioni legali contro il Dipartimento della Difesa. Da allora, tuttavia, il presidente Donald Trump ha affermato che la sua amministrazione ha avuto “alcuni ottimi colloqui” con Anthropic e ha suggerito che un futuro accordo che ripristini l’accesso della società al lavoro del Pentagono potrebbe essere ancora “possibile”.
Il modello di intelligenza artificiale più avanzato di Anthropic, Mythos, ha ulteriormente complicato le cose. Secondo quanto riferito, il modello, che è stato rilasciato solo a un numero selezionato di organizzazioni, è già in circolazione testato dalla National Security Agency (NSA) per aiutare a identificare le vulnerabilità della sicurezza informatica nei software program ampiamente utilizzati, inclusi i prodotti Microsoft.
Eppure, proprio ieri, Il segretario alla Difesa Pete Hegseth ha affermato che Anthropic è gestita da un “pazzo ideologico che non dovrebbe avere il solo potere decisionale su ciò che facciamo” durante un’audizione della Commissione per le Forze Armate del Senato. Alla domanda se “ci sarà sempre un essere umano nel giro”, Hegseth ha evitato di dare una risposta diretta e si è limitato a “Noi seguiamo la legge e gli esseri umani prendono le decisioni”. Ha aggiunto che l’intelligenza artificiale non lo è attualmente “prendere decisioni letali”.
La controversia ha portato alcune aziende tecnologiche a cercare di restare a cavallo del recinto.
Google ha raggiunto il suo accordo all’inizio di questa settimana nonostante più di 600 dipendenti, inclusi direttori e vicepresidenti, abbiano firmato una lettera che esortava il CEO Sundar Pichai a rifiutarsi di consentire l’utilizzo dei modelli di intelligenza artificiale di Google in ambienti militari classificati.
Nel frattempo, nel submit sul weblog che annunciava l’accordo, OpenAI ha affermato di mantenere il controllo sul suo “stack di sicurezza” e di vietare l’uso della sua intelligenza artificiale per la sorveglianza nazionale di massa o per dirigere sistemi di armi autonome letali.
Le informazioni riportano che l’accordo di Google embody un linguaggio simile, ma afferma anche che la società “non conferisce alcun diritto di controllo o di veto sul legittimo processo decisionale operativo del governo”.












