La senatrice Elizabeth Warren (D-MA) ha inviato un lettera al segretario alla Difesa Pete Hegseth lunedì esprimendo preoccupazione per la decisione del Pentagono di concedere alla società xAI di Elon Musk l’accesso alle reti riservate.
“Grok, il controverso modello di intelligenza artificiale sviluppato da xAI, ha fornito risultati inquietanti per gli utenti, tra cui fornire agli utenti” consigli su come commettere omicidi e attacchi terroristici “, generare contenuti antisemiti e creare materiale pedopornografico”, si legge nella lettera.
Warren ha affermato che “l’apparente mancanza di adeguati guardrail” da parte di Grok potrebbe comportare “seri rischi per la sicurezza del personale militare statunitense e per la sicurezza informatica dei sistemi classificati”. Ha chiesto a Hegseth di fornire informazioni su come il Dipartimento della Difesa intende “mitigare questi potenziali rischi per la sicurezza nazionale”.
Warren non è il primo a esprimere allarme per Grok, il controverso chatbot di xAI, che ottiene l’accesso a sistemi classificati. Il mese scorso, una coalizione di organizzazioni no-profit ha esortato il governo a sospendere immediatamente l’impiego di Grok nelle agenzie federali, compreso il DoD, dopo che gli utenti di X avevano ripetutamente invitato il chatbot a trasformare foto reali di donne, e in alcuni casi di bambini, in immagini sessualizzate senza il loro consenso. Lo stesso giorno in cui Warren ha inviato la sua lettera, è stata intentata un’azione legale collettiva contro xAI sostenendo che Grok aveva generato contenuti sessuali da immagini reali dei querelanti come minorenni.
La lettera arriva all’indomani della decisione del Pentagono di etichettare Anthropic come un rischio per la catena di approvvigionamento dopo che l’azienda di intelligenza artificiale si è rifiutata di concedere ai militari un accesso illimitato ai suoi sistemi di intelligenza artificiale. Anthropic period stata, fino a poco tempo fa, l’unica azienda di intelligenza artificiale con sistemi classificati pronti. Nel mezzo di quel conflitto, secondo quanto riferito, il Dipartimento della Difesa ha firmato un accordo con OpenAI e xAI per utilizzare i sistemi di intelligenza artificiale delle due società nelle reti classificate. Axios.
Un alto funzionario del Pentagono ha confermato che Grok è stato imbarcato per essere utilizzato in un ambiente classificato, ma non è ancora stato utilizzato.
“Non è chiaro quali garanzie o documentazione xAI abbia fornito al Dipartimento della Difesa sulle garanzie di sicurezza di Grok, sulle pratiche di gestione dei dati o sui controlli di sicurezza, e se il Dipartimento della Difesa abbia valutato tali assicurazioni prima di consentire a Grok l’accesso al sistema classificato”, scrive Warren.
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
Warren ha richiesto una copia dell’accordo raggiunto tra il Dipartimento della Difesa e xAI sull’uso di Grok nei sistemi classificati e una spiegazione su come il dipartimento intende garantire che Grok non sia esposto advert attacchi informatici e “non trapelerà informazioni militari sensibili o classificate”.
(La settimana scorsa, secondo quanto riferito, un ex dipendente del Dipartimento per l’efficienza governativa di Musk ha rubato i dati personali degli americani dall’Amministrazione della previdenza sociale e li ha archiviati su una chiavetta USB: l’ultima accusa di Perdita di dati relativa a DOGE.)
Il portavoce capo del Pentagono Sean Parnell ha affermato che il dipartimento “non vede l’ora di implementare Grok sulla sua piattaforma ufficiale di intelligenza artificiale GenAI.mil nel prossimo futuro”.
GenAI.mil è la piattaforma aziendale sicura dell’esercito per l’intelligenza artificiale generativa che offre ai lavoratori del Dipartimento della Difesa l’accesso a modelli linguistici di grandi dimensioni (LLM) e advert altri strumenti di intelligenza artificiale all’interno di ambienti cloud approvati dal governo. È progettato per aiutare principalmente con attività non classificate come ricerca, redazione di documenti e analisi dei dati.












