Secondo quanto riferito, la Casa Bianca sta valutando la supervisione dei nuovi modelli di intelligenza artificiale prima del rilascio, in un’inversione della sua posizione di non intervento
La Casa Bianca sta valutando la possibilità di rivedere nuovi modelli di intelligenza artificiale prima del rilascio ufficiale, segnando un potenziale cambiamento rispetto al suo attuale approccio non intervensivo, ha riferito lunedì il New York Occasions, citando fonti.
Secondo il quotidiano, l’amministrazione del presidente degli Stati Uniti Donald Trump sta valutando la creazione di un gruppo di lavoro sull’intelligenza artificiale che riunisca funzionari e dirigenti tecnologici per esplorare le opzioni di supervisione, compreso un possibile processo di revisione formale.
Le fonti affermano che la spinta mira a evitare ricadute politiche derivanti da un potenziale attacco informatico abilitato all’intelligenza artificiale, fornendo allo stesso tempo ai funzionari un accesso anticipato a nuovi modelli per valutare se potrebbero offrire capacità informatiche utili al Pentagono.
Il sistema potrebbe dare al governo un accesso anticipato ai modelli avanzati, anche se non necessariamente il potere di bloccarli. Secondo quanto riferito, i funzionari hanno discusso i piani la scorsa settimana con rappresentanti di Anthropic, Google e OpenAI.
L’approccio potrebbe rispecchiare l’AI Safety Institute del Regno Unito, che valuta modelli avanzati per i rischi e fornisce consulenza al governo sui guardrail. Negli Stati Uniti, i principali laboratori testano già volontariamente i modelli con il Centro federale per gli commonplace e l’innovazione dell’intelligenza artificiale, ma adotta un approccio più pro-business, inquadrando la sicurezza come uno strumento per creare fiducia.
Non è chiaro come funzionerebbero le revisioni o quali agenzie le gestirebbero. Qualsiasi meccanismo verrebbe probabilmente introdotto tramite un ordine esecutivo, sebbene non sia stata fissata alcuna tempistica.
Richiedere revisioni formali segnerebbe un’inversione di rotta nella politica di Trump sull’intelligenza artificiale. Da quando è tornato in carica, ha sostenuto una regolamentazione minima, facendo appello all’intelligenza artificiale “un bellissimo neonato” questa è la chiave per competere con la Cina e metterci in guardia “Politica o regole stupide” che potrebbero ostacolarne la crescita.

Il New York Occasions sostiene che il cambiamento è diventato urgente dopo che Anthropic ha presentato un nuovo potente modello, Claude Mythos, che ha scelto di non rendere pubblico, avvertendo che potrebbe esporre vulnerabilità critiche del software program.
Il dibattito segue anche una disputa tra Anthropic e il Pentagono, dopo che l’azienda si è rifiutata di allentare le garanzie sulla sorveglianza e sulle armi autonome. Il Dipartimento della Guerra lo ha etichettato come a “rischio della catena di fornitura” escluderlo dai contratti: una mossa che Anthropic sta ora contestando in tribunale.
Il Pentagono ha ampliato rapidamente l’uso dell’intelligenza artificiale nelle sue operazioni, stringendo recentemente accordi con Google e OpenAI per modelli classificati.
Da qualche tempo negli Stati Uniti crescono le preoccupazioni sui rischi legati all’intelligenza artificiale. Un sondaggio del Pew Analysis Middle dello scorso anno ha rilevato che il 50% degli americani period più preoccupato che entusiasta dell’intelligenza artificiale, rispetto al 37% del 2021. Un sondaggio Gallup di marzo ha mostrato che il sentimento della generazione Z sta diventando più negativo, con l’ottimismo in calo e la rabbia in aumento.
PER SAPERNE DI PIÙ:
Il Pentagono contro Anthropic: perché un gigante della tecnologia sta sfidando l’esercito americano sull’uso dell’intelligenza artificiale
Anche lo scetticismo del pubblico nei confronti della spinta dell’intelligenza artificiale del Pentafon rimane elevato. Da un sondaggio ITIF di febbraio è emerso che il 79% degli americani ritiene che sia un essere umano a dover prendere la decisione finale sulla forza letale, mentre il 75% ritiene che l’intelligenza artificiale non sia sufficientemente affidabile per un uso di vita o di morte. Lo stesso sondaggio ha mostrato un ampio sostegno ai limiti da parte delle aziende tecnologiche, con il 67% che afferma che le aziende dovrebbero limitare il modo in cui vengono utilizzati i loro prodotti, anche da parte del governo.













