Home Tecnologia Il quadro dell’intelligenza artificiale di Trump prende di mira le leggi statali...

Il quadro dell’intelligenza artificiale di Trump prende di mira le leggi statali e sposta l’onere della sicurezza dei bambini sui genitori

4
0

Venerdì l’amministrazione Trump ha presentato a quadro legislativo per una politica unica per l’IA negli Stati Uniti. Il quadro centralizzerebbe il potere a Washington anticipando le leggi statali sull’intelligenza artificiale, minando potenzialmente la recente ondata di sforzi da parte degli stati per regolamentare l’uso e lo sviluppo della tecnologia.

“Questo quadro può avere successo solo se applicato in modo uniforme in tutti gli Stati Uniti”, si legge in una dichiarazione della Casa Bianca sul quadro. “Un mosaico di leggi statali contrastanti minerebbe l’innovazione americana e la nostra capacità di guidare la corsa globale all’intelligenza artificiale”.

Il quadro delinea sette obiettivi chiave che danno priorità all’innovazione e al ridimensionamento dell’intelligenza artificiale e propone un approccio federale centralizzato che prevalga sulle normative più rigide a livello statale. Attribuisce una responsabilità significativa ai genitori per questioni come la sicurezza dei bambini e stabilisce aspettative relativamente morbide e non vincolanti per la responsabilità della piattaforma.

Advert esempio, afferma che il Congresso dovrebbe richiedere alle società di intelligenza artificiale di implementare funzionalità che “riducano i rischi di sfruttamento sessuale e danni ai minori”, ma non stabilisce alcun requisito chiaro e applicabile.

Il quadro di Trump arriva tre mesi dopo aver firmato un ordine esecutivo che ordina alle agenzie federali di contestare le leggi statali sull’intelligenza artificiale. L’ordinanza ha concesso al Dipartimento del Commercio 90 giorni per compilare un elenco di leggi statali “onerose” sull’intelligenza artificiale, che potrebbero mettere a rischio l’idoneità degli stati a ricevere fondi federali come le sovvenzioni per la banda larga. L’agenzia deve ancora pubblicare l’elenco.

L’ordine ha inoltre ordinato all’amministrazione di collaborare con il Congresso su una legge uniforme sull’IA. Questa visione sta diventando sempre più chiara e rispecchia la precedente strategia di Trump sull’intelligenza artificiale, che si concentrava meno sui guardrail e più sulla promozione della crescita delle aziende.

Il nuovo quadro propone uno “normal nazionale minimamente oneroso”, facendo eco alla più ampia spinta dell’amministrazione a “rimuovere le barriere out of date o non necessarie all’innovazione” e advert accelerare l’adozione dell’IA in tutti i settori. Si tratta di un approccio normativo leggero e favorevole alla crescita, sostenuto dagli “accelerazionisti”, uno dei quali è lo zar dell’intelligenza artificiale della Casa Bianca e il enterprise capitalist David Sacks.

Evento Techcrunch

San Francisco, California
|
13-15 ottobre 2026

Anche se il quadro fa un cenno al federalismo, i margini per gli stati sono relativamente ristretti, preservando solo la loro autorità su leggi generali come la frode e la protezione dei minori, la zonizzazione e l’uso statale dell’intelligenza artificiale. Traccia una linea dura contro gli stati che regolano lo stesso sviluppo dell’intelligenza artificiale, che secondo lui è una questione “intrinsecamente interstatale” legata alla sicurezza nazionale e alla politica estera.

Il quadro mira anche a impedire agli Stati di “penalizzare[ing] Sviluppatori di intelligenza artificiale per condotta illegale di terzi che coinvolgono i loro modelli”: uno scudo di responsabilità fondamentale per gli sviluppatori.

In story quadro mancano eventuali iniziative verso quadri di responsabilità, supervisione indipendente o meccanismi di applicazione dei potenziali nuovi danni causati dall’intelligenza artificiale. In effetti, il quadro centralizzerebbe il processo decisionale sull’intelligenza artificiale a Washington, restringendo allo stesso tempo lo spazio affinché gli stati possano agire come primi regolatori dei rischi emergenti.

I critici affermano che gli stati sono i recinti della democrazia e sono stati più rapidi nell’approvare leggi sui rischi emergenti. In particolare, il RAISE Act di New York e l’SB-53 della California cercano di garantire che le grandi aziende di intelligenza artificiale abbiano e aderiscano a protocolli di sicurezza documentati pubblicamente.

“Lo zar dell’intelligenza artificiale della Casa Bianca, David Sacks, continua a eseguire gli ordini delle grandi tecnologie a scapito degli americani normali e laboriosi”, ha affermato Brendan Steinhauser, CEO di The Alliance for Safe AI. “Questo quadro federale sull’IA mira a impedire agli stati di legiferare sull’intelligenza artificiale e non fornisce alcun percorso verso la responsabilità degli sviluppatori di intelligenza artificiale per i danni causati dai loro prodotti”.

Molti nel settore dell’intelligenza artificiale stanno celebrando questa direzione perché dà loro maggiori libertà di “innovare” senza la minaccia della regolamentazione.

“Questo quadro è esattamente ciò che le startup chiedono: uno normal nazionale chiaro in modo che possano costruire velocemente e su larga scala”, ha detto a TechCrunch Teresa Carlson, presidente del Common Catalyst Institute. “I fondatori non dovrebbero essere costretti a destreggiarsi in un mosaico di leggi statali contrastanti sull’IA che impediscono l’innovazione”.

Il quadro è stato emanato in un momento in cui la sicurezza dei bambini è emersa come un punto critico centrale nel dibattito sull’intelligenza artificiale. Alcuni stati si sono mossi in modo aggressivo per approvare leggi volte a proteggere i minori e advert attribuire maggiori responsabilità alle aziende tecnologiche. La proposta dell’amministrazione punta in una direzione diversa, ponendo maggiore enfasi sul controllo genitoriale piuttosto che sulla responsabilità della piattaforma.

“I genitori sono i più attrezzati per gestire l’ambiente digitale e l’educazione dei propri figli”, si legge nel quadro. “L’Amministrazione chiede al Congresso di fornire ai genitori gli strumenti per farlo in modo efficace, come il controllo degli account per proteggere la privateness dei propri figli e gestire l’utilizzo dei dispositivi”.

Il quadro afferma inoltre che l’amministrazione “crede” che le piattaforme di intelligenza artificiale dovrebbero “implementare funzionalità per ridurre il potenziale sfruttamento sessuale dei bambini e l’incoraggiamento all’autolesionismo”. Mentre invita il Congresso a richiedere tali tutele e afferma che le leggi esistenti, comprese quelle che vietano i materiali pedopornografici, dovrebbero applicarsi ai sistemi di intelligenza artificiale, la proposta utilizza qualificazioni come “commercialmente ragionevole” e si ferma prima di stabilire prerequisiti chiari.

Sul tema del copyright, il quadro tenta di trovare una through di mezzo tra la protezione dei creatori e il consentire ai sistemi di intelligenza artificiale di essere addestrati su opere esistenti, citando la necessità di un “truthful use”. Questo tipo di linguaggio rispecchia le argomentazioni avanzate dalle aziende di intelligenza artificiale mentre si trovano advert affrontare un numero crescente di trigger legali sul copyright sui loro dati di addestramento.

I principali limiti che il quadro di riferimento dell’IA di Trump sembrano delineare riguardano la garanzia che “l’intelligenza artificiale possa perseguire verità e accuratezza senza limitazioni”. Nello specifico, si concentra sulla prevenzione della censura imposta dal governo, piuttosto che sulla moderazione della piattaforma stessa.

“Il Congresso dovrebbe impedire al governo degli Stati Uniti di costringere i fornitori di tecnologia, compresi i fornitori di intelligenza artificiale, a vietare, obbligare o alterare i contenuti sulla base di programmi di parte o ideologici”, si legge nel quadro. Incarica inoltre il Congresso di fornire agli americani un modo per perseguire un ricorso legale contro le agenzie governative che cercano di censurare l’espressione su piattaforme di intelligenza artificiale o di dettare informazioni fornite da una piattaforma di intelligenza artificiale.

Il quadro arriva mentre Anthropic sta facendo causa al governo per presunta violazione dei diritti del Primo Emendamento dopo che il Dipartimento della Difesa (DOD) lo ha etichettato come un rischio per la catena di approvvigionamento. Anthropic sostiene che il DOD lo sta designando come story come ritorsione per non aver consentito ai militari di utilizzare i suoi prodotti di intelligenza artificiale per la sorveglianza di massa degli americani o per prendere decisioni su bersagli e spari con armi letali autonome. Trump ha definito Anthropic e il suo amministratore delegato Dario Amodei “svegli” e un “radicale di sinistra”.

Il linguaggio del quadro, che enfatizza la protezione della “lecita espressione politica o del dissenso”, sembra basarsi sul precedente ordine esecutivo di Trump contro la “wake AI”, che spingeva le agenzie federali advert adottare sistemi ritenuti ideologicamente neutrali.

Non è chiaro cosa si qualifichi come censura rispetto alla moderazione normal dei contenuti, quindi story linguaggio potrebbe rendere difficile per i regolatori coordinarsi con le piattaforme su questioni come la disinformazione, l’interferenza elettorale o i rischi per la sicurezza pubblica.

Samir Jain, vicepresidente della politica presso il Centro per la democrazia e la tecnologia, ha sottolineato: “[The framework] cube giustamente che il governo non dovrebbe costringere le società di intelligenza artificiale a vietare o alterare i contenuti sulla base di “agende di parte o ideologiche”, eppure l’ordine esecutivo dell’amministrazione “sveglia l’intelligenza artificiale” di quest’property fa esattamente questo”.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here