Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- La nuova guida politica della Casa Bianca vuole ignorare la maggior parte delle leggi statali sull’intelligenza artificiale.
- La legislazione federale proposta è in gran parte leggera e preoccupa alcuni stati.
- I ricercatori sono ancora insoddisfatti degli approcci federali alla sicurezza dell’IA.
Venerdì l’amministrazione Trump ha pubblicato nuove linee guida politiche per il Congresso su come l’IA dovrebbe essere regolamentata a livello federale, rilanciando ancora una volta l’appello a ostacolare le leggi statali sull’IA.
Dopo un tentativo fallito di limitare la legislazione statale sull’IA l’property scorsa, l’amministrazione ha ripreso i suoi sforzi con un Ordine esecutivo di dicembre e un conseguente Task Force per il contenzioso sull’IA focalizzato sulla riduzione delle leggi statali che ritiene limiterebbe lo sviluppo competitivo.
Inoltre: 5 modi in cui norme e regolamenti possono aiutarti a guidare la tua innovazione nell’intelligenza artificiale
Ecco cosa il nuovo quadro vuole che faccia il Congresso, una panoramica delle leggi statali più significative sull’intelligenza artificiale già in vigore e perché gli esperti ritengono che siano importanti.
Cosa suggerisce la guida
In linea con l’approccio adottato finora da questa amministrazione, la nuova guida – che stavamo aspettando dal piano d’azione sull’IA di quest’property – mira a mantenere la regolamentazione federale sull’IA al minimo, pur prevalendo su numerous leggi statali sull’IA.
In assenza di una regolamentazione federale che affronti le preoccupazioni di molti stati sull’intelligenza artificiale, in tutto il paese sono emerse leggi locali. L’amministrazione Trump e le società di intelligenza artificiale sostengono che le leggi statali creano uno scomodo mosaico normativo che ostacola l’innovazione. Applicano lo stesso argomento alla regolamentazione sulla sicurezza dell’IA, soprattutto a livello federale, affermando che rallenta lo sviluppo, danneggia i posti di lavoro nel settore tecnologico e cede terreno nella corsa all’IA a paesi come la Cina.
Gli esperti con cui ho parlato non sono d’accordo sul fatto che la sicurezza sia antitetica al progresso.
Inoltre: il piano AI di Trump cube molto sull’open supply, ma ecco cosa tralascia
Il quadro afferma che le leggi statali non devono “agire contrariamente alla strategia nazionale degli Stati Uniti per raggiungere il dominio globale dell’IA”. Ciò significa non consentire agli Stati di “regolamentare lo sviluppo dell’intelligenza artificiale, perché è un fenomeno intrinsecamente interstatale con implicazioni chiave in politica estera e sicurezza nazionale”.
Suggerisce inoltre che agli stati non dovrebbe essere consentito di “penalizzare gli sviluppatori di intelligenza artificiale per la condotta illegale di terzi che coinvolgono i loro modelli”, che prende di mira l’space ancora oscura di responsabilità relativa all’uso improprio dei modelli.
Qualche movimento potenziale, però: a livello federale, il quadro invita il Congresso a codificare a impegno da parte delle aziende di intelligenza artificiale per coprire i crescenti costi energetici dei information middle.
Consentire alcune tutele statali
Tuttavia, alcune parti del quadro consentono alle leggi statali di prevalere su quelle federali, anche per quanto riguarda il miglioramento delle competenze della forza lavoro con strumenti di intelligenza artificiale e nelle scuole.
Il quadro non pregiudicherebbe le leggi statali sulla zonizzazione che regolano dove possono essere costruiti information middle e altre infrastrutture di intelligenza artificiale e consentirebbe agli stati di utilizzare l’intelligenza artificiale a loro discrezione per “servizi che forniscono come le forze dell’ordine e l’istruzione pubblica”. In pratica, ciò potrebbe significare integrazioni molto numerous dell’IA nella polizia e nelle scuole che variano in tutto il paese. Thoughtful le preoccupazioni iniziali sull’intelligenza artificiale nelle attività di polizia e sulle sue potenziali violazioni dei diritti civili, ciò è degno di nota.
Inoltre: i modelli di intelligenza artificiale aperti della Cina sono in parità con l’Occidente: ecco cosa succederà dopo
Il quadro consentirebbe agli Stati di mantenere le leggi che affrontano le frodi e proteggono i consumatori. Permetterebbe inoltre agli stati di applicare le proprie leggi sulla protezione dei minori quando si tratta di intelligenza artificiale, compresa la legislazione sul materiale pedopornografico generato dall’intelligenza artificiale (CSAM) e sulla privateness.
Limitare il controllo statale
Il tentativo del Congresso della scorsa property di vietare agli stati di approvare regolamenti sull’intelligenza artificiale per 10 anni avrebbe trattenuto i fondi per la banda larga e le infrastrutture dell’intelligenza artificiale agli stati che non si fossero conformati. La moratoria è stata sconfitta in maniera schiacciante, preservando temporaneamente il diritto degli Stati di legiferare sull’IA nel loro territorio. Questo è in parte il motivo per cui non è chiaro se questo nuovo appello per restrizioni sulle leggi statali avrà un sostegno bipartisan.
“I requisiti federali HIPAA consentono agli stati di approvare leggi statali sulla privateness sanitaria più rigorose”, ha detto a ZDNET l’avvocato per la protezione dei dati Lily Li, fondatrice della Metaverse Regulation. “Qui non esiste una legge federale sull’IA che possa prevalere su molte delle leggi statali, e il Congresso ha respinto i precedenti tentativi di aggiungere la prelazione federale sull’IA alla legislazione passata.”
Inoltre: l’intelligenza artificiale accelererà la crescita dei posti di lavoro nel settore tecnologico: l’ex presidente di Tesla spiega dove e perché
L’11 dicembre il presidente Trump ha firmato un accordo ordine esecutivo affermando una rinnovata intenzione di centralizzare le leggi sull’intelligenza artificiale a livello federale per garantire che le aziende statunitensi siano “libere di innovare senza una regolamentazione ingombrante”. L’ordinanza sostiene che “un’eccessiva regolamentazione statale ostacola questo imperativo” creando un mosaico di leggi numerous, alcune delle quali sostiene “sono sempre più responsabili di richiedere alle entità di incorporare pregiudizi ideologici nei modelli”.
Il 9 gennaio, il Dipartimento di Giustizia ha annunciato un Task Force per il contenzioso sull’IA “la cui unica responsabilità sarà quella di contestare le leggi statali sull’IA” che sono incoerenti con un “quadro politico nazionale minimamente oneroso per l’IA”.
Tuttavia, Li non si aspetta che la Activity Power per il contenzioso sull’intelligenza artificiale abbia un impatto sostanziale sulla regolamentazione statale, almeno in California (maggiori informazioni sulla legge di quello stato più avanti).
“La job drive per il contenzioso sull’intelligenza artificiale si concentrerà sulle leggi che sono incostituzionali ai sensi della clausola del commercio dormiente e del Primo Emendamento, anticipate dalla legge federale o altrimenti illegali”, ha detto a ZDNET. “Il decimo emendamento, tuttavia, riserva esplicitamente i diritti agli stati se non c’è una legge federale, o se non c’è prelazione sulle leggi statali da parte di una legge federale.”
SB-53 e la legge RAISE
All’inizio di quest’anno sono entrate in vigore leggi sulla sicurezza dell’intelligenza artificiale, prime nel loro genere in California e New York, entrambi stati ben posizionati per influenzare le aziende tecnologiche. Ecco cosa coprono attualmente due delle leggi statali sull’intelligenza artificiale più ambiziose del paese.
California SB-53la nuova legge sulla sicurezza dell’intelligenza artificiale entrata in vigore il 1° gennaio, impone agli sviluppatori di modelli di pubblicizzare come attenueranno i maggiori rischi posti dall’intelligenza artificiale e di riferire sugli incidenti di sicurezza che coinvolgono i loro modelli (o incorrere in multe fino a 1 milione di dollari se non lo fanno). Sebbene non sia così approfondita come la legislazione statale precedentemente tentata, la nuova legge è praticamente l’unica in un panorama di IA altamente non regolamentato. Più recentemente, si è unito a Legge SOLLEVAMENTOapprovata a New York alla advantageous di dicembre, che è simile alla legge della California.
Il RAISE Act, in confronto, stabilisce anche i requisiti di segnalazione per gli incidenti di sicurezza che coinvolgono modelli di tutte le dimensioni, ma prevede una soglia di multa massima di 3 milioni di dollari dopo la prima violazione da parte di un’azienda. Mentre l’SB 53 impone alle aziende di notificare allo Stato un incidente di sicurezza entro 15 giorni, RAISE richiede la notifica entro 72 ore.
Inoltre: Nvidia vuole possedere il tuo information middle AI da un capo all’altro
L’SB 1047, una versione precedente dell’SB 53, avrebbe richiesto ai laboratori di intelligenza artificiale di testare modelli di sicurezza che costavano oltre 100 milioni di dollari e di sviluppare un meccanismo di spegnimento, o kill change, per controllarli nel caso si fossero comportati male. Quel disegno di legge è fallito di fronte alle argomentazioni secondo cui avrebbe soffocato la creazione di posti di lavoro e l’innovazione, una risposta comune agli sforzi di regolamentazione, soprattutto da parte dell’attuale amministrazione.
SB 53 utilizza una mano più leggera. Come il RAISE Act, si rivolge alle aziende con un fatturato annuo lordo superiore a 500 milioni di dollari, una soglia che esenta molte startup di intelligenza artificiale più piccole dai requisiti di rendicontazione e documentazione della legge.
“È interessante che ci sia questa soglia di entrate, soprattutto da quando c’è stata l’introduzione di molti modelli di intelligenza artificiale più snelli che possono ancora impegnarsi in molte elaborazioni, ma possono essere implementati da aziende più piccole”, ha detto Li a ZDNET. Ha osservato che il governatore Gavin Newsom ha posto il veto all’SB-1047, in parte, perché imporrebbe costi che inibiscono la crescita alle aziende più piccole, una preoccupazione ripresa anche dai gruppi di lobbying.
Inoltre: sei preoccupato che l’intelligenza artificiale possa portarti through il lavoro remoto? Sei al sicuro per ora, questo studio dimostra
“Penso che sia più motivato politicamente che necessariamente guidato dalle differenze nel potenziale danno o impatto dell’intelligenza artificiale in base alle dimensioni dell’azienda o alla dimensione del modello”, ha affermato a proposito della soglia.
Rispetto a SB-1047, SB-53 si concentra più sulla trasparenza, sulla documentazione e sulla segnalazione che sul danno reale. La legge crea requisiti per barriere attorno ai rischi catastrofici: attacchi informatici, chimici, biologici, radiologici e nucleari, lesioni personali, aggressioni o situazioni in cui gli sviluppatori perdono il controllo di un sistema di intelligenza artificiale.
Tutele aggiuntive e limiti
L’SB-53 della California richiede inoltre alle società di intelligenza artificiale di proteggere gli informatori. Ciò ha colpito Li, il quale ha osservato che, a differenza di altre parti della legge, che si rispecchiano nella legge UE e per le quali molte aziende sono quindi già preparate, la protezione degli informatori è unica nel settore tecnologico.
Inoltre: perché pagherai di più per l’intelligenza artificiale nel 2026 e 3 suggerimenti per risparmiare denaro da provare
“Non ci sono stati molti casi nel campo dell’intelligenza artificiale, ovviamente, perché è una novità”, ha detto Li. “Penso che questa sia una preoccupazione maggiore per molte aziende tecnologiche, perché c’è così tanto fatturato nel settore tecnologico e non si sa come sarà il mercato. Questo è un altro aspetto di cui le aziende sono preoccupate come parte del processo di licenziamento.”
Ha aggiunto che i requisiti di rendicontazione dell’SB 53 rendono le aziende più preoccupate nella creazione di materiale che potrebbe essere utilizzato in azioni legali collettive.
Gideon Futerman, associato di progetti speciali presso il Middle for AI Security, non ritiene che l’SB 53 avrà un impatto significativo sulla ricerca sulla sicurezza.
“Ciò non cambierà molto la situazione quotidiana, soprattutto perché la legge UE sull’intelligenza artificiale richiede già queste informazioni”, ha spiegato. “L’SB-53 non impone alcun nuovo onere.”
Inoltre: gli attacchi cloud stanno diventando sempre più rapidi e letali: ecco il tuo miglior piano di difesa
Nessuna delle due leggi richiede che i laboratori di intelligenza artificiale facciano testare i loro modelli da terze parti, sebbene il RAISE Act di New York imponga controlli annuali da parte di terzi al momento della stesura di questo articolo. Tuttavia, Futerman considera i progressi dell’SB 53.
“Ciò dimostra che la regolamentazione della sicurezza dell’IA è possibile e ha uno slancio politico. La quantità di lavoro reale sulla sicurezza in corso oggi è ancora molto al di sotto di quanto è necessario”, ha affermato. “Le aziende che corrono per costruire un’intelligenza artificiale superintelligente, pur ammettendo che questi sistemi potrebbero comportare rischi a livello di estinzione, non capiscono ancora veramente come funzionano i loro modelli.”
Dove questo lascia la sicurezza dell’IA
“Il livello di regolamentazione dell’SB-53 non è nulla in confronto ai pericoli, ma è un degno primo passo verso la trasparenza e la prima applicazione del rischio catastrofico negli Stati Uniti. Questo è dove avremmo dovuto essere anni fa”, ha detto Futerman.
Indipendentemente dalle normative statali e federali, Li ha affermato che la governance è già diventata una priorità più alta per le società di intelligenza artificiale, guidate dai loro profitti. I clienti aziendali stanno spingendo la responsabilità sugli sviluppatori e gli investitori tengono conto della privateness, della sicurezza informatica e della governance nelle loro decisioni di finanziamento.
Inoltre: la presunta “superapp” di OpenAI potrebbe finalmente risolvere uno dei miei maggiori problemi con ChatGPT
Tuttavia, ha affermato che molte aziende stanno semplicemente volando sotto il radar delle autorità di regolamentazione finché possono.
“La trasparenza da sola non rende i sistemi sicuri, ma è un primo passo cruciale”, ha affermato Futerman. Spera che la futura legislazione colmi le restanti lacune nella strategia di sicurezza nazionale.
“Ciò embrace il rafforzamento dei controlli sulle esportazioni e il tracciamento dei chip, il miglioramento dell’intelligence sui progetti di intelligenza artificiale di frontiera all’estero e il coordinamento con altre nazioni sulle applicazioni militari dell’intelligenza artificiale per prevenire un’escalation involontaria”, ha aggiunto.













