Home Tecnologia OpenAI sostiene un disegno di legge che limiterebbe la responsabilità per morti...

OpenAI sostiene un disegno di legge che limiterebbe la responsabilità per morti di massa o disastri finanziari causati dall’intelligenza artificiale

11
0

OpenAI sta lanciando il suo sostegno a un disegno di legge dello stato dell’Illinois che proteggerebbe i laboratori di intelligenza artificiale dalla responsabilità nei casi in cui i modelli di intelligenza artificiale vengono utilizzati per causare gravi danni alla società, come la morte o il ferimento grave di 100 o più persone o almeno 1 miliardo di dollari di danni alla proprietà.

Lo sforzo sembra segnare un cambiamento nella strategia legislativa di OpenAI. Fino advert ora, OpenAI ha giocato in gran parte in difesa, opponendosi ai progetti di legge che avrebbero potuto rendere i laboratori di intelligenza artificiale responsabili dei danni della loro tecnologia. Diversi esperti di politiche sull’intelligenza artificiale dicono a WIRED che SB 3444, che potrebbe stabilire un nuovo customary per il settore, è una misura più estrema rispetto ai progetti di legge che OpenAI ha sostenuto in passato.

Il disegno di legge proteggerebbe gli sviluppatori di intelligenza artificiale di frontiera dalla responsabilità per “danni critici” causati dai loro modelli di frontiera a condizione che non abbiano causato intenzionalmente o imprudentemente un simile incidente e abbiano pubblicato rapporti su sicurezza, protezione e trasparenza sul loro sito internet. Definisce un modello di frontiera come qualsiasi modello di intelligenza artificiale addestrato utilizzando più di 100 milioni di dollari in costi computazionali, che probabilmente potrebbero applicarsi ai più grandi laboratori di intelligenza artificiale americani, come OpenAI, Google, xAI, Anthropic e Meta.

“Sosteniamo approcci come questo perché si concentrano su ciò che conta di più: ridurre il rischio di gravi danni derivanti dai sistemi di intelligenza artificiale più avanzati pur consentendo a questa tecnologia di entrare nelle mani delle persone e delle imprese, piccole e grandi, dell’Illinois”, ha affermato il portavoce di OpenAI Jamie Radice in una dichiarazione inviata through e mail. “Contribuiscono anche a evitare un mosaico di norme stato per stato e a spostarsi verso customary nazionali più chiari e coerenti”.

Nella sua definizione di danno critico, il disegno di legge elenca alcune aree comuni di preoccupazione per l’industria dell’intelligenza artificiale, come advert esempio un cattivo attore che utilizza l’intelligenza artificiale per creare un’arma chimica, biologica, radiologica o nucleare. Se un modello di intelligenza artificiale adottasse da solo una condotta che, se commessa da un essere umano, costituirebbe un reato penale e portasse a tali risultati estremi, anche questo costituirebbe un danno grave. Se un modello di intelligenza artificiale dovesse commettere una di queste azioni ai sensi dell’SB 3444, il laboratorio di intelligenza artificiale dietro il modello non potrebbe essere ritenuto responsabile, a condizione che non sia stato intenzionale e abbia pubblicato i propri rapporti.

Le legislature federali e statali negli Stati Uniti devono ancora approvare leggi che stabiliscano specificamente se gli sviluppatori di modelli di intelligenza artificiale, come OpenAI, potrebbero essere responsabili per questi tipi di danni causati dalla loro tecnologia. Ma poiché i laboratori di intelligenza artificiale continuano a rilasciare modelli di intelligenza artificiale sempre più potenti che sollevano nuove sfide in termini di sicurezza e sicurezza informatica, come Claude Mythos di Anthropic, queste domande sembrano sempre più preveggenti.

Nella sua testimonianza a sostegno di SB 3444, anche un membro del staff International Affairs di OpenAI, Caitlin Niedermeyer, si è espresso a favore di un quadro federale per la regolamentazione dell’IA. Niedermeyer ha lanciato un messaggio coerente con la repressione dell’amministrazione Trump sulle leggi statali sulla sicurezza dell’intelligenza artificiale, sostenendo che è importante evitare “un mosaico di requisiti statali incoerenti che potrebbero creare attriti senza migliorare significativamente la sicurezza”. Ciò è anche coerente con la visione più ampia della Silicon Valley negli ultimi anni, che generalmente sostiene che sia fondamentale per Legislazione sull’intelligenza artificiale per non ostacolare la posizione dell’America nella corsa globale all’intelligenza artificiale. Sebbene la SB 3444 sia essa stessa una legge sulla sicurezza a livello statale, Niedermeyer sostiene che queste possono essere efficaci se “rafforzano un percorso verso l’armonizzazione con i sistemi federali”.

“Noi di OpenAI crediamo che la stella polare per la regolamentazione di frontiera dovrebbe essere l’implementazione sicura dei modelli più avanzati in modo da preservare anche la management degli Stati Uniti nell’innovazione”, ha affermato Niedermeyer.

Scott Wisor, direttore politico del progetto Safe AI, cube a WIRED che crede che questo disegno di legge abbia poche possibilità di essere approvato, knowledge la reputazione dell’Illinois di regolamentare in modo aggressivo la tecnologia. “Abbiamo intervistato le persone dell’Illinois, chiedendo se pensano che le società di intelligenza artificiale dovrebbero essere esenti da responsabilità, e il 90% delle persone si oppone. Non c’è motivo per cui le società di intelligenza artificiale esistenti dovrebbero affrontare una responsabilità ridotta”, afferma Wisor.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here