Home Tecnologia Anthropic si oppone alla legge sulla responsabilità estrema dell’intelligenza artificiale sostenuta da...

Anthropic si oppone alla legge sulla responsabilità estrema dell’intelligenza artificiale sostenuta da OpenAI

23
0

L’antropologia è arrivata contro una proposta di legge dell’Illinois sostenuta da OpenAI che proteggerebbe i laboratori di intelligenza artificiale dalla responsabilità se i loro sistemi venissero utilizzati per causare danni su larga scala, come vittime di massa o danni alla proprietà per oltre 1 miliardo di dollari.

La disputa sul disegno di legge SB 3444 sta tracciando nuove linee di battaglia tra Anthropic e OpenAI su come dovrebbero essere regolamentate le tecnologie di intelligenza artificiale. Sebbene gli esperti di politica sull’intelligenza artificiale affermino che la legislazione ha solo una remota possibilità di diventare legge, ha comunque messo in luce le divisioni politiche tra due importanti laboratori di intelligenza artificiale statunitensi che potrebbero diventare sempre più importanti man mano che le società rivali intensificano la loro attività di lobbying in tutto il paese.

Dietro le quinte, Anthropic ha esercitato pressioni sul senatore statale Invoice Cunningham, sponsor dell’SB 3444, e su altri legislatori dell’Illinois affinché apportassero importanti modifiche al disegno di legge o lo eliminassero così com’è, secondo persone che hanno familiarità con la questione. In una e-mail a WIRED, un portavoce di Anthropic ha confermato l’opposizione dell’azienda all’SB 3444 e ha affermato di aver avuto conversazioni promettenti con Cunningham sull’utilizzo del disegno di legge come punto di partenza per la futura legislazione sull’intelligenza artificiale.

“Siamo contrari a questo disegno di legge. Una buona legislazione sulla trasparenza deve garantire la sicurezza pubblica e la responsabilità delle aziende che sviluppano questa potente tecnologia, non fornire una carta per uscire di prigione contro ogni responsabilità”, ha detto in una nota Cesar Fernandez, capo delle relazioni tra stati e governi locali degli Stati Uniti di Anthropic. “Sappiamo che il senatore Cunningham ha a cuore la sicurezza dell’intelligenza artificiale e non vediamo l’ora di lavorare con lui su cambiamenti che unirebbero invece la trasparenza con una reale responsabilità per mitigare i danni più gravi che i sistemi di intelligenza artificiale di frontiera potrebbero causare.”

I rappresentanti di Cunningham non hanno risposto a una richiesta di commento. Un portavoce del governatore dell’Illinois JB Pritzker ha inviato la seguente dichiarazione: “Mentre l’ufficio del governatore monitorerà ed esaminerà le numerose leggi sull’intelligenza artificiale in fase di passaggio all’Assemblea generale, il governatore Pritzker non crede che alle grandi aziende tecnologiche dovrebbe mai essere dato uno scudo completo che sfugga alle responsabilità che dovrebbero avere per proteggere l’interesse pubblico.”

Il nocciolo del disaccordo tra OpenAI e Anthropic sull’SB 3444 dipende da chi dovrebbe essere responsabile in caso di un disastro provocato dall’intelligenza artificiale: uno situation potenziale da incubo che i legislatori statunitensi hanno iniziato advert affrontare solo di recente. Se l’SB 3444 venisse approvato, un laboratorio di intelligenza artificiale non sarebbe responsabile se un malintenzionato utilizzasse il suo modello di intelligenza artificiale, advert esempio, per creare un’arma biologica che uccide centinaia di persone, a condizione che il laboratorio rediga il proprio quadro di sicurezza e lo pubblichi sul suo sito net.

OpenAI ha sostenuto che SB 3444 riduce il rischio di gravi danni derivanti dai sistemi di intelligenza artificiale di frontiera “consentendo comunque a questa tecnologia di entrare nelle mani delle persone e delle imprese, piccole e grandi, dell’Illinois”.

Il produttore di ChatGPT afferma di aver collaborato con stati come New York e California per creare quello che definisce un approccio “armonizzato” alla regolamentazione dell’IA. “In assenza di un’azione federale, continueremo a collaborare con gli stati, incluso l’Illinois, per lavorare verso un quadro di sicurezza coerente”, ha affermato in una nota la portavoce di OpenAI Liz Bourgeois. “Speriamo che queste leggi statali contribuiscano a creare un quadro nazionale che contribuisca a garantire che gli Stati Uniti continuino a guidare”.

Anthropic, d’altro canto, sostiene che le aziende che sviluppano modelli di intelligenza artificiale di frontiera dovrebbero essere ritenute almeno parzialmente responsabili se la loro tecnologia viene utilizzata per danni sociali diffusi.

Alcuni esperti sostengono che il disegno di legge smantellerebbe le normative esistenti intese a dissuadere le aziende dal comportarsi male. “La responsabilità esiste già ai sensi del diritto comune e fornisce un potente incentivo alle società di intelligenza artificiale advert adottare misure ragionevoli per prevenire i rischi prevedibili derivanti dai loro sistemi di intelligenza artificiale”, afferma Thomas Woodside, cofondatore e consulente politico senior presso Safe AI Challenge, un’organizzazione no-profit che ha contribuito a sviluppare e sostenere le leggi sulla sicurezza dell’IA in California e New York. “L’SB 3444 farebbe il passo estremo eliminando quasi completamente la responsabilità per danni gravi. Ma è una cattiva thought indebolire la responsabilità, che nella maggior parte degli stati è la forma più significativa di responsabilità legale per le società di intelligenza artificiale già in atto.”

fonte