Home Tecnologia La guerra fredda antropica e OpenAI arriva in Illinois

La guerra fredda antropica e OpenAI arriva in Illinois

13
0

Nonostante i suoi migliori sforzi, l’amministrazione Trump non è stata in grado di attuare una moratoria che impedisca agli stati di approvare leggi che regolano le società di intelligenza artificiale. Finora, la maggior parte degli stati ha utilizzato la propria autorità per creare barriere che le aziende di intelligenza artificiale devono rispettare. Ma in Illinois, OpenAI ha messo il suo peso (e il suo price range di lobbying) dietro un disegno di legge che gli garantirebbe protezione legale da danni su larga scala.

Sfortunatamente per lui, un altro laboratorio di intelligenza artificiale di frontiera ha messo il pollice sull’altro piatto della bilancia. Secondo a rapporto da WiredAnthropic ha anche deciso di impegnarsi nella politica locale e sta facendo pressioni contro il disegno di legge promosso da OpenAI.

Il disegno di legge al centro della lotta per il potere tra i giganti dell’intelligenza artificiale è Senato disegno di legge 3444la legge sulla sicurezza dell’intelligenza artificiale. La legislazione è stata redatta dal senatore democratico Invoice Cunningham e, sebbene il nome incredibilmente generico faccia pensare che l’obiettivo sia stabilire commonplace di sicurezza per l’intelligenza artificiale, la legge offrirebbe effettivamente sicurezza alle società di intelligenza artificiale che potrebbero affrontare controversie. In effetti, offrirebbe alle aziende di frontiera dell’intelligenza artificiale uno scudo legale impedendo loro di essere ritenute responsabili per danni su larga scala causati dai loro modelli di intelligenza artificiale, tra cui la morte o il ferimento grave di 100 o più persone o almeno 1 miliardo di dollari in danni alla proprietà.

OpenAI ha cercato di opporsi alle leggi che creerebbero ulteriori oneri per le società di intelligenza artificiale, una politica che quasi certamente è stata accelerata dal fatto che la società è stata oggetto di numerose trigger per omicidio colposo da parte di famiglie che hanno perso un membro della famiglia per suicidio in seguito a conversazioni con ChatGPT. La società ha anche sostenuto pubblicamente una parte di Legislazione sulla sicurezza dell’intelligenza artificiale in California che, pur aggiungendo requisiti di trasparenza per i modellisti di frontiera, non ha implementato alcuna legge sulla responsabilità che le società potrebbero dover affrontare. La legislazione dell’Illinois va oltre il semplice non stabilire il rischio di responsabilità, ma in realtà protegge le aziende da esso.

Secondo Wired, Anthropic ha contestato questo approccio e ha lavorato dietro le quinte per modificare o eliminare completamente il disegno di legge. “Siamo contrari a questo disegno di legge. Una buona legislazione sulla trasparenza deve garantire la sicurezza pubblica e la responsabilità delle aziende che sviluppano questa potente tecnologia, non fornire una carta per uscire di prigione contro ogni responsabilità”, ha detto alla pubblicazione Cesar Fernandez, capo delle relazioni statali e locali di Anthropic negli Stati Uniti.

Anthropic è stata molto più aggressiva di OpenAI nel sostenere commonplace di sicurezza più severi per le società di intelligenza artificiale. Le due società erano precedentemente agli estremi opposti di un disegno di legge sulla sicurezza dell’IA in California (OpenAI alla fantastic ha offerto il suo sostegno per quella legge, ma solo dopo che period abbastanza chiaro che sarebbe stata approvata). Anthropic sostiene un disegno di legge concorrente sulla sicurezza dell’IA in Illinois, SB3261ciò richiederebbe, tra le altre cose, alle aziende di intelligenza artificiale di creare piani di sicurezza pubblica e di protezione dei bambini che potrebbero essere controllati per determinarne l’efficacia.

Sebbene alcune delle posizioni a favore della sicurezza di Anthropic si riducano al advertising and marketing, l’concept che le aziende di intelligenza artificiale dovrebbero almeno essere soggette a un certo controllo se qualcuno dovesse, diciamo, utilizzare un modello di intelligenza artificiale per sviluppare un’arma chimica, non sembra esattamente un atto radicale di autoflagellazione. Sembra un’aspettativa di responsabilità abbastanza ragionevole, e sembra particolarmente assurdo che un’azienda come OpenAI esprima preoccupazione per il minacce esistenziali posti dallo sviluppo della sua tecnologia, spingendo allo stesso tempo a non essere responsabile nel caso in cui uno qualsiasi di questi risultati apocalittici si realizzasse.

Siamo andati oltre la fase dell’intelligenza artificiale “Finalmente abbiamo creato il Torment Nexus dal classico romanzo di fantascienza Non creare il Torment Nexus” alla fase “stiamo offrendo il nostro sostegno per la legge Nessuno è responsabile dei danni del Torment Nexus Act”.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here