Home Tecnologia Fonti anonime descrivono dettagliatamente la presunta inaffidabilità di Sam Altman in un...

Fonti anonime descrivono dettagliatamente la presunta inaffidabilità di Sam Altman in un nuovo rapporto

7
0

Di lunedi, Il New Yorker ha pubblicato una lunga indagine che descrive in dettaglio i giorni precedenti e successivi alla breve destituzione di Sam Altman dalla carica di CEO di OpenAI.

Alla tremendous del 2023, il consiglio di amministrazione di OpenAI ha scioccato la Silicon Valley licenziando Sam Altman apparentemente all’improvviso. Dopo un blitz mediatico di cinque giorni da parte di Altman e dei suoi sostenitori e una lettera pubblica che chiedeva il suo ritorno, Altman è tornato in azienda come CEO. I membri del consiglio che avevano orchestrato il colpo di stato sono stati estromessi e sostituiti con alleati di Altman come l’economista Larry Summers e l’ex CTO di Fb Bret Taylor, che attualmente è presidente del consiglio di amministrazione di OpenAI.

Quando Altman fu reintegrato come CEO, i dipendenti di OpenAI iniziarono a riferirsi a quei giorni turbolenti come “il Blip”, in riferimento al blip nell’universo cinematografico Marvel quando il supercriminale Thanos fece scomparire metà della popolazione mondiale per cinque anni.

Secondo il rapporto del New Yorker, che cita interviste con dozzine di persone informate, incluso lo stesso Altman, il dirigente di OpenAI è stato estromesso perché i suoi stessi membri del consiglio non lo hanno ritenuto abbastanza affidabile da “tenere il dito sul pulsante” della superintelligenza artificiale, un futuro sistema di intelligenza artificiale superpotente teorico e altamente contestato che potrebbe sovraperformare l’intelligenza umana su tutti i fronti. Il termine è talvolta usato in modo intercambiabile con intelligenza generale artificiale (AGI), sebbene descriva un passo anche oltre.

A seguito di promemoria segreti inviati ai colleghi membri del consiglio dall’allora capo scienziato di OpenAI Ilya Sutskever, il consiglio avrebbe compilato un documento di circa settanta pagine che evidenziava il “modello coerente” di menzogna di Altman, compresi i protocolli di sicurezza interni.

Il rapporto afferma che la presunta storia di menzogne ​​di Altman si estende anche a un periodo precedente a OpenAI. Secondo l’indagine, i dipendenti senior della precedente startup di Altman, un servizio di condivisione della posizione ormai defunto chiamato Loopt, hanno chiesto al consiglio di licenziarlo come amministratore delegato a causa delle preoccupazioni per la sua mancanza di trasparenza.

Le accuse lo hanno seguito fino all’acceleratore di startup Y Combinator, che Altman ha guidato per cinque anni fino a quando non è stato rimosso per sfiducia, secondo le fonti citate nell’articolo. La dirigenza di Y Combinator ha affermato di non essere stato licenziato ma gli è stato solo chiesto di scegliere tra l’acceleratore di startup e OpenAI. Il defunto hacktivista ed ex comproprietario di Reddit Aaron Swartz, che period nella coorte di Altman quando si unì per la prima volta a Y Combinator come imprenditore con Loopt, lo avrebbe descritto come “un sociopatico” di cui “non ci si poteva mai fidare”.

Presso OpenAI, Altman è stato accusato di mentire ai dirigenti e persino ai funzionari governativi. Il rapporto descrive in dettaglio un caso in cui Altman ha detto ai funzionari dell’intelligence americana che la Cina aveva lanciato un importante progetto di sviluppo dell’AGI e aveva chiesto finanziamenti governativi per lanciare una controffensiva, ma poi non ha mostrato alcuna prova quando gli è stato chiesto.

Il rapporto descrive anche i casi in cui Altman avrebbe presumibilmente criticato il co-fondatore di Anthropic e allora dipendente di OpenAI Dario Amodei in merito a una disposizione nell’accordo da un miliardo di dollari firmato da Microsoft con OpenAI nel 2019 che avrebbe ignorato le clausole altruistiche che Amodei aveva incluso nello statuto dell’azienda. La clausola in questione riguardava l’AGI e presupponeva che se un’altra società avesse trovato un modo per costruirlo in modo sicuro, allora OpenAI avrebbe “smesso di competere e avrebbe iniziato advert assistere questo progetto”, in quanto organizzazione no-profit con un obiettivo prioritario per la sicurezza. Da allora OpenAI ha cambiato la sua struttura per diventare una società a scopo di lucro.

Persino alcuni dirigenti senior di Microsoft, con cui OpenAI ha una lunga partnership dall’accordo del 2019, hanno descritto Altman come qualcuno che “ha travisato, distorto, rinegoziato, rinnegato gli accordi”. A quanto pare un dirigente senior ha detto questo di Altman: “Penso che ci sia una piccola ma reale possibilità che alla tremendous venga ricordato come un truffatore al livello di Bernie Madoff o Sam Bankman Fried”.

Queste sono parole allarmanti da leggere riguardo a qualsiasi dirigente responsabile di un’azienda grande e importante come OpenAI, ma hanno ancora più peso considerando che OpenAI è l’azienda chief nella creazione di una tecnologia che molti, compresi i suoi primi dipendenti, hanno definito come una possibile minaccia esistenziale per l’umanità.

Sotto la guida di Sam Altman, la tecnologia di OpenAI si è infiltrata praticamente in tutti gli aspetti della vita moderna. L’intelligenza artificiale di OpenAI è utilizzata da decine di milioni di persone in tutto il mondo per consulenza sanitaria e da numerosi altri per qualsiasi cosa, dall’automazione del lavoro in tutti i settori al completamento dei compiti per gli studenti e persino per offrire compagnia oscura advert alcune persone sole che la cercano. ChatGPT è utilizzato anche in tutto il governo federale e Altman ha recentemente venduto la tecnologia anche al Pentagono.

Tutto questo è alimentato dalla capacità di vendita di Altman. Ha venduto il potenziale e le presunte realtà di ChatGPT a così tante persone, portando a una follia di accordi senza precedenti e potenzialmente fragile che ha raccolto così tanti investimenti che alcuni esperti dicono che sta sostenendo l’intera economia americana in questo momento.

Il rapporto del New Yorker afferma inoltre che Altman ha assicurato al consiglio che il GPT-4 period stato approvato da un comitato di sicurezza, cosa che si è rivelata una falsa dichiarazione quando un membro del consiglio ha richiesto la documentazione delle approvazioni. Sutskever ha affermato nelle be aware che Altman ha anche minimizzato la necessità di approvazioni di sicurezza in una conversazione con l’ex CTO di OpenAI Mira Murati, citando il consulente legale generale dell’azienda. Ma quando Murati ha chiesto informazioni al procuratore generale, ha detto che period “confuso da dove Sam avesse avuto questa impressione”.

Le accuse riguardanti le funzionalità di sicurezza di ChatGPT sono particolarmente gravi, considerando le conseguenze di GPT-4o, l’iterazione di ChatGPT che seguì GPT-4. Secondo quanto riferito, l’abilità del modello per il servilismo ha causato casi di “psicosi dell’IA” in utenti vulnerabili, con alcuni casi che si sono conclusi con la morte.

Alcune delle incongruenze di Altman sono state anche ben documentate pubblicamente. Di volta in volta, il capo di OpenAI ha pubblicato dichiarazioni contraddittorie su cose come i meriti di inserire annunci nei chatbot IA, la necessità di una regolamentazione dell’IA o se la funzione vocale di ChatGPT svelata nel 2024 sia stata ispirata dalla efficiency di Scarlett Johansson nel movie “Her”. Altman è stato anche recentemente esaminato attentamente per un enorme accordo da 100 miliardi di dollari con Nvidia che semplicemente non si è concretizzato come inizialmente annunciato.

Il rapporto descrive inoltre in dettaglio come la cultura dell’azienda sia cambiata notevolmente in seguito alla reintegrazione di Altman come CEO. Prima del “Blip”, la società si period avvicinata al concetto di AGI con cautela, mentre in seguito, secondo quanto riferito, AGI è diventata una stella polare per l’azienda, con slogan come “senti l’AGI” visti sulla merce nei suoi uffici. La presunta differenza è stata vista anche nella pratica, poiché OpenAI ha sciolto alcuni workforce chiave concentrati sulla sicurezza dei chatbot, come il workforce di rischio esistenziale dell’IA e il workforce di superallineamento, co-guidato da Sutskever.

Il rapporto arriva mentre la management di Altman viene messa sotto esame mentre la società inizia a prepararsi per una potenziale IPO.

Secondo un recente Il rapporto informativoAltman sembra essere ancora una volta in disaccordo con i dirigenti, questa volta per quanto riguarda la preparazione di OpenAI per una IPO. Secondo quanto riferito, Altman vuole quotarsi in borsa già nel quarto trimestre di quest’anno e si impegna a spendere 600 miliardi di dollari nei prossimi cinque anni, nonostante le aspettative secondo cui OpenAI brucerà più di 200 miliardi di dollari prima di iniziare a fare soldi. Nel frattempo, il rapporto afferma che il CFO di OpenAI Sarah Friar non crede affatto che la società sia pronta a quotarsi in borsa quest’anno, a causa degli impegni di spesa rischiosi. A differenza di Altman, secondo quanto riferito Friar non crede ancora che la crescita dei ricavi di OpenAI possa sostenere i suoi impegni finanziari, né è sicura che la società avrà bisogno di investire così tanti soldi nei server AI.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here