Home Tecnologia Un nuovo documentario sull’intelligenza artificiale mette i CEO in una posizione scottante,...

Un nuovo documentario sull’intelligenza artificiale mette i CEO in una posizione scottante, ma va troppo piano con loro

9
0

Non è facile ottenere un’intervista con Sam Altman: basta chiedere advert Adam Bhala Lough, il regista dietro il recente documentario Il falso Sam Altman.

Lough aveva originariamente pianificato una funzionalità che esplorasse il potenziale e i pericoli dell’intelligenza artificiale incentrata su una conversazione con il CEO di OpenAI. Ma, dopo aver ignorato le sue richieste per mesi, ha deciso invece di commissionare un chatbot che imitasse il modo di parlare di Altman e si avvicinasse alle sue espressioni facciali tramite un avatar digitale.

Il vero Altman, tuttavia, si è seduto per il nuovo movie The AI ​​Doc: o come sono diventato un apocalottimistache uscirà nei cinema il 27 marzo. Lo stesso hanno fatto Dario Amodei, CEO di Anthropic, e Demis Hassabis, cofondatore e CEO di DeepMind Applied sciences di Google. (Anche se i realizzatori affermano di aver richiesto interviste con Mark Zuckerberg di Meta e Elon Musk di X, nessuno dei due è apparso.)

È un livello di accesso impressionante per il coregista e protagonista del documentario Daniel Roher, il cui documentario del 2022 Navalnysul chief dell’opposizione russa Alexei Navalny, ha vinto un Academy Award. Il problema è che una volta davanti alla telecamera, Altman et al. dicono poco che non abbiamo mai sentito prima e si attengono a risposte disinvolte riguardo alle loro responsabilità nei confronti del resto della loro specie. Quando Roher chiede advert Altman perché qualcuno dovrebbe fidarsi di lui per guidare la rapida accelerazione dell’intelligenza artificiale, date le sue ramificazioni estreme, Altman risponde: “Non dovresti”. La linea dell’interrogatorio finisce qui.

L’AI Doc è incorniciato dall’ansia di Roher per l’imminente arrivo di suo figlio e del primo figlio con sua moglie, la regista Caroline Lindy. Si chiede che tipo di mondo erediterà il suo ragazzo e se l’ascesa dell’intelligenza artificiale precluderà le esperienze che ci faranno diventare adulti autosufficienti. Nelle prime interviste di Roher, tutte le sue peggiori paure sembrano essere confermate. Tristan Harris, cofondatore dell’organizzazione no-profit Heart for Humane Expertise, dà uno dei peggiori colpi allo stomaco: “Conosco persone che lavorano sui rischi dell’intelligenza artificiale che non si aspettano che i loro figli arrivino alla scuola superiore”, cube, invocando uno situation in cui la tecnologia demolisce l’infrastruttura stessa dell’istruzione tradizionale.

Nonostante il senso di panico crescente, Roher e il codirettore Charlie Tyrell presentano un corso intensivo mirabilmente solido sull’intelligenza artificiale e sulle domande più grandi che pone, aiutato dall’insistenza di Roher nel definire i termini in un linguaggio semplice piuttosto che con le parole d’ordine delle startup. Visivamente, il movie è deliziosamente umano, con disegni colorati e dipinti di Roher, mentre stravaganti sequenze in stop-motion alludono all’influenza del produttore Daniel Kwan, il coregista premio Oscar di Tutto ovunque e tutto in una volta. La vibrante creatività in mezzo ai presagi di sventura fornisce parte della speranza che Roher sta disperatamente cercando.

Eppure le interviste successive con i tecno-ottimisti della Silicon Valley che promettono un’intelligenza artificiale che sconfiggerà le malattie e il cambiamento climatico – seguite dai CEO che mantengono il loro consueto equilibrio tra esagerazione e toni di sobria cautela – passano senza troppi interrogativi su affermazioni grandiose. Non si dedica nemmeno un momento a considerare perché o come dovremmo aspettarci che l’attuale serie di grandi modelli linguistici fallibili dia origine alla mitica “intelligenza generale artificiale” (AGI) che supererebbe la cognizione umana. Ci sono, nella migliore delle ipotesi, riconoscimenti eufemistici (da parte del enterprise capitalist Reid Hoffman, per esempio) secondo cui qualsiasi beneficio deriverà da danni non specificati.

Anche quando i principali attori affermano che le implicazioni a breve termine dell’intelligenza artificiale sono significative quanto l’avvento degli armamenti nucleari, non si attengono a un programma familiare, presentando i loro prodotti come singolarmente consequenziali in un modo o nell’altro, suggerendo che solo Essi ci si può fidare di farli avanzare.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here