Home Tecnologia Anthropic ha aggiunto molte altre religioni nel suo tentativo di infondere una...

Anthropic ha aggiunto molte altre religioni nel suo tentativo di infondere una morale perfetta in Claude

8
0

La misteriosa scatola nera originale non period affatto un modello di intelligenza artificiale, ma la Kaaba, il cubo nero al centro della Sacra Moschea della Mecca. Prima della conquista della Mecca da parte di Maometto, la Kaaba era una sorta di deposito multiuso di 360 simboli sacri da tutta la regione. Se tu fossi, diciamo, un mercante impegnato in viaggio verso Medina, qualunque siano le grandi verità spirituali dell’universo, erano lì da qualche parte, quindi una preghiera alla Kaaba ti avrebbe coperto nel dipartimento degli dei ed eri a posto.

Sembra che Anthropic stia facendo qualcosa del genere con Claude.

La settimana scorsa, rappresentanti di Anthropic, insieme a OpenAI, hanno partecipato a un evento a New York chiamato tavola rotonda “Religion-AI Covenant”. Il Consiglio dei rabbini di New York, la Società dei templi indù del Nord America, la Chiesa di Gesù Cristo dei Santi degli Ultimi Giorni, il Con sede negli Stati Uniti Erano presenti la Coalizione Sikh e l’Arcidiocesi greco-ortodossa d’America.

Il mese scorso ho scritto di una serie di incontri e cene antropiche organizzate con una raccolta di 15 chief cristiani. Anthropic period alla ricerca di consigli da parte dei cristiani e di indicazioni sul presunto “sviluppo spirituale” del suo modello Claude AI. All’epoca Anthropic disse che stava lavorando per organizzare incontri con pensatori morali che rappresentassero altri gruppi.

Non è chiaro da a nuovo pezzo dell’Associated Press sull’incontro Religion-AI Covenant, se queste ultime conversazioni con i chief religiosi e i precedenti incontri con i cristiani facessero parte di un unico programma coerente presso Anthropic, e se i membri dello employees che hanno partecipato al summit cristiano abbiano partecipato anche a questo. Gizmodo ha chiesto advert Anthropic chiarimenti in merito sabato, ma Anthropic non ha risposto alla nostra richiesta al momento della stesura di questo articolo.

L’Related Press afferma anche che OpenAI e Anthropic “hanno avviato la sensibilizzazione”, ma anche che a ONG svizzera L’ha organizzato la Interfaith Alliance for Safer Communities e ha in programma eventi futuri simili in Cina, Kenya ed Emirati Arabi Uniti. Tra i “companion chiave” è stata menzionata anche la baronessa Joanna Shields, membro della Digital camera dei Lord britannica.

Non c’è un solo punto chiaro nella storia di AP: nessuna istruzione religiosa stabilita da tutti questi chief spirituali. Ma ciò che chiama Antropico La costituzione di Claude embody almeno una dissezione dell’opera morale filosoficamente carica di Anthropic provando da fare iniettando la morale in una macchina: farle prendere la decisione di una persona con valori perfetti quando non c’è modo di scrivere una regola per una situazione che si presenta, e le conseguenze di prendere la decisione sbagliata potrebbero essere disastrose. Questo, scrive Anthropic, è “principalmente perché temiamo che i nostri sforzi per dare a Claude valori etici sufficientemente buoni falliranno”.

A tal effective, l’articolo dell’Related Press estrae alcuni commenti silenziosamente devastanti di Rumman Chowdhury, CEO di un’organizzazione no-profit chiamata Humane Intelligence: “Penso che un’thought molto ingenua che la Silicon Valley ha avuto per un paio d’anni in relazione all’intelligenza artificiale generativa fosse che potremmo arrivare a una sorta di principi etici universali”, ha detto Chowdhury all’AP, aggiungendo: “Hanno capito molto rapidamente che non è vero. Non è reale. Quindi ora stanno guardando forse alla religione come a una modo di affrontare l’ambiguità di situazioni eticamente grigie”.

Stanno davvero guardando forse alla religione. Ma è difficile immaginare che Anthropic esca convertito da questi incontri e inserisca in Claude un insieme di dottrine religiose specifiche. Stanno solo cercando di raccogliere verità etiche di alto livello e di dimostrare al mondo che, apparentemente, non hanno lasciato nulla di intentato nella loro ricerca.

Il tuo chilometraggio varierà a seconda se pensi che una macchina incaricata di prendere decisioni o dare consigli importanti sarebbe, quando i conti sono in difficoltà, in grado di sintetizzare la morale ideale grazie agli incontri che i suoi creatori hanno tenuto con amministratori di alcune delle principali religioni dell’umanità. Esso probabilmente non può far male, è un po’ come fare un cenno alla Kaaba pre-islamica. Ma ancora una volta, solo Dio lo sa per certo.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here