Home Tecnologia Cosa servirà per rendere l’intelligenza artificiale sostenibile

Cosa servirà per rendere l’intelligenza artificiale sostenibile

4
0

Costruire l’intelligenza artificiale in modo sostenibile sembra un sogno irrealizzabile dato che i giganti della tecnologia che in precedenza avevano promesso di ridurre le emissioni si stanno affrettando per costruire enormi knowledge middle alimentati da combustibili fossili.

La fretta di sviluppare l’intelligenza artificiale a tutti i costi è stata rafforzata dall’amministrazione Trump, che sta anche revocando le protezioni ambientali.

Nonostante questi ostacoli, Sasha Luccioni, ricercatrice sulla sostenibilità dell’intelligenza artificiale, ritiene che la richiesta di maggiore trasparenza nell’intelligenza artificiale, sia da parte delle aziende che dei privati, sia più alta che mai da parte dei clienti.

Luccioni è diventata chief nel tentativo di creare maggiore trasparenza sulle emissioni e sugli impatti ambientali dell’IA nei suoi quattro anni presso Hugging Face, un’azienda di intelligenza artificiale, tra cui la sperimentazione di un classifica documentare l’efficienza energetica dei modelli di intelligenza artificiale open supply. È stata anche una critica schietta nei confronti delle principali società di intelligenza artificiale che, afferma, stanno deliberatamente nascondendo al pubblico informazioni su energia e sostenibilità.

Ora sta avviando Sustainable AI Group, una nuova impresa con l’ex capo della sostenibilità di Salesforce Boris Gamazaychikov. Si concentreranno sull’aiutare le aziende a rispondere, tra le altre cose, “quali sono le leve con cui possiamo giocare per rendere gli agenti un po’ meno cattivi?” Luccioni è anche interessata a capire il fabbisogno energetico di diversi tipi di strumenti di intelligenza artificiale, come la traduzione da parlato a testo o da foto a video, un’space che, secondo lei, è stata finora poco studiata.

Luccioni si è incontrata esclusivamente con WIRED per parlare della domanda di intelligenza artificiale sostenibile e di cosa esattamente vuole vedere dalle Massive Tech.

Questa intervista è stata modificata per motivi di lunghezza e chiarezza.

WIRED: Sento molto da singole persone preoccupate per l’ambiente e l’uso dell’intelligenza artificiale, ma non sento tanto dalle aziende che pensano a questo. Cosa hai sentito nello specifico dalle persone che lavorano con l’intelligenza artificiale nella loro attività e di cosa sono preoccupate?

Sasha Luccioni: Prima di tutto, stanno subendo molta pressione da parte dei dipendenti – e pressione del consiglio di amministrazione, pressione del direttore, del tipo “devi quantificarlo”. I loro dipendenti dicono: “Ci stai costringendo a utilizzare Copilot: in che modo influisce sui nostri obiettivi ESG?”

Per la maggior parte delle aziende, l’intelligenza artificiale è diventata una parte fondamentale della propria offerta commerciale. In tal caso, devono comprendere i rischi. Devono capire dove corrono i modelli. Non possono continuare a utilizzare modelli in cui non conoscono nemmeno l’ubicazione dei knowledge middle o la rete a cui sono collegati. Devono sapere quali sono le emissioni della catena di approvvigionamento, le emissioni dei trasporti, tutte queste cose numerous.

Non si tratta di non usare l’intelligenza artificiale. Penso che l’abbiamo superato. Significa scegliere i modelli giusti, advert esempio, o inviare il segnale che la fonte energetica è importante, così i clienti sono disposti a pagare un po’ di più per i knowledge middle alimentati da energia rinnovabile. Ci sono modi per farlo, ed è questione di trovare i credenti nei posti giusti.

Immagino anche che per le aziende globali la situazione della sostenibilità sia molto diversa rispetto a quella degli Stati Uniti, giusto? Il governo degli Stati Uniti potrebbe fregarsene di tutto questo, ma altri governi certamente se ne fregano.

In Europa hanno il Legge dell’UE sull’IA. La sostenibilità è stata una parte piuttosto importante sin dall’inizio. Ci hanno messo dentro un sacco di clausole e ora stanno uscendo le prime iniziative di reporting.

Anche l’Asia cerca di essere più trasparente. L’Agenzia internazionale per l’energia ha redatto questi rapporti [on AI and energy use]. Stavo parlando con loro e dicevano, gli altri paesi si rendono conto che l’IEA ottiene i loro numeri dai paesi, e i paesi non hanno questi numeri specificamente per i knowledge middle. Non possono fare scelte lungimiranti, perché hanno bisogno che i numeri sappiano: “OK, beh, questo significa che avremo bisogno di X capacità, nei prossimi cinque anni”, o qualsiasi altra cosa. [Some countries] hanno iniziato a respingere i costruttori di knowledge middle.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here