Secondo quanto riferito, Google ha firmato un accordo che consente al Dipartimento della Difesa degli Stati Uniti di utilizzare i suoi Modelli di intelligenza artificiale per lavori riservati, nonostante una lettera aperta di centinaia di dipendenti che invitano l’azienda a stare lontana da usi militari che, secondo loro, potrebbero diventare pericolosi o impossibili da controllare.
L’accordo, riportato martedì scorso da The Informationconsente al Pentagono di utilizzare gli strumenti di intelligenza artificiale di Google per “qualsiasi scopo governativo legittimo”, comprese applicazioni militari sensibili. Google si unisce OpenAI e xAI, che hanno anche stretto accordi simili sull’IA classificata con il Pentagono.
L’accordo riportato embrace una clausola in cui si afferma che il sistema di intelligenza artificiale di Google non è destinato alla sorveglianza di massa interna o advert armi autonome senza un’adeguata supervisione umana. Ma afferma anche che Google non ha il diritto di controllare o porre il veto sulle decisioni operative legittime del governo rapporti. Google aiuterà anche a modificare le impostazioni e i filtri di sicurezza su richiesta del governo.
Un portavoce di Google ha dichiarato a CNET in una dichiarazione through e-mail che la società rimane impegnata nella posizione secondo cui l’intelligenza artificiale non dovrebbe essere utilizzata per la sorveglianza di massa domestica o armi autonome senza la supervisione umana, e ha affermato che fornire l’accesso API a modelli commerciali secondo pratiche customary è un “approccio responsabile” per sostenere la sicurezza nazionale.
Il Pentagono ha rifiutato di commentare a CNET.
L’accordo finisce nel mezzo di una reazione interna. In un lettera aperta indirizzata al CEO Sundar Pichaipiù di 600 dipendenti di Google hanno chiesto all’azienda di “rifiutarsi di rendere disponibili i nostri sistemi di intelligenza artificiale per carichi di lavoro classificati”. I dipendenti hanno scritto che, poiché lavorano a stretto contatto con la tecnologia, hanno la responsabilità di evidenziarne e prevenirne gli “usi più immorali e pericolosi”.
“Vogliamo che l’intelligenza artificiale avvantaggi l’umanità, non che venga utilizzata in modi disumani o estremamente dannosi”, si legge nella lettera. I dipendenti hanno affermato che le loro preoccupazioni includono armi autonome letali e sorveglianza di massa, ma vanno oltre questi esempi perché il lavoro classificato potrebbe avvenire senza che i dipendenti ne siano a conoscenza o senza la capacità di fermarlo.
La tensione riecheggia una delle rivolte interne più importanti di Google. Nel 2018, migliaia di lavoratori hanno protestato contro il progetto Mavenun programma del Pentagono che prevede l’analisi dell’intelligenza artificiale delle riprese dei droni. Google ha poi scelto di non rinnovare quel contratto.
Da allora, l’atteggiamento dell’azienda nei confronti dell’intelligenza artificiale militare e di sicurezza nazionale è cambiato.
L’anno scorso, Google ha rimosso una clausola precedente dai suoi principi sull’intelligenza artificiale che affermava che non avrebbe perseguito tecnologie che potrebbero causare danni complessivi, armi, determinate tecnologie di sorveglianza o sistemi che violano i diritti umani ampiamente accettati e i principi del diritto internazionale.
Nell’a Post del blog di febbraio che aggiorna i principi dell’intelligenza artificiale di Googleil CEO di Google DeepMind Demis Hassabis e il vicepresidente senior James Manyika ha scritto che “le democrazie dovrebbero guidare lo sviluppo dell’intelligenza artificiale” e che aziende e governi dovrebbero lavorare insieme per costruire un’intelligenza artificiale che “protegga le persone, promuova la crescita globale e sostenga la sicurezza nazionale”.
Per i lavoratori di Google contrari all’accordo, la preoccupazione non è solo che l’intelligenza artificiale possa essere utilizzata dai militari, ma che l’implementazione riservata rimuova la consueta visibilità su come viene utilizzato un modello.
“Mi vergogno incredibilmente”, ha scritto Andreas Kirsch, un ricercatore di Google DeepMind, in a post pubblico su X reagire all’accordo segnalato.
La lettera aperta dei dipendenti di Google si conclude con un appello diretto al CEO di Google: “Oggi ti invitiamo, Sundar, advert agire secondo i valori su cui è stata costruita questa azienda e a rifiutare carichi di lavoro classificati”.











