In poco più di una settimana, i negoziati sull’uso della tecnologia Claude di Anthropic da parte del Pentagono sono falliti, l’amministrazione Trump ha designato Anthropic come un rischio per la catena di approvvigionamento e la società di intelligenza artificiale ha affermato che si sarebbe opposta a story designazione in tribunale.
OpenAI, nel frattempo, ha annunciato rapidamente un proprio accordo, provocando una reazione negativa che ha visto gli utenti disinstallare ChatGPT e spingere Claude di Anthropic in cima alle classifiche dell’App Retailer. E almeno un dirigente di OpenAI si è dimesso perché temeva che l’annuncio fosse stato affrettato senza le adeguate protezioni in atto.
Nell’ultimo episodio del podcast Fairness di TechCrunch, Kirsten Korosec, Sean O’Kane e io abbiamo discusso di cosa questo significhi per altre startup che cercano di lavorare con il governo federale, in particolare con il Pentagono, mentre Kirsten si chiedeva: “Vedremo un piccolo cambiamento di tono?”
Sean ha sottolineato che questa è una situazione insolita sotto molti aspetti, in parte perché OpenAI e Claude realizzano prodotti di cui “nessuno può tacere”. E, cosa fondamentale, questa è una disputa su “come le loro tecnologie vengono utilizzate o non utilizzate per uccidere le persone”, quindi sarà naturalmente oggetto di maggiore attenzione.
Tuttavia, ha sostenuto Kirsten, questa è una situazione che dovrebbe “dare una pausa a qualsiasi startup”.
Leggi un’anteprima della nostra conversazione, modificata per lunghezza e chiarezza, di seguito.
Kirsten: Mi chiedo se altre startup stiano iniziando a guardare cosa è successo con il governo federale, in particolare il Pentagono e Anthropic, quel dibattito e quell’incontro di wrestling, e [take] riflettere sulla loro intenzione di inseguire i dollari federali. Vedremo un piccolo cambiamento di tono?
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
Sean: Me lo chiedo anch’io. Penso di no, in una certa misura, nel breve termine, se non altro perché quando provi davvero a pensare a tutte le various aziende, siano esse start-up o anche le più affermate aziende Fortune 500 che lavorano con il governo e in particolare con il Dipartimento della Difesa o il Pentagono, [for] molti di loro, quel lavoro vola sotto il radar.
La Common Motors produce veicoli da difesa per l’esercito e lo ha fatto [that] da molto tempo e ha lavorato su tutte le versioni elettriche di tali veicoli e sulle versioni autonome. Ci sono cose del genere che accadono continuamente e non raggiungono mai veramente lo spirito del tempo. Penso che il problema riscontrato da OpenAI e Anthropic nell’ultima settimana sia che queste sono aziende che realizzano prodotti utilizzati da tantissime persone e, cosa ancora più importante, [that] nessuno può tacere.
Quindi c’è un story riflettore su di loro, che evidenzia naturalmente il loro coinvolgimento a un livello che penso che la maggior parte delle altre società che hanno contratti con il governo federale – e, in particolare, tutti gli elementi del governo federale che combattono la guerra – non devono necessariamente affrontare.
L’unico avvertimento che aggiungerò è che molto calore attorno a questa discussione tra Anthropic e OpenAI e il Pentagono riguarda in modo molto specifico il modo in cui le loro tecnologie vengono utilizzate o non utilizzate per uccidere persone, o in parti delle missioni che uccidono persone. Non è solo l’attenzione che hanno su di loro e la familiarità che abbiamo con i loro marchi, c’è un elemento in più che ritengo sia più astratto quando pensi alla Common Motors come appaltatore della difesa o altro.
Non penso che vedremo, advert esempio, Utilized Instinct o qualcuna di queste altre società che si sono presentate come a duplice uso fare marcia indietro, solo perché non vedo i riflettori su di esso e semplicemente non c’è il tipo di comprensione condivisa di quale potrebbe essere questo impatto.
Antonio: Questa storia è così unica e specifica per queste aziende e personalità in molti modi. Voglio dire, ci sono state molte riflessioni davvero interessanti su: qual è il ruolo della tecnologia nel governo? [Of] L’intelligenza artificiale al governo? E penso che queste siano tutte domande valide e utili da porre ed esplorare.
Penso anche, però, che questa sia una lente molto curiosa attraverso la quale esaminare alcune di queste cose perché Anthropic e OpenAI non sono in realtà così diversi in molti modi o nelle posizioni che stanno assumendo. Suo non come se un’azienda dicesse: “Ehi, non voglio lavorare con il governo” e un’altra cube: “Sì, lo voglio”. Oppure uno cube: “Puoi fare quello che vuoi”. E [the other is] dicendo: “No, voglio avere delle restrizioni”. Entrambi, almeno pubblicamente, dicono: “Vogliamo restrizioni su come viene utilizzata la nostra intelligenza artificiale”. Sembra proprio che Anthropic stia puntando molto di più sul fatto che non è possibile modificare i termini in questo modo.
E poi, oltre a ciò, sembra esserci anche uno strato di personalità in cui, il CEO di Anthropic e Emil Michael, che molti lettori di TechCrunch potrebbero ricordare dai tempi di Uber, e che ora è [chief technology officer for the Department of Defense]. A quanto pare, semplicemente non si piacciono davvero. Secondo quanto riferito.
Sean: Sì, qui c’è un elemento molto importante del tipo “le ragazze stanno litigando” che non dovremmo trascurare.
Kirsten: Sì, un po’. Esiste, ma le implicazioni sono un po’ più forti di così. Ancora una volta, per tirarci un po’ indietro, ciò di cui stiamo parlando qui è che il Pentagono e l’Anthropic entrano in una disputa in cui l’Anthropic sembra aver perso, anche se dovrei dire che sono ancora ampiamente utilizzati dai militari. Sono thoughtful una tecnologia cruciale, ma OpenAI è intervenuta, e questa si sta evolvendo e probabilmente cambierà quando uscirà questo episodio.
Il contraccolpo è stato interessante per OpenAI, dove abbiamo visto molte disinstallazioni di ChatGPT, penso che siano aumentate del 295% dopo che OpenAI ha concluso l’accordo con il Dipartimento della Difesa.
Per me, tutto questo è solo rumore rispetto alla cosa veramente critica e pericolosa, e cioè che il Pentagono stava cercando di cambiare i termini esistenti su un contratto esistente. E questo è davvero importante e dovrebbe dare una pausa a qualsiasi startup perché la macchina politica che sta accadendo in questo momento, in particolare con il DoD, sembra essere diversa. Questo non è normale. I contratti impiegano un’eternità per essere definiti a livello governativo e il fatto che stiano cercando di modificare tali termini è un problema.











