Quando esperto di disinformazione Tal Hagin ha chiesto a Grok di verificare un put up su X sui missili iraniani che presumibilmente avevano colpito Tel Aviv, il chatbot basato sull’intelligenza artificiale di Elon Musk ha fallito miseramente.
Grok ripetutamente erroneamente identificato il luogo e la information del video, che period originariamente condiviso su X da un media statale iraniano domenica. Quindi, il chatbot ha provato a dimostrare il suo punto condividere un’immagine generata dall’intelligenza artificiale.
“Ora Grok sta rispondendo con un’azione distruttiva dell’intelligenza artificiale”, ha scritto Hagin in risposta. “Cotto, te lo dico.”
L’interazione riassume chiaramente quanto X sia diventato sgangherato dalla realtà da quando gli Stati Uniti e Israele hanno iniziato il loro attacco all’Iran il 28 febbraio. Come riportato all’epoca da WIRED, la piattaforma dei social media è stata rapidamente inondata di disinformazione da account che condividevano video falsi e riproposti.
Poiché il conflitto è continuato, l’alluvione è solo peggiorata. Negli ultimi giorni, è stato potenziato da immagini e video AI, mentre Grok ha ripetutamente fornito informazioni false quando viene chiesto di verificare le affermazioni fatte sulla piattaforma. Le immagini dell’intelligenza artificiale vengono condivise da account a pagamento con segni di spunta blu e funzionari iraniani che cercano di ritrarre danni esagerati.
La proliferazione di strumenti AI di facile accesso per la generazione di immagini e video ha portato a contenuti falsi sempre più sofisticati. Il 2 marzo, advert esempio, funzionari iraniani e media statali hanno condiviso video generati dall’intelligenza artificiale di un In fiamme un grattacielo in Bahrein. I video e le immagini appaiono abbastanza realistici per molti: Uno immagine di un bombardiere B-2 americano abbattuto dall’Iran mentre le truppe americane erano detenute è stato visto più di un milione di volte prima di essere cancellato, mentre immagini dei membri della Delta Power catturati dalle autorità iraniane sono stati visualizzati oltre 5 milioni di volte prima di essere cancellati.
Alcuni dei contenuti AI promossi su X sono meno realistici. Un video, advert esempio, mostra le forze iraniane che fabbricano missili nelle profondità di una grotta. Tuttavia, il video è stato comunque condiviso da più account ed è stato visto più di un milione di volte.
L’intelligenza artificiale viene utilizzata anche dal governo iraniano per diffondere narrazioni apertamente antisemite, con account in una rete di propaganda pro-regime su X che condividono put up generati dall’intelligenza artificiale che ritraggono ebrei ortodossi che guidano soldati americani in guerra o celebrano le morti americane, secondo i ricercatori dell’Institute of Strategic Dialogue (ISD), che hanno condiviso la loro analisi con WIRED.
Anche un certo numero di account in questa rete pro-regime ha condiviso un video falso che presumibilmente mostrava una fila di ragazze che passavano davanti al presidente Donald Trump indossando solo biancheria intima. Secondo ISD, il put up è stato visualizzato più di 6,8 milioni di volte prima di essere rimosso, sebbene continui a essere condiviso da altri account su X.
“Ciò che è particolarmente unico in questa guerra è il drammatico aumento dei contenuti generati dall’intelligenza artificiale che mi trovo a sfatare”, cube Hagin a WIRED. “Ciò è probabilmente dovuto al fatto che l’intelligenza artificiale è sufficientemente avanzata da ingannare i giornalisti, e alla facilità con cui gli utenti possono creare questo trabocchetto dell’intelligenza artificiale senza conseguenze. Più a lungo rimarremo senza norme contro l’abuso dell’intelligenza artificiale, maggiori saranno i danni causati. Vedo che la proliferazione di notizie false basate sull’intelligenza artificiale ci spingerà oltre il limite di un mondo basato sui fatti, a meno che non attuiamo il cambiamento ora.”
Quando l’ondata di falsi generati dall’intelligenza artificiale ha iniziato a prendere il sopravvento sulla piattaforma la scorsa settimana, X ha annunciato che avrebbe temporaneamente demonetizzato gli account con segno di spunta blu se pubblicassero video di conflitti armati generati dall’intelligenza artificiale senza etichetta. X non ha risposto a una richiesta di commento su quanti account avesse demonetizzato dall’introduzione della misura. Fino a poco tempo fa, sembrava che un certo numero di funzionari iraniani pagassero X per il suo servizio premium, che forniva ai loro conti segni di spunta blu, aumentava il coinvolgimento e creava il potenziale per guadagnare denaro per i loro incarichi.











