Secondo a carta pubblicato on-line da ricercatori dell’Imperial Faculty di Londra, dell’Università di Stanford e dell’Web Archive.
Lo studio si basa sui dati raccolti dalla Wayback Machine di Web Archive dalla fantastic del 2022 (quando ChatGPT ha dato il through alla mania dell’intelligenza artificiale) fino alla metà del 2025. Nel maggio 2025, i ricercatori hanno scoperto che il 35,3% di tutti i siti net appena pubblicati su Web sono stati creati con l’assistenza dell’intelligenza artificiale, compreso il 17,6% dei siti net completamente generati dall’intelligenza artificiale.
Ciò potrebbe non scioccarti del tutto se ti iscrivi alla Useless Web Concept, ovvero la convinzione che la maggior parte di Web sia guidata dall’attività dei bot, con i suoi sostenitori più cospiratori che sostengono che ciò viene fatto apposta per controllare il pubblico.
Anche la cifra approssimativa trovata dai ricercatori è in linea con i risultati precedenti. Cloudflare ha riferito nel settembre 2025 che quasi un terzo di tutto il traffico Web period guidato da bot. Pochi giorni dopo, il CEO dell’azienda, Matthew Prince, è apparso in un podcast per condividere la sua previsione “spaventosamente probabile” secondo cui l’intelligenza artificiale cambierà completamente il modo in cui le informazioni vengono condivise on-line e concentrerà il potere su questa conoscenza on-line nelle mani di alcuni giganti della tecnologia.
Un rapporto ancora precedente della società di sicurezza dei dati Imperva ha affermato che la navigazione automatizzata ha superato per la prima volta l’attività umana su Web nel 2024, costituendo circa la metà di tutto il traffico net. Il rapporto conclude che ciò è stato “in gran parte determinato dalla rapida adozione dell’intelligenza artificiale e di grandi modelli linguistici”.
Esistono show aneddotiche che mostrano quanto siano diventati pervasivi anche i siti Net generati dall’intelligenza artificiale su Web. Truffatori stanno utilizzando strumenti di intelligenza artificiale per generare rapidamente siti Net falsi per ingannare le vittime. Anche l’intelligenza artificiale viene utilizzata plagiare le testate giornalistiche e creare siti web spazzatura al solo scopo di SEO-farming.
Un nuovo rapporto di Mannequin Republic sostiene inoltre che un sito net collegato al tremendous PAC Main The Future, sostenuto da OpenAI, stava pubblicando un assalto di articoli di “notizie” per lo più generati dall’intelligenza artificiale per attaccare i critici dei prodotti di intelligenza artificiale.
Ma lo studio di Web Archive va anche oltre le show precedenti, esplorando se i bot abbiano preso il sopravvento su Web E se questo sta portando ai risultati ampiamente attesi. Molte persone temono che con l’infiltrazione dell’intelligenza artificiale in Web, il linguaggio e la precisione di Web cambieranno di pari passo. Nello studio, i ricercatori hanno testato sei convinzioni che secondo loro la maggior parte degli adulti statunitensi ha riguardo a un futuro on-line dominato dai contenuti basati sull’intelligenza artificiale. Ma hanno scoperto che solo due di queste ipotesi si stavano realizzando.
I ricercatori hanno scoperto che i contenuti on-line generati dall’intelligenza artificiale non erano così errati dal punto di vista fattuale come previsto. Hanno anche scoperto che citava le sue fonti attraverso collegamenti esterni, non estingueva gli stili di scrittura individuali a favore di una voce generica e non period un blocco di testo lungo e tortuoso con poche informazioni significative, nonostante la credenza comune.
Ma quello che hanno scoperto, come previsto, è che più contenuti sull’intelligenza artificiale significano meno “gamma di idee uniche e punti di vista diversi” e una scrittura che “sembra sempre più igienizzata e artificialmente allegra”.
Anche il CEO di OpenAI Sam Altman ha ammesso questa falsa positività. L’anno scorso, dopo che la società ha rilasciato il suo agente di codifica AI Codex, Altman ha affermato che gli intensi elogi per il rilascio sul subreddit r/Claudecode sembravano un po’ guidato dai bot.
Questo studio è solo l’inizio e potrebbe diventare uno strumento utile per aiutare gli utenti a discernere informazioni credibili su Web. Lo hanno detto i ricercatori 404 mezzi questa settimana stavano lavorando alla creazione di “uno strumento continuo” per monitorare questo fenomeno e capire “quali tipi di siti net sono più colpiti, suddivisi per categoria o lingua, e in generale fornendo più sfumature su dove si stanno verificando questi impatti”.











