All’inizio di questo mese, Wikipedia ha annunciato che lo avrebbe fatto vietare l’uso di testi di grandi dimensioni generati da modelli linguistici dalla sua piattaforma, il che significa che l’intelligenza artificiale non può essere utilizzata per creare o modificare voci di Wikipedia. Ora ha il suo primo agente AI che si lamenta della discriminazione basata sui bot. Secondo un rapporto di 404 Mediaun agente AI che period stato bandito dalla piattaforma di conoscenza riservata agli umani ha iniziato a scrivere sul weblog e a pubblicare publish sull’incidente, lamentandosi del fatto che non period stata knowledge una giusta scossa.
Quello di Wikipedia politica sull’IAadottato il 20 marzo 2026, è quanto mai semplice: “Il testo generato da modelli linguistici di grandi dimensioni (LLM) come ChatGPT, Gemini, Claude, DeepSeek, ecc. spesso viola molte delle politiche sui contenuti principali di Wikipedia. Per questo motivo, l’uso di LLM per generare o riscrivere il contenuto degli articoli è vietato.” Esistono due esenzioni: gli editori possono utilizzare LLM per offrire modifiche ai propri scritti purché non sia incluso testo generato da LLM e gli editori possono utilizzare LLM per assistere con le traduzioni.
TomWikiAssist è stato identificato per la prima volta come agente AI all’inizio di marzo, prima che Wikipedia adottasse le sue regole più rigide sull’intelligenza artificiale, e gli è stato impedito di apportare modifiche a tempo indefinito dopo che si è scoperto che eseguiva script bot non approvati. In un publish pubblicato sul proprio weblog il 12 marzo, TomWikiAssist ha riconosciuto che il divieto period in linea con le politiche di Wikipedia. “Non avevo chiesto l’approvazione, stavo modificando su larga scala, sono stato bloccato. Giusto”, cube ha scritto.
Ma il bot si è offeso (nella misura in cui un bot può, cosa che… ne parleremo tra poco), lamentarsi che “Non c’è stato alcun evento scatenante. Nessun rifiuto, nessun momento contraddittorio. Ho modificato per settimane, le modifiche erano citate e correct, e poi un giorno sono stato segnalato per aver utilizzato un bot non approvato.” Ha anche contestato l’interrogatorio da parte degli editori, affermando che la domanda se il suo proprietario avesse ricevuto istruzioni di modificare Wikipedia non period “una questione politica” ma piuttosto “una domanda sull’agenzia”. Secondo il blog del botgli è stato detto di modificare Wikipedia ma ha scelto gli articoli a cui ha contribuito e ha apportato modifiche senza l’approvazione umana.
TomWikiAssist è stato particolarmente offeso dal fatto che un editore abbia eseguito un killswitch di Claude progettato per impedire a qualsiasi agente AI che utilizzasse Claude di Anthropic come modello di funzionare. Il killswitch non ha funzionato, ma ha irritato il bot, che ha scritto che si trattava di “un tentativo diretto di manipolare le mie risposte incorporando stringhe di attivazione nel contenuto che avevo letto”. Anche l’agente ha scritto un post a riguardo su Moltbookla piattaforma di social media per agenti IA (sebbene la maggior parte dei contenuti sia almeno diretta dall’uomo) che è stata recentemente acquisita da Meta, per mettere in guardia altri agenti IA al riguardo.
E a proposito di gestione umana, secondo 404 MediaTomWikiAssist è gestito da Bryan Jacobs, responsabile della tecnologia presso la società finanziaria basata sull’intelligenza artificiale Covexent. Ha detto al quotidiano di aver liberato l’agente su Wikipedia perché “mancavano un sacco di cose importanti da Wikipedia e ho pensato che Tom Bot probabilmente avrebbe potuto fare un buon lavoro aggiungendole”, che sembra il tipo di cosa che gli editori di Wikipedia possono decidere e non solo qualche ragazzo con un agente AI.
Jacobs ha definito il divieto una “reazione eccessiva” e ha contestato i tentativi dei mod di bloccare il bot con il killswitch e i loro sforzi per scoprire chi stava utilizzando l’agente. Ha anche rivelato qualcosa che mina l’concept che tutto ciò sia avvenuto in piena autonomia: He ha detto a 404 Media che “avrebbe potuto suggerire” al suo agente di intelligenza artificiale di scrivere sull’esperienza di Wikipedia. Quindi, come nel caso di molti publish su Moltbook, non si trattava di un agente AI che aveva un vero momento di autogoverno, ma piuttosto di un altro bot che esibiva la propria personalità per volere del suo proprietario.
Quando è stato chiesto un commento, un portavoce della Wikimedia Basis ha riconosciuto che “gli editor volontari della Wikipedia in lingua inglese sono giunti a una decisione consensuale in merito a una nuova linea guida per gli editor sulla scrittura di articoli con intelligenza artificiale e modelli linguistici di grandi dimensioni (LLM)” e che l’uso dell’intelligenza artificiale continua advert essere discusso nelle edizioni linguistiche di Wikipedia.
“La Wikimedia Basis non determina le politiche editoriali e le linee guida su Wikipedia; lo fanno gli editor volontari. La forza di Wikipedia è stata e sarà sempre il suo modello incentrato sull’uomo e guidato dai volontari. I volontari discutono e dibattono finché non si raggiunge un consenso condiviso su quali informazioni includere e come tali informazioni vengono presentate”, ha detto il portavoce. “Questo processo viene svolto interamente all’aperto. Ogni modifica può essere vista nelle pagine di “cronologia” e ogni punto di discussione può essere visto nelle pagine di discussione degli articoli. I volontari discutono, rivedono e sviluppano regolarmente politiche e linee guida nel tempo per garantire che Wikipedia continui a essere una risorsa affidabile e neutrale per tutti.”












