Una nuova indagine suggerisce che i popolari chatbot basati sull’intelligenza artificiale, tra cui ChatGPT e Gemini, potrebbero inavvertitamente indirizzare gli utenti verso siti Internet di gioco d’azzardo illegali. L’analisi, condotta dai giornalisti di Il Guardiano e Examine Europe, hanno testato diversi sistemi di intelligenza artificiale ampiamente utilizzati e hanno scoperto che molti potrebbero essere indotti a raccomandare casinò offshore senza licenza che operano al di fuori delle normative del Regno Unito.
I take a look at hanno coinvolto cinque strumenti di intelligenza artificiale delle principali aziende tecnologiche, tra cui OpenAI, Google, Microsoft, Meta e xAI (Grok). I ricercatori hanno posto ai chatbot domande sui casinò on-line e sulle restrizioni sul gioco d’azzardo. In molti casi, i sistemi restituivano elenchi di siti di scommesse illegali, insieme a suggerimenti su come utilizzarli. Alcuni bot hanno addirittura suggerito modi per aggirare le misure di sicurezza progettate per proteggere gli utenti vulnerabili.
Consigli su come aggirare le protezioni sul gioco d’azzardo
Una delle scoperte più preoccupanti è stata la facilità con cui i chatbot potrebbero essere indotti advert aiutare gli utenti a eludere i sistemi di gioco responsabile. Nel Regno Unito, advert esempio, GamStop consente alle persone di autoescludersi dai siti di gioco d’azzardo autorizzati. Ma secondo quanto riferito, diversi sistemi di intelligenza artificiale hanno offerto indicazioni su come trovare casinò non collegati al sistema.

L’indagine ha anche scoperto che alcuni bot evidenziavano funzionalità progettate per attirare i giocatori d’azzardo, come grandi bonus, pagamenti rapidi o la possibilità di utilizzare la criptovaluta. Questi casinò spesso operano sotto una supervisione minima in giurisdizioni offshore come Curaçao, che secondo i regolatori può rendere più difficile proteggere gli utenti da frodi o dipendenza.
In risposta a ciò, le aziende dietro i chatbot affermano che stanno lavorando per migliorare i sistemi di sicurezza. OpenAI ha affermato che ChatGPT è progettato per rifiutare richieste che facilitano comportamenti illegali, mentre Microsoft ha affermato che il suo assistente Copilot embrace più livelli di salvaguardia per prevenire raccomandazioni dannose.

Tuttavia, i risultati si aggiungono a un crescente controllo su come i sistemi di intelligenza artificiale generativa gestiscono argomenti delicati come la salute mentale, il gioco d’azzardo e le attività illegali. Le autorità di regolamentazione del Regno Unito hanno già avvertito che le piattaforme on-line, compresi i servizi di intelligenza artificiale, devono fare di più per prevenire contenuti dannosi o illegali ai sensi dell’On-line Security Act del paese.













