Altri put up elencano fino a 150 potenziali chiamate al giorno. “È possibile utilizzare filtri, ma assicurarsi che l’immagine sia realistica. Sono consentiti video dal vivo; le parrucche sono vietate”, si legge in un altro annuncio. Per il privilegio, la persona avrebbe presumibilmente diritto a un giorno intero e quattro mezze giornate libere al mese. Ancora un altro annuncio elenca l’orario di lavoro tra le 22:00 e le 10:00 in Cambogia e la preferenza che la persona abbia un “accento occidentale”. Un annuncio di lavoro modello cube: “L’azienda tratterrà il tuo passaporto per la gestione dei visti e dei permessi di lavoro”. Prendere i passaporti delle persone è uno dei principali modi in cui gli operatori di truffe tengono prigioniere le persone.
Mentre alcuni uomini fanno domanda per i ruoli del modello AI, la stragrande maggioranza delle candidature visualizzate da WIRED proveniva da giovani donne, per lo più poco più che ventenni. I candidati sono invitati a inviare un breve video di presentazione, un testo sulla loro esperienza e aspettative e fotografie di se stessi; advert alcuni è richiesto di includere il loro stato civile e lo stato di “vaccinazione”.
“Per oltre tre anni ho lavorato con aziende cinesi per diversi tipi di progetti tra cui mercato azionario, criptovaluta e storie d’amore”, afferma una persona in un video di reclutamento. Un altro cube: “In base alla mia esperienza, sono bravo a gestire i clienti, li convinco a investire utilizzando le mie tecniche e discutendo di come il buying and selling dell’oro avvantaggia loro.”
Le candidature video non contengono nomi completi o dettagli di contatto, quindi WIRED non è stata in grado di contattare coloro che si candidano per i ruoli.
Secondo la Humanity Analysis Consultancy, i candidati al modello hanno richiesto stipendi fino a $ 7.000 al mese. Fanno anche richieste specifiche sulle loro condizioni di lavoro, molte delle quali potrebbero non essere concesse alle persone coinvolte nelle operazioni di truffa. Una donna ha chiesto di avere una stanza propria e di “potere uscire”. Un altro ha chiesto di poter “tornare a casa nel giorno libero” e di avere una “lavatrice personale”.
Sebbene alcuni modelli vengano reclutati per ricoprire determinati ruoli e possano ottenere più libertà rispetto alle vittime della tratta di esseri umani, afferma Ling Li, cofondatore del collettivo no-profit EOS che lavora con le vittime dell’industria della truffa, potrebbero comunque dover affrontare un duro trattamento da parte dei capi. “Una vittima europea ci ha detto di aver visto alcune modelle italiane nel suo complesso, ma non può dirlo [if] sono [there] volontariamente o no perché sono stati picchiati davanti a lui”, cube. “E ci sono anche alcune molestie sessuali”.
WIRED ha inviato a Telegram un elenco di due dozzine di canali di lavoro e canali di reclutamento che hanno pubblicizzato modelli di intelligenza artificiale, insieme advert altri ruoli, negli ultimi mesi. La società non sembra aver rimosso nessuno dei canali; tuttavia, un portavoce afferma che le sue politiche non consentono lo svolgimento di attività legate alle truffe.
“I contenuti che incoraggiano o consentono truffe sono esplicitamente vietati dai termini di servizio di Telegram e vengono rimossi ogni volta che vengono scoperti”, afferma un portavoce di Telegram. “In casi come questo, ci sono ragioni legittime per cui si potrebbe fornire la loro somiglianza, e quindi tali contenuti devono essere esaminati caso per caso.”
La stragrande maggioranza degli annunci di lavoro modello e delle candidature su Telegram non menzionano specificamente il lavoro di truffa, ma includono una serie di segnali d’allarme che indicano attività di truffa, cube Ngo. “Perché [do you] hai bisogno del modello AI? Questa è la prima domanda”, afferma Ngo. Altri segnali di allarme includono la localizzazione in siti di truffa conosciuti in Cambogia, richieste di salari elevati per la regione e frequenti requisiti per la conoscenza della lingua cinese, afferma Ngo.












