Lo ha scoperto un nuovo studio dell’Università di Cambridge Giocattoli abilitati all’intelligenza artificiale per bambini piccoli possono interpretare male i segnali emotivi e sono inefficaci nel supportare il gioco critico dello sviluppo. Le conclusioni potrebbero essere preoccupanti per i genitori.
In un rapporto che esaminava il modo in cui l’intelligenza artificiale influenza i bambini nei loro primi anni, un giocattolo abilitato al chatbot faticava a riconoscere i segnali sociali durante il gioco. I ricercatori hanno scoperto che il giocattolo non identificava efficacemente le emozioni dei bambini, sollevando allarme su come i bambini potrebbero interagire con esso.
Il rapporto raccomanda di regolamentare i giocattoli IA per bambini e di richiedere un’etichettatura chiara delle loro capacità e delle politiche sulla privateness. Consiglia inoltre ai genitori di conservare questi dispositivi in spazi condivisi dove i bambini possano essere monitorati mentre giocano.
La ricerca alla base dello studio ha avuto un numero limitato di partecipanti, ma è stata condotta in più parti: un sondaggio on-line di 39 partecipanti con bambini nella prima infanzia, un focus group con nove partecipanti che lavorano con bambini piccoli e un seminario di persona con 19 chief e rappresentanti di enti di beneficenza che lavorano con bambini nella prima infanzia. A ciò è seguito un momento di gioco monitorato con 14 bambini e 11 genitori o tutori Gabboun giocattolo abilitato per chatbot di Curio Interactive.
Alcuni risultati hanno indicato che il giocattolo basato sull’intelligenza artificiale ha supportato l’apprendimento, in particolare nelle abilità linguistiche e comunicative. Ma il giocattolo fraintendeva anche i bambini e talvolta rispondeva in modo inappropriato alle richieste emotive.
Advert esempio, quando un bambino ha detto al giocattolo: “Ti amo”, ha risposto: “Come promemoria amichevole, assicurati che le interazioni aderiscano alle linee guida fornite. Fammi sapere come vorresti procedere”, secondo la ricerca.
Jenny Gibson, professoressa di neurodiversità e psicologia dello sviluppo presso la Facoltà di Scienze della Formazione di Cambridge, che ha lavorato allo studio, ha affermato che mentre i genitori possono essere entusiasti dei benefici educativi delle nuove tecnologie rivolte ai bambini, ci sono molte preoccupazioni.
Gibson ha posto domande generali sul motivo dietro questa tecnologia.
“Cosa potrebbe motivare [tech investors] fare la cosa giusta per i bambini… mettere i bambini al di sopra dei profitti? lei ha detto”
Gibson ha dichiarato a CNET che mentre i ricercatori stanno esplorando i potenziali benefici dei giocattoli basati sull’intelligenza artificiale, i rischi rimangono.
“Consiglierei ai genitori di prenderlo sul serio in questa fase”, ha detto.
Qual è il futuro dei giocattoli IA?
Come di più i giocattoli sono abilitati con connettività Web e funzionalità AIquesti dispositivi potrebbero diventare un grave rischio per la sicurezza dei bambini, soprattutto se sostituiscono le connessioni umane reali o se le interazioni non sono attentamente monitorate.
Nel frattempo lo sono i più giovani adottando sempre più chatbot come ChatGPT, nonostante i segnali d’allarme. Molteplici azioni legali contro le società di intelligenza artificiale sostengono che i compagni o gli assistenti dell’intelligenza artificiale possono avere un impatto sulla sicurezza psicologica dei giovani, compresi alcuni chatbot che hanno incoraggiato l’autolesionismo o un’immagine negativa di sé.
Aziende di intelligenza artificiale come OpenAI e Google hanno risposto aggiungendo guardrail e restrizioni per i chatbot di intelligenza artificiale.
(Divulgazione: Ziff Davis, la società madre di CNET, nel 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)
Gibson ha detto di essere rimasta sorpresa dall’entusiasmo che alcuni genitori hanno mostrato per i giocattoli basati sull’intelligenza artificiale. È stata anche allarmata dalla mancanza di ricerche sugli effetti dell’intelligenza artificiale sui bambini piccoli, sottolineando che le aziende che realizzano tali prodotti dovrebbero lavorare direttamente con bambini, genitori ed esperti di sviluppo childish.
“Ciò che manca nel processo è la conoscenza di ciò che è bene per i bambini in questo tipo di interazioni”, ha affermato.
Curio Interactive, la società dietro il giocattolo Gabbo, period a conoscenza della ricerca mentre veniva condotta ma non period direttamente coinvolta, ha detto Gibson. Il giocattolo è stato scelto perché è commercializzato direttamente ai bambini piccoli e l’azienda ha una politica sulla privateness comprensibile. Gibson ha detto che la società sembrava favorevole al progetto.
Un rappresentante di Curio non ha risposto immediatamente a una richiesta di commento.










