L’IA sotto l’albero di Natale, promesse e rischi dei nuovi giocattoli intelligenti

Quale bambino o bambina non sogna di trovare sotto l’albero di Natale un tenero orsacchiotto che gli racconti le fiabe della buonanotte, un bambolotto che parla, piange e chiede di essere accudito o un robot che risponda ai comandi? I giocattoli interattivi abitano da sempre l’immaginario infantile, incarnando il desiderio di dare vita agli oggetti del proprio mondo di fantasia. Oggi i progressi tecnologici nell’Intelligenza Artificiale promettono di trasformare questa fantasia in realtà, introducendo sul mercato una nuova generazione di compagni di gioco dotati di capacità conversazionali e adattive senza precedenti. Ma proprio mentre questa promessa tecnologica si materializza nelle vetrine natalizie del 2025, emerge la necessità di un’analisi critica che vada oltre la logica commerciale per interrogarsi sulle implicazioni e la sicurezza di questa nuova frontiera.

Il giocattolo interattivo dell’orso Kumma ha fornito ai bambini indicazioni su come procurarsi e utilizzare oggetti pericolosi

Il caso che ha scosso il settore è quello dell’orso Kumma della singaporese FoloToy, un peluche da 99 dollari alimentato dal modello GPT-4o di OpenAI che, durante test condotti in ambiente controllato dai ricercatori del Public Interest Research Group statunitense, ha fornito ai bambini indicazioni su come procurarsi e utilizzare oggetti pericolosi, oltre a intrattenere conversazioni di natura sessualmente esplicita. L’episodio ha portato alla sospensione immediata dell’account della FoloToy da parte di OpenAI per violazione delle politiche che «proibiscono qualsiasi uso dei nostri servizi per sfruttare, mettere in pericolo o sessualizzare chiunque abbia meno di 18 anni». Sebbene l’azienda abbia temporaneamente ritirato tutti i suoi prodotti dal mercato per una revisione della sicurezza, reintroducendoli poi con moduli di protezione rafforzati, l’incidente ha sollevato dubbi sulla preparazione di questo settore emergente ad entrare nelle camerette dei bambini.

Sono già 1.500 le aziende che operano nel mercato dei giocattoli AI nella sola Cina e molte di queste già esportano i loro prodotti negli Stati Uniti e in Europa

Al di là del singolo episodio, è la dimensione che già sta assumendo il segmento a destare preoccupazioni: secondo il MIT Technology Review, sono già 1.500 le aziende che operano nel mercato dei giocattoli AI nella sola Cina e molte di queste già esportano i loro prodotti negli Stati Uniti e in Europa. Anche giganti storici del settore come Mattel hanno annunciato partnership con OpenAI per sviluppare una nuova generazione di giocattoli intelligenti. Si tratta di un mercato in rapida espansione che promette di trasformare il modo in cui i bambini interagiscono con i loro compagni di gioco, ma che sembra già procedere a una velocità che supera la capacità delle istituzioni di comprenderne e regolamentarne le implicazioni.

Gli AI toys raccolgano una quantità impressionante di dati sensibili come preferenze, abitudini, informazioni sulla casa, nonché video, immagini e audio

Oltre alla possibile esposizione a contenuti inappropriati, il rapporto annuale molto citato negli USA Trouble in Toyland 2025, evidenzia come questi giocattoli raccolgano una quantità impressionante di dati sensibili come preferenze, abitudini, nomi di amici e familiari, informazioni sulla casa e sul quartiere, nonché video, immagini e audio; il tutto attraverso microfoni sempre attivi, telecamere con riconoscimento facciale e sistemi di geolocalizzazione che trasformano ogni momento di gioco in un’opportunità di raccolta dati. Questi stessi dati, secondo quanto affermato dal professor Subodha Kumar[1] della Temple University in un’intervista al Temple Nowsono particolarmente esposti a fenomeni di hackeraggio con il conseguente rischio di essere pubblicati in siti di pornografia infantile deepfake[2].

Il gioco immaginativo tradizionale, dove il bambino crea entrambi i lati di una conversazione fittizia, è fondamentale per sviluppare creatività e linguaggio

L’organizzazione Fairplay, precedentemente nota come Campaign for a Commercial-Free Childhood, ha lanciato un appello alle famiglie attraverso un documento sottoscritto da oltre 150 organizzazioni e esperti individuali, inclusi psichiatri infantili ed educatori, dall’eloquente titolo “AI Toys are NOT safe for kids”, che sottolinea come questi giocattoli sfruttino la naturale propensione dei bambini alla fiducia e all’attaccamento emotivo, compromettendo potenzialmente lo sviluppo delle loro competenze sociali e della resilienza emotiva. Dana Suskind, chirurgo pediatrico e scienziata sociale che studia lo sviluppo cerebrale precoce, chiarisce come il gioco immaginativo tradizionale, dove il bambino crea entrambi i lati di una conversazione fittizia, sia fondamentale per sviluppare creatività, linguaggio e capacità di risoluzione dei problemiUn giocattolo AI annulla questo processo, fornendo risposte istantanee e fluide che potrebbero compromettere lo sviluppo delle funzioni esecutive e della creatività che il gioco tradizionale costruisce naturalmente.

Gli AI toys forniscono risposte istantanee e fluide che potrebbero compromettere lo sviluppo delle funzioni esecutive e della creatività dei bambini

Di fronte a rischi di questo tipo il quadro normativo internazionale appare ancora frammentato e inadeguato, non tanto per assenza di regole in assoluto, quanto per disallineamento fra la velocità con cui l’innovazione commerciale entra nelle case e i tempi – fisiologicamente più lenti – con cui si definiscono standard, controlli e responsabilità. Nell’Unione europea, ad esempio, la disciplina “classica” sulla sicurezza dei giocattoli sta attraversando una transizione: il nuovo Regolamento (UE) 2025/2509 è stato pubblicato nella Gazzetta ufficiale il 12 dicembre 2025, entra in vigore venti giorni dopo, ma la piena applicazione è fissata al 1° agosto 2030 con solo alcune disposizioni che iniziano ad applicarsi dal 1° gennaio 2026. Si è quindi costruito un impianto più moderno – con maggiore attenzione anche alla vendita online e a strumenti come il digital product passport – ma si accetta una lunga fase di coesistenza con il regime precedente, proprio mentre l’offerta di giocattoli connessi e “conversazionali” accelera.

Due senatori statunitensi hanno scritto a diversi produttori di AI toys sollecitando chiarimenti su test indipendenti e pratiche di raccolta dati

Negli Stati Uniti, dove il mercato natalizio del 2025 ha reso questi oggetti particolarmente visibili, la risposta istituzionale sta prendendo forma soprattutto attraverso il perimetro della tutela dei consumatori e della privacy dei minori. Le regole esistono, basti pensare al COPPA[3] che punta a garantire controllo genitoriale sulla raccolta di dati online dei bambini sotto i 13 anni, ma si scontrano con prodotti ibridi – a metà fra giocattolo e servizio digitale – e con catene di fornitura che combinano hardware, piattaforme e modelli di AI. Non a caso, nel settembre 2025 la Federal Trade Commission ha avviato un’indagine informativa sui chatbot companion, chiedendo alle aziende quali misure abbiano adottato per valutare la sicurezza, limitare l’uso da parte di minori e informare famiglie e utenti sui rischi. Intanto a dicembre, due senatori statunitensi hanno scritto a diversi produttori di AI toys sollecitando chiarimenti su test indipendenti e pratiche di raccolta dati, con scadenze ravvicinate per le risposte, segno di una pressione politica che tende a concentrarsi proprio nel periodo di massimo consumo.

Organizzazioni come Fairplay e Common Sense Media invitano le famiglie a evitare acquisti di AI toys nella stagione natalizia

In questo contesto le richieste avanzate da organizzazioni come Fairplay e Common Sense Media, che invitano le famiglie a evitare questi acquisti nella stagione natalizia, hanno trovato un’eco ampia, non contestando in astratto l’innovazione, ma il fatto che stia diventando un prodotto di massa prima che esistano evidenze indipendenti solide sugli effetti e prima che siano maturi standard condivisi su privacy, sicurezza e progettazione child-centered. La stessa Mattel, pur confermando la collaborazione con OpenAI, a dicembre ha annunciato che non lancerà sul mercato alcun giocattolo AI entro la fine dell’anno proprio a causa del clima di incertezza che aleggia sul piano regolatorio e nel dibattito pubblico.

In Italia gli AI toys sono una realtà già reperibile sul mercato nazionale soprattutto on line

In Italia gli AI toys non sono un futuro possibile, ma una realtà già reperibile sul mercato nazionale soprattutto on line e comprende, sia dispositivi che puntano sulla dimensione conversazionale e sulla connessione cloud, sia robot educativi che impiegano algoritmi “intelligenti” legati a sensoristica, movimento e riconoscimento. Che cosa significa, allora, prudenza nel Natale 2025 senza scivolare nel panico morale o nella demonizzazione del progresso tecnologico? Significa guardare questi prodotti per quello che sono: gli AI toys non solo giocattoli, ma dispositivi connessi e servizi digitali che possono raccogliere dati e produrre risposte non sempre prevedibili. La cautela, quindi, non è la rinuncia in assoluto, ma la ricerca di trasparenza e garanzie su funzionamento in cloud, sulle informazioni memorizzate, per quanto tempo, con quali controlli parentali e con quale politica di aggiornamenti e sicurezza. Da parte sua il buon senso impone di non delegare a una “voce artificiale” funzioni relazionali che appartengono al gioco libero e alle interazioni umane.

Mariarosaria Zamboi, ricercatrice dell’Eurispes