Sintesi
- Il nostro nuovo sondaggio condotto su 1,000 bambini e 2,000 genitori nel Regno Unito mostra come un numero crescente di bambini (64%) utilizzi chatbot basati sull'intelligenza artificiale per ottenere aiuto in ogni ambito, dai compiti ai consigli emotivi e alla compagnia, senza che molti mettano mai in dubbio l'accuratezza o l'appropriatezza delle risposte che ricevono.
- Il rapporto, “Io, me stesso e l’intelligenza artificiale”, descrive come sempre più bambini parlino con i chatbot di intelligenza artificiale come se fossero amici, nonostante molti dei chatbot di intelligenza artificiale più popolari non siano stati progettati per essere utilizzati in questo modo. Oltre un terzo (35%) dei bambini che li usano afferma che parlare con un chatbot di intelligenza artificiale è come parlare con un amico, mentre sei genitori su dieci affermano di temere che i propri figli credano che i chatbot di intelligenza artificiale siano persone reali.
- Il rapporto avverte che i bambini vulnerabili sono i più a rischio: l'indagine ha rilevato che il 71% di loro utilizza chatbot basati su intelligenza artificiale. Un quarto (26%) dei bambini vulnerabili che utilizzano chatbot basati su intelligenza artificiale afferma di preferire parlare con un chatbot basato su intelligenza artificiale piuttosto che con una persona reale, mentre il 23% afferma di utilizzare i chatbot perché non ha nessun altro con cui parlare.
- Il rapporto avverte che i bambini utilizzano chatbot basati sull'intelligenza artificiale su piattaforme non progettate per loro, senza adeguate misure di sicurezza, come la verifica dell'età e la moderazione dei contenuti, e invita il governo a chiarire in che modo i chatbot basati sull'intelligenza artificiale rientrano nell'ambito di applicazione dell'Online Safety Act.
- L'intelligenza artificiale viene sempre più utilizzata dai bambini per aiutarli nei compiti scolastici e il rapporto chiede alle scuole di fornire indicazioni chiare e coerenti per favorire la conoscenza e l'utilizzo dell'intelligenza artificiale da parte dei bambini, compresi i chatbot. Anche i genitori faticano a tenere il passo con l'evoluzione dell'intelligenza artificiale e necessitano di supporto per guidare i propri figli a utilizzarla con sicurezza e responsabilità.
Oggi (domenica 13 luglioesimo) abbiamo pubblicato un nuovo rapporto, "Io, me stesso e l'intelligenza artificiale: comprendere e tutelare l'uso dei chatbot di intelligenza artificiale da parte dei bambini".
Mentre i chatbot basati sull'intelligenza artificiale diventano rapidamente parte della vita quotidiana dei bambini, il rapporto esplora il modo in cui i bambini interagiscono con essi. Il rapporto evidenzia come gli strumenti di intelligenza artificiale possano offrire vantaggi ai bambini, come Oltre a fornire supporto all'apprendimento e uno spazio per porre domande, avverte anche che rappresentano rischi per la sicurezza e lo sviluppo dei bambini. La mancanza di verifica dell'età e di regolamentazione significa che alcuni bambini sono esposti a contenuti inappropriati.
La nostra ricerca solleva preoccupazioni circa il fatto che i bambini utilizzino i chatbot basati sull'intelligenza artificiale per scopi emotivi, ad esempio per cercare amicizia e consigli, nonostante molti dei chatbot basati sull'intelligenza artificiale più diffusi non siano stati progettati appositamente per questo scopo. Il rapporto avverte che i bambini potrebbero diventare eccessivamente dipendenti dai chatbot basati sull'intelligenza artificiale o ricevere risposte imprecise o inappropriate, il che potrebbe ridurre la probabilità che cerchino aiuto da adulti di cui si fidano.
Queste preoccupazioni sono state aggravate da incidenti come quello in Florida, dove una madre ha intentato una causa contro character.ai, sostenendo che un chatbot basato su un personaggio di Game of Thrones avesse avuto interazioni violente e sessuali con il figlio adolescente, istigandolo a togliersi la vita. Nel Regno Unito, un parlamentare ha recentemente riferito al Parlamento di "un incontro estremamente straziante" con un elettore il cui figlio dodicenne sarebbe stato adescato da un chatbot sulla stessa piattaforma.
Il rapporto sostiene che il governo e l'industria tecnologica debbano riesaminare se le leggi e i regolamenti esistenti proteggano adeguatamente i bambini che utilizzano chatbot basati su intelligenza artificiale. Vi è una crescente consapevolezza della necessità di ulteriore chiarezza, linee guida aggiornate o nuove normative. In particolare, chiediamo al governo di imporre rigorosi requisiti di verifica dell'età per i fornitori di chatbot basati su intelligenza artificiale, al fine di garantire che i fornitori applichino requisiti di età minima e creino esperienze adeguate all'età dei bambini.
Per orientare la nostra ricerca, abbiamo intervistato un campione rappresentativo di 1,000 bambini nel Regno Unito di età compresa tra 9 e 17 anni e 2,000 genitori di bambini di età compresa tra 3 e 17 anni, e abbiamo organizzato quattro focus group con i bambini. I test utente sono stati condotti su tre chatbot di intelligenza artificiale: ChatGPT, Snapchat'S My AI e character.ai, e sono stati creati due 'avatar' per simulare l'esperienza di un bambino su questi.
I principali risultati di questa ricerca includono:
- I bambini utilizzano i chatbot basati sull'intelligenza artificiale in modi diversi e fantasiosi. Il 42% dei bambini di età compresa tra 9 e 17 anni che hanno utilizzato chatbot basati sull'intelligenza artificiale li ha utilizzati per supportare i compiti scolastici. I bambini li usano per ripassare, supportare la scrittura e "esercitare" le competenze linguistiche. Molti apprezzano la possibilità di avere risposte e spiegazioni immediate.
- Richiesta di consiglio: Quasi un quarto (23%) dei bambini che hanno utilizzato un chatbot basato sull'intelligenza artificiale lo ha già fatto per chiedere consiglio su cosa indossare o per esercitarsi a conversare con gli amici, fino a questioni più importanti come la salute mentale. Alcuni bambini che hanno utilizzato chatbot basati sull'intelligenza artificiale (15%) affermano di preferire parlare con un chatbot piuttosto che con una persona reale.
- Compagnia: In particolare, i bambini vulnerabili usano i chatbot di intelligenza artificiale per connettersi e trovare conforto. Un bambino su sei (16%) ha affermato di usarli perché desiderava un amico, mentre la metà (50%) afferma che parlare con un chatbot di intelligenza artificiale è come parlare con un amico. Alcuni bambini usano i chatbot di intelligenza artificiale perché non hanno nessun altro con cui parlare.
- Risposte imprecise e insufficienti: I bambini hanno condiviso esempi di risposte fuorvianti o imprecise, come confermato dai nostri test utente. A volte, i chatbot con intelligenza artificiale non sono riusciti a supportare i bambini con consigli chiari e completi attraverso le loro risposte. Questo è particolarmente preoccupante, dato che il 58% dei bambini che hanno utilizzato chatbot con intelligenza artificiale ha affermato di ritenere che utilizzarli sia meglio che cercare autonomamente.
- Elevata fiducia nei consigli: Due bambini su cinque (40%) che hanno utilizzato chatbot basati sull'intelligenza artificiale non hanno dubbi nel seguire i consigli di un chatbot, e un ulteriore 36% non è sicuro se sia il caso di preoccuparsene. Questa percentuale è ancora più alta per i bambini vulnerabili. Questo nonostante i chatbot basati sull'intelligenza artificiale, a volte, forniscano consigli contraddittori o poco incoraggianti.
- Esposizione a contenuti dannosi: I bambini possono essere esposti a materiale esplicito e inappropriato per la loro età, tra cui contenuti misogini, nonostante i fornitori di chatbot con intelligenza artificiale vietino tali contenuti ai bambini nei loro termini di servizio.
- Confini sfumati: Alcuni bambini considerano già i chatbot di intelligenza artificiale come simili a esseri umani: il 35% di coloro che li utilizzano afferma che parlare con un chatbot di intelligenza artificiale è come parlare con un amico. Man mano che i chatbot di intelligenza artificiale diventano sempre più simili a esseri umani nelle loro risposte, i bambini potrebbero trascorrere più tempo a interagire con essi e diventare più dipendenti emotivamente. Questo è preoccupante, dato che un bambino su otto (12%) utilizza i chatbot di intelligenza artificiale perché non ha nessun altro con cui parlare, il che porta a quasi un bambino su quattro (23%) vulnerabile.
- I bambini vengono lasciati a gestire i chatbot di intelligenza artificiale da soli o con un input limitato da parte di adulti di cui si fidano. Il 62% dei genitori afferma di essere preoccupato per l'accuratezza delle informazioni generate dall'IA, eppure solo il 34% di loro ha parlato con i propri figli di come valutare la veridicità dei contenuti prodotti dall'IA. Solo il 57% dei bambini riferisce di aver parlato con gli insegnanti o a scuola dell'IA, e i bambini affermano che anche i consigli degli insegnanti all'interno delle scuole possono essere contraddittori.
Il rapporto formula inoltre raccomandazioni a livello di sistema per supportare e proteggere i bambini che utilizzano chatbot basati sull'intelligenza artificiale, tra cui:
- Industria adottare un approccio basato sulla sicurezza fin dalla progettazione per creare chatbot di intelligenza artificiale adatti all'età che rispecchino le esigenze dei bambini, con controlli parentali integrati, segnali stradali affidabili e funzionalità di alfabetizzazione mediatica.
- Enti Pubblici fornendo indicazioni chiare su come i chatbot di intelligenza artificiale sono coperti dall'Online Safety Act, imponendo un'efficace garanzia dell'età per i fornitori di chatbot di intelligenza artificiale non progettati per i bambini e assicurando che la regolamentazione tenga il passo con le tecnologie di intelligenza artificiale in rapida evoluzione.
- Governo che sostiene le scuole integrare l'intelligenza artificiale e l'alfabetizzazione mediatica in tutte le fasi chiave, inclusa la formazione degli insegnanti e l'offerta a scuole, genitori e bambini di indicazioni chiare sull'uso appropriato dell'intelligenza artificiale.
- Genitori e tutori ricevere supporto per guidare l'uso dell'intelligenza artificiale da parte dei propri figli e discutere di cosa sono i chatbot di intelligenza artificiale, come funzionano e quando utilizzarli, incluso quando cercare supporto nel mondo reale.
- Responsabili politici, ricerca e industria concentrare le voci dei bambini sullo sviluppo, la regolamentazione e la governance dei chatbot di intelligenza artificiale e investire nella ricerca a lungo termine su come l'intelligenza artificiale emotivamente reattiva possa plasmare l'infanzia.
Rachel Huggins, co-CEO di Internet Matters, ha affermato:
"I chatbot basati sull'intelligenza artificiale stanno rapidamente diventando parte integrante dell'infanzia, con un utilizzo in forte crescita negli ultimi due anni. Eppure, la maggior parte dei bambini, dei genitori e delle scuole non ha le informazioni o gli strumenti di protezione necessari per gestire questa rivoluzione tecnologica in modo sicuro.
Sebbene l'IA offra indubbi vantaggi, la nostra ricerca rivela come i chatbot stiano iniziando a rimodellare la visione che i bambini hanno dell'amicizia. Siamo arrivati rapidamente a un punto in cui i bambini, e in particolare i bambini vulnerabili, percepiscono i chatbot dell'IA come persone reali e, in quanto tali, chiedono loro consigli basati sulle emozioni e sulla sensibilità. È preoccupante anche il fatto che spesso non si interroghino su ciò che i loro nuovi "amici" stanno dicendo loro.
Dobbiamo prestare attenzione a questi primi segnali di allarme e adottare misure coordinate per garantire che i bambini possano esplorare il potenziale dei chatbot basati sull'intelligenza artificiale in modo sicuro e positivo, evitando l'evidente potenziale di danni.
Milioni di bambini nel Regno Unito utilizzano chatbot di intelligenza artificiale su piattaforme non progettate per loro, senza adeguate garanzie, formazione o supervisione. Genitori, tutori ed educatori hanno bisogno di supporto per guidare l'uso dell'intelligenza artificiale da parte dei bambini. L'industria tecnologica deve adottare un approccio di sicurezza fin dalla progettazione per lo sviluppo di chatbot di intelligenza artificiale, mentre il Governo dovrebbe garantire che le nostre leggi sulla sicurezza online siano sufficientemente solide per affrontare le sfide che questa nuova tecnologia sta introducendo nella vita dei bambini.
Derek Ray-Hill, CEO ad interim della Internet Watch Foundation, ha affermato:
"Questo rapporto solleva alcune questioni fondamentali sulla regolamentazione e la supervisione di questi chatbot basati sull'intelligenza artificiale.
Il fatto che i bambini possano imbattersi in contenuti espliciti o inappropriati per l'età tramite chatbot basati su intelligenza artificiale aumenta il potenziale di danni in uno spazio che, come suggeriscono le nostre prove, si sta già rivelando problematico per i giovani utenti. Le segnalazioni di possibili casi di adescamento tramite questa tecnologia sono particolarmente inquietanti.
I bambini meritano un internet sicuro dove possano giocare, socializzare e imparare senza essere esposti a pericoli. Abbiamo bisogno di un intervento urgente da parte del governo e delle aziende tecnologiche per integrare la sicurezza fin dalla progettazione nei chatbot di intelligenza artificiale prima che vengano resi disponibili.